标签 asr 下的文章

我使用的是腾讯的 Cloud Studio 作为开发环境。创建的免费基础型
2025-07-05T07:47:51.png

  1. 创建 venv 环境。

    python -m venv myenv
  2. 激活环境,这个 Cloud Studio 是 Ubuntu 的系统所以需要使用 source 激活

    source myenv/bin/activate
    
    # 退出虚拟环境 (等你不使用的时候再说)
    deactivate
  3. 安装 whisper 环境的前置依赖

    • 安装 ffmpeg

      sudo apt update && sudo apt install ffmpeg
    • 安装 python 相关的前置依赖

      pip install setuptools-rust tiktoken
  4. 安装 whisper

    pip install -U openai-whisper

  1. 创建 docker-compose.yml 文件
services:
  whisper-asr:
    image: onerahmet/openai-whisper-asr-webservice:latest
    environment:
      ASR_MODEL: turbo # (tiny, base, small, medium, large-v3, etc.
      ASR_ENGINE: faster_whisper # openai_whisper, faster_whisper, whisperx
      ASR_DEVICE: cpu # or cuda 我是cpu服务器所以只能选 cpu
      ASR_MODEL_PATH: /data/whisper 
      HF_ENDPOINT: https://hf-mirror.com # 使用 HF_ENDPOINT 作为国内镜像
    volumes:
      - ./data/whisper:/data/whisper
    ports:
      - 29000:9000 # 前面的 29000 可以修改,访问的时候记得调整端口即可
  1. 启动
# docker-compose up -d 

访问 ip:29000 即可看到 swagger 接口文档

[1] docker hub地址 https://hub.docker.com/r/onerahmet/openai-whisper-asr-webservice

[2] hf-mirror.com 致力于帮助国内AI开发者快速、稳定的下载模型、数据集

sudo docker pull \
registry.cn-hangzhou.aliyuncs.com/funasr_repo/funasr:funasr-runtime-sdk-online-cpu-0.1.12

mkdir -p ./funasr-runtime-resources/models

sudo docker run -p 10096:10095 -it --privileged=true \
-v $PWD/funasr-runtime-resources/models:/workspace/models \
registry.cn-hangzhou.aliyuncs.com/funasr_repo/funasr:funasr-runtime-sdk-online-cpu-0.1.12

cd FunASR/runtime

nohup bash run_server.sh \
--certfile 0 \
--download-model-dir /workspace/models \
--vad-dir damo/speech_fsmn_vad_zh-cn-16k-common-onnx \
--model-dir damo/speech_paraformer-large-vad-punc_asr_nat-zh-cn-16k-common-vocab8404-onnx \
--punc-dir damo/punc_ct-transformer_cn-en-common-vocab471067-large-onnx \
--lm-dir damo/speech_ngram_lm_zh-cn-ai-wesp-fst \
--itn-dir thuduj12/fst_itn_zh \
--hotword /workspace/models/hotwords.txt > log.txt 2>&1 &

如果您想关闭ssl,增加参数:--certfile 0

如果您想使用SenseVoiceSmall模型、时间戳、nn热词模型进行部署,请设置--model-dir为对应模型:

iic/SenseVoiceSmall-onnx

damo/speech_paraformer-large-vad-punc_asr_nat-zh-cn-16k-common-vocab8404-onnx(时间戳)

damo/speech_paraformer-large-contextual_asr_nat-zh-cn-16k-common-vocab8404-onnx(nn热词)

如果您想在服务端加载热词,请在宿主机文件./funasr-runtime-resources/models/hotwords.txt配置热词(docker映射地址为/workspace/models/hotwords.txt):

每行一个热词,格式(热词 权重):阿里巴巴 20(注:热词理论上无限制,但为了兼顾性能和效果,建议热词长度不超过10,个数不超过1k,权重1~100)

SenseVoiceSmall-onnx识别结果中“<|zh|><|NEUTRAL|><|Speech|> ”分别为对应的语种、情感、事件信息