前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >实时指令唤醒

实时指令唤醒

作者头像
夜雨飘零
发布2023-12-18 13:34:05
2510
发布2023-12-18 13:34:05
举报
文章被收录于专栏:CSDN博客

前言

本文将介绍一个实时指令唤醒的程序,可以添加任意的指令,实时录音一旦检测到指令语音,激活程序。同时还支持指令微调、提高指令的准确率。

安装项目环境

本项目开发换为:

  • Anaconda 3
  • Windows 11
  • Python 3.11
  • Pytorch 2.1.0
  • CUDA 12.1
  1. 安装Pytorch,执行下面命令,如果已经安装了其他版本,若能正常运行,请跳过。
代码语言:javascript
复制
conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidia
  1. 安装其他依赖包,执行下面命令,安装完成之后,如果还缺失其他库,请对应安装。
代码语言:javascript
复制
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

指令唤醒

infer_pipeline.py可以使用GPU进行推理,如果要使用CPU推理,可以infer_onnx.py,这个使用的是ONNX,在CPU可以有加速。

  1. 可以调整的参数有:sec_time为录制时间,单位秒;last_len为上一部分的数据长度,单位秒;。
  2. 增加指令,需要在instruct.txt添加指令。

输出日志:

代码语言:javascript
复制
支持指令:['向上', '向下', '向左', '向右', '停止', '开火']
请发出指令...
触发指令:【开火】
触发指令:【停止】

微调指令模型

微调指令模型的代码在finetune目录下,微调前切换到finetune目录,具体的训练过程看下面操作。

制作数据

运行record_data.py代码,启动录音程序,默认录制2秒钟,建议录制完成之后,再录制1秒钟的音频,注意录制1秒钟时间非常短,按下回车之后要立马开始说话。其实自定义数据可以参考生成的dataset目录。

输出日志:

代码语言:javascript
复制
请输入指令内容:向上
请输入录入次数:10
第1次录音,按回车开始说话:
开始录音......
录音已结束!
第2次录音,按回车开始说话:

训练模型

运行finetune.py代码,训练模型。

输出日志:

代码语言:javascript
复制
[ubuntu] 2023-12-17 13:02:53,260 (build_trainer:405) INFO: The best model has been updated: valid.acc
[ubuntu] 2023-12-17 13:02:53,260 (build_trainer:248) INFO: 2/20epoch started. Estimated time to finish: 0.02464581797971429 hours
[ubuntu] 2023-12-17 13:02:54,854 (build_trainer:299) INFO: 2epoch results: [train] iter_time=0.224, forward_time=0.239, loss_att=0.638, acc=0.878, loss_pre=0.120, loss=0.758, backward_time=0.032, optim_step_time=0.005, optim0_lr0=5.000e-09, train_time=0.795, time=0.83 seconds, total_count=2, gpu_max_cached_mem_GB=2.082, [valid] loss_att=0.277, acc=0.933, cer=0.033, wer=0.150, loss_pre=0.011, loss=0.288, time=0.77 seconds, total_count=2, gpu_max_cached_mem_GB=2.082

合并模型

运行merge_model.py代码,将训练好的模型合并成一个模型,最后使用的模型就使用models/paraformer-large-contextual_finetune这个路径下的模型。

转换ONNX模型

微调后的模型只能用于GPU使用,如果要使用CPU推理,就要转换为ONNX格式模型,操作如下。导出的模型跟上面使用infer_onnx.py一样。

  1. 在根目录的models目录下,复制微调后的模型文件夹,并命名为paraformer-large-onnx-finetune,接着执行命令:
代码语言:javascript
复制
python -m funasr.export.export_model --model-name ./models/paraformer-large-onnx-finetune --export-dir ./models/paraformer-large-onnx-finetune --type onnx
  1. 然后可以删除里面无用的文件,如examplefiglmdecoding.yamlfinetune.yamlmodel.pb
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2023-12-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
  • 安装项目环境
  • 指令唤醒
  • 微调指令模型
    • 制作数据
      • 训练模型
        • 合并模型
          • 转换ONNX模型
          相关产品与服务
          GPU 云服务器
          GPU 云服务器(Cloud GPU Service,GPU)是提供 GPU 算力的弹性计算服务,具有超强的并行计算能力,作为 IaaS 层的尖兵利器,服务于生成式AI,自动驾驶,深度学习训练、科学计算、图形图像处理、视频编解码等场景。腾讯云随时提供触手可得的算力,有效缓解您的计算压力,提升业务效率与竞争力。
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档