首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏VoiceVista语音智能

    RNNoise - A NN Approach of Noise Suppression

    Here's RNNoise The main idea is to combine classic signal processing with deep learning to create a RNNoise uses the Gated Recurrent Unit (GRU) because it performs slightly better than LSTM on this task

    72820编辑于 2022-09-02
  • 来自专栏算法+

    来源自rnnoise,但非rnn

    rnnoise这个开源项目,既然能得到很好的效果, 那就证明有一些算法思路是可行的。 只不过深度学习的方案, 特征需要依赖数据去训练。 弊端特别明显。 不采用深度学习的方法去做,肯定可以。 向rnnoise学了不少思路,致敬! 整个算法实现不到200行, 却同时拥有高速性能和不错的效果, 鲁棒性极佳, 内存占用也极低。 并且支持实时帧算法,支持多通道。

    2.1K51发布于 2018-12-02
  • 来自专栏云上修行

    在腾讯云云服务器CVM上玩转rnnoise

    rnnoise介绍 RNNoise是一种用于语音信号降噪的开源库,它使用递归神经网络(RNN)来实现噪声抑制。 git clone https://github.com/xiph/rnnoise cd rnnoise . self.rnnoise_lib.rnnoise_create.argtypes = [ctypes.c_void_p] self.rnnoise_lib.rnnoise_create.restype = ctypes.c_void_p # RNNOISE_EXPORT float rnnoise_process_frame(DenoiseState *st, float *out = ctypes.c_float # RNNOISE_EXPORT void rnnoise_destroy(DenoiseState *st); self.rnnoise_lib.rnnoise_destroy.argtypes

    64810编辑于 2025-04-26
  • 来自专栏算法+

    基于RNN的音频降噪算法 (附完整C代码)

    前几天无意间看到一个项目rnnoise。 项目地址: https://github.com/xiph/rnnoise 基于RNN的音频降噪算法。 采用的是 GRU/LSTM 模型。 详情请移步博主另一篇小文《简洁明了的插值音频重采样算法例子 (附完整C代码)》 3.增加CMake文件 4.增加测试用 示例音频sample.wav  取自(https://github.com/orctom/rnnoise-java ) 贴上完整示例代码 :  #include <stdio.h> #include "rnnoise.h" #include <stdlib.h> #include <stdint.h> #define int16_t *buffer, uint32_t buffen_len) { const int frame_size = 480; DenoiseState *st; st = rnnoise_create 项目地址:https://github.com/cpuimage/rnnoise 示例具体流程为: 加载wav(拖放wav文件到可执行文件上)->重采样降噪->保存wav 若有其他相关问题或者需求也可以邮件联系俺探讨

    9.6K83发布于 2018-04-12
  • 来自专栏算法+

    音频识别算法思考与阶段性小结

    /github.com/cpuimage/AudioDenoise https://github.com/cpuimage/WebRTC_NS https://github.com/cpuimage/rnnoise 由于有很多人询问rnnoise的训练方法和数据集。 算法实现细节见: https://people.xiph.org/~jm/demo/rnnoise/ 关于数据集问题,原作者已经开放下载了。 下载地址: https://people.xiph.org/~jm/demo/rnnoise/rnnoise_contributions.tar.gz 关于rnnoise采样率适配和训练问题: 参阅项目 : https://github.com/GregorR/rnnoise-nu https://github.com/GregorR/rnnoise-models GregorR已经做了很多工作了,所以大多数问题

    2.3K11发布于 2018-09-20
  • 来自专栏云上修行

    从噪声中找回清晰: 探索声音处理的未来

    然而,通过RNN的强大处理能力,我们能在实时中抑制大部分噪声:WebRTC RNNoise:轻量级、实时的解决方案,特别适合低功耗设备。 NVIDIA RNNoise:利用GPU加速,确保在低延迟情况下处理更为复杂的噪声场景。DeepFilterNet:在高噪声环境中依旧可以提供卓越的降噪能力。 场景应用:个性化解决方案提供多种综合方案,帮助应对不同场景的挑战:嵌入式/低功耗设备(如 IoT) AEC: SpeexDSP → NS: WebRTC RNNoise (INT8量化) → VAD: 通用实时通信(WebRTC 优化) AEC: WebRTC AEC3 → NS: NVIDIA RNNoise → VAD: Silero VAD在保持延迟低的同时取得非常优异的音质表现,适用于个人电脑和移动端

    59500编辑于 2025-04-19
  • 来自专栏AI 大数据

    【AI 语音】实时语音交互优化全解析:从 RTC 技术到双讲处理

    结合深度学习模型,如 RNNoise,用于去除复杂背景噪声。解决双讲现象双讲现象会导致双方语音重叠,影响语音识别准确性。 A2:可以结合 WebRTC 的 NS(噪声抑制)功能,同时使用深度学习模型(如 RNNoise)进行额外的降噪。Q3:如何优化 AI 语音合成的自然度?

    1.8K10编辑于 2025-02-05
  • 12月13日 云头条:计量将迈入量子时代

    例如一些蓝牙耳机已经部署上了可以在本地运行的RNNoise算法,通过简单的运算来分离单一收音来源的噪声。

    1.1K119发布于 2018-12-13
  • 来自专栏传统基础应用开发专栏-不限开发语言

    01人工智能中优雅草商业实战项目视频字幕翻译以及声音转译之底层处理逻辑阐述-卓伊凡|莉莉

    语音增强模型(如NVIDIA的RNNoise)。文化差异表达解决方案:本地化翻译模型(如将“龙”译为“dragon”或“loong”按受众选择)。

    14200编辑于 2025-07-27
  • 来自专栏深蓝学院的专栏

    端到端声源分离研究:现状、进展和未来

    这些方法可以用来单通道语音降噪吗,如果可以的话实时性上和rnnoise算法相比怎么样,模型大小和速度和效果上如何? 分离模型都可以用来做降噪,模型的大小和速度上需要进行权衡,和rnnoise进行对比的话还需要确定模型的参数大小,单看模型的话是无法分析这件事的。 5.

    2.9K7572发布于 2020-09-07
  • 来自专栏机器之心

    网易云信神经网络音频降噪算法:提升瞬态噪声抑制效果,适合移动端设备

    在基于深度学习的算法中,研究者首先选择了 RNNoise[1],以此来评估优化所带来的效果提升。

    1.8K41发布于 2021-09-06
领券