首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

语音助手不可靠?研究者成功攻击文本语音转换系统

北京时间1月11日上午消息,加州大学伯克利分校的计算机科学家开发出一种人工智能(AI)技术,可以攻击“文本-语音”转换系统。利用他们的方法,不管音频文件听起来是怎样的,文本输出结果都能变成攻击者想要的样子。技术很酷,但是却向我们发出警告:用AI作恶是完全可能的。

计算机专家尼克拉斯·卡利尼(Nicholas Carlini)和大卫·瓦格纳(David Wagner)成功欺骗Mozilla最流行的DeepSpeech开源文本-语音转换系统。给出任意一段音频声波,科学家就可以制作出另一段音频声波,相似度超过99.9%,转录时科学家可以选择任意短语,速度最高可以达到每秒50字符。攻击的成功率高达100%,不论想要转录的语音是怎样的,最初所说的源短语是怎样的,都可以成功。如果输入的是任意波形的声音,但不是语音,比如输入音乐,科学家可以将语音插入音频,你无法识别它是语音;让语音保持静默,就可以将音频隐藏到文本-语音转换系统。

也就是说,从理论上讲,科学家可以处理任意音频文件,欺骗文本-语音转换器,让它们相信音频是其它东西。当今的世界到处都是智能音箱和语音助手,新攻击技术无疑是一枚重磅炸弹。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180111A072L500?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券