我在应用程序中使用AudioRecord录制语音,然后使用Firebase调用speech- to -text api,但总是返回"encode“不正确。DEFAULT_CHANNEL_CONFIG: Int = AudioFormat.CHANNEL_IN_MONO
val DEFAULT_AUDIO_FORMAT = AudioFormat.ENCODING_PCM
我从WhatsApp中捕获了一条语音消息,它使用节点js保存为wav文件。但是我将这个使用JavaScript语言进行语音翻译的wav文件传递给text WAV sdk,它没有显示任何内容,也将该文件尝试到演示应用程序中,在蔚蓝演示应用程序()中,我得到了“无法识别语音错误:处理'audio.wav‘时出现错误。编码码
var encoder = new base6
我使用的是speech_recognition和一个pjsua记录的wav文件,当我试图发送该文件的内容时,它总是以错误msg结尾。Audio file could not be read as PCM WAV, AIFF/AIFF-C, or Native FLAC; check if file is corrupted or inanother format
文件通常使用MPV播放,检查文件显示它是PCM (我使用了file命令)。tes
我已经使用Azure api和使用HttpRequests的传统REST实现了Microsoft.CognitiveServices.Speech text to speech的官方github示例,并且正在对其进行测试,但无论我尝试哪种方法,在将文本提交给服务时都会出现401/400错误。我的测试应用程序正确地进行了身份验证,并使用有效的gov云帐户从Auth token Service获得了一个有效的令牌,但对语音服务端点的调用本身失败或被转储。更新:在手