我使用Twilio的python进行呼叫处理和响应。当一个Twilio调用被放置时,我想要一个功能,在调用本身为时,调用者的语音被直接流到Google,用于文本转换。然后,我需要处理转录文本,以提供适当的反应,立即用户。
我知道twilio中的 record 功能,它帮助我们记录来电者的声音并将其保存为录音。一种方法是在录音文件可用后访问它,然后将记录的文件传递给Google。但是
我想用nodejs和googlespeech to text api制作一个实时转录应用程序。
我使用RecordRTC和socket.io将音频块发送到后端服务器。目前,我正在录制1个很长的块,transciption可以工作,但它不会将其视为流,它会在处理每个块后发送响应。这意味着我得到的是半句话,而谷歌无法使用上下文来帮助自己识别演讲。我的问题是,如何让google
我正在编写一个脚本,将数据从麦克风发送到Google语音到文本API。我需要访问gRPC API来产生在录制过程中的实时读数。一旦记录完成,我需要访问REST以获得更精确的异步识别。下面的流将cffi_backend_buffer对象记录到一个队列中,一个单独的线程收集这些对象,将它们转换为字节,并将它们提供给API。但是,仅像我在实时识别中那样发送字节字符串似乎不起作用:
from google.