我正在尝试在Android 4.1.2和4.3上构建一个离线语音识别Android应用程序,并且我正在尝试访问Android ASR API。我可以在上找到所有与同步语音识别相关的信息(使用意图),但是没有关于异步识别的信息(我想识别文件中的音频内容)。非常感谢!如果我把我想要做的事情换成另一种方式:我有一个录制了演讲的音频文件,我想以离线模式(例如,没有互联网连接)将该文件的内容发送到Android识别器。问题是,我可以在用户说话时使用Android语音识
我已经使用Python语音识别工作了大半个月,制作了一个类似JARVIS的助手。我已经通过Google Speech API和Pocketsphinx使用了语音识别模块,并且我直接使用了Pocketsphinx,而没有使用其他模块。虽然识别是准确的,但我很难处理这些软件包处理语音所需的大量时间。它们的工作方式似乎是从一个静默点记录到另一个静默点,然后将记录传递给STT引擎。当查看Google Assistant语音识别、Alexa的语音识别或Mac OS High Sierra的离线识别