我的目标是使用一个语音到文本模型来处理几个视频。
令人困惑的是,谷歌有两款产品似乎都在做同样的事情。
这些产品的主要区别是什么?
Google语音到文本:
- Speech-to-Text has an "enhanced video" model for interpreting the audio.
谷歌视频智能:
- VI has the option to request a `SPEECH_TRANSCRIPTION` feature
我已经建立了一个家庭自动化系统,目前正在被许多客户使用。家庭自动化系统由一个中央集线器组成,它总是连接到一个云服务器,它还控制着各种节点设备。我还开发了一个移动应用程序来远程控制家庭设备。
现在我想在我的系统中添加一个语音控制功能,我认为Amazon Alexa是我需要的完美选择,因为我的大多数客户都拥有Alexa。我将给出我想要实现的概述。
假设客户向Alexa发出语音命令,就像Alexa, turn on living room's floor light一样。收到这样的命令后,Alexa应该通过API向我的云服务器发出POST请求,参数为:Turn On, Living Room
我正在编写一个应用程序,它的行为将类似于现有的语音识别,但将发送声音数据到一个专有的web服务来执行语音识别部分。我使用的标准MediaRecord (这是AMR编码),似乎是完美的语音识别。通过getMaxAmplitude()方法提供的唯一数据是振幅。
我试图检测人什么时候开始说话,这样当这个人停止说话大约2秒时,我就可以继续将声音数据发送到web服务。现在,我用一个阈值来表示振幅,如果它超过一个值(即1500),那么我假设这个人在说话。我担心的是,振幅水平可能因设备而异(即Nexus One v Droid),因此我正在寻找一种更标准的方法,可以从振幅值中导出。
我看了,但它并没有提供一
我正在开发一个应用程序,其中我想要生成一个语音文件,即书面文本使用文本到语音每次去电。我能够检测到接收者何时使用可访问性服务应答呼叫。以下是代码:
public class CallDetection extends AccessibilityService {
@Override
public void onAccessibilityEvent(AccessibilityEvent event) {
if (event.getEventType() == AccessibilityEvent.TYPE_WINDOW_CONTENT_CHANGED) {
Log.i(