我想知道,那里有基本的语音识别工具吗?我只想要能够区分"是"和"否"之间差异的东西,并且实现起来相当简单.那里的大部分东西似乎都让你从零开始,我正在寻找更高水平的东西.
谢谢!
我没有在我的Android手机中安装谷歌语音搜索.我无法安装它,因为它只适用于美国.但是vilingo应用程序在我的Android手机上运行良好.在我自己的语音识别应用程序中,它显示"识别器不存在".
这是我在Android开发者网站上使用的代码.
List<ResolveInfo> activities = pm.queryIntentActivities(
intent, pm.MATCH_DEFAULT_ONLY);
if (activities.size() == 0)
{
speakButton.setEnabled(false);
speakButton.setText("Recognizer not present");
}
Run Code Online (Sandbox Code Playgroud)
为什么它从上面的代码返回空列表?
非常感谢.
[可能重复]但我没有在下面找到我的问题的答案.
我过去两天一直在做一些关于语音识别的研究,但我没有得到我的问题的答案:
我正在寻找一种匹配已知数据集的方法,比方说一个MP3或wav文件列表,每个文件都是有人说话的样本.此时我知道文件ABC是人X讲的.
然后,我想采取另一个样本,并进行一些语音匹配,以显示这个语音最有可能的人,然后给出已知的数据集.
此外,我不一定关心这个人说了什么,只要我能找到一个匹配,即我不需要任何抄录或其他.
我知道CMU Sphinx不进行语音识别,它主要用于语音到文本,但我见过其他系统,例如:LIUM Speaker Diarization(http://cmusphinx.sourceforge.net/wiki/ speakerdiarization)或VoiceID项目(https://code.google.com/p/voiceid/),它使用CMU作为此类工作的基础.
如果我要使用CMU,我该如何进行语音匹配?
另外,如果CMU Sphinx不是最好的框架,那么还有一个替代的开源吗?
audio speech-recognition pattern-matching voice-recognition cmusphinx
我希望能够通过语音识别编写代码,他目前在Mac OS X 10.6.8上使用Aquamacs 2.4和Dragon Dictate 2.有人知道这是否可能,如果可能,如何?我见过shorttalk,emacs listen和语音代码,但它们只适用于使用Dragon Naturally Speaking的Windows机器.
任何线索都会非常感激.
我也是通过ESS写的.
我正在尝试将Android语音识别作为服务运行.我可以验证服务的onCreate()和onStart()方法是否被调用,但是没有调用语音识别方法的回调,尽管我已经正确设置了SpeechRecognizer对象.语音识别似乎在活动而不是服务中完成.如何使其作为服务工作?这是一个明显的问题吗?
package net.viralpatel.android.speechtotextdemo;
import java.io.BufferedWriter;
import java.io.FileWriter;
import java.io.IOException;
import java.util.ArrayList;
import android.app.Service;
import android.content.Intent;
import android.os.Bundle;
import android.os.IBinder;
import android.speech.RecognitionListener;
import android.speech.RecognizerIntent;
import android.speech.SpeechRecognizer;
import android.util.Log;
import android.widget.Toast;
public class MyService extends Service implements RecognitionListener {
private SpeechRecognizer speechRecognizer;
@Override
public IBinder onBind(Intent arg0) {
return null;
}
@Override
public void onCreate() {
Toast.makeText(this, "My Service Created", Toast.LENGTH_LONG).show();
Log.d("tag", "onCreate");
speechRecognizer = SpeechRecognizer.createSpeechRecognizer(getApplicationContext());
speechRecognizer.setRecognitionListener(this);
Intent intent = new Intent(RecognizerIntent.ACTION_RECOGNIZE_SPEECH);
intent.putExtra(RecognizerIntent.EXTRA_LANGUAGE_MODEL,
RecognizerIntent.LANGUAGE_MODEL_WEB_SEARCH);
speechRecognizer.startListening(intent);
}
@Override
public void onDestroy() {
Toast.makeText(this, …Run Code Online (Sandbox Code Playgroud) 我最近编程使用说话人识别库 - ALIZE.但是我对如何安装和执行演示有一些疑问.有人可以帮我看看我的安装和执行顺序有什么问题.
我用的是Mac OS系统:
1,使用aclocal,automake,autoconf,./ configure和make为每个lib 下载lib ALIZE和LIA-RAL .
2,我下载了演示,我从互联网上找到了演示:http: //alize.univ-avignon.fr/doc_en.html
3,我将LIA_RAL/bin复制到XX/bin /中.XX是我发现的演示.
4,我在demo中用bash + XX.sh编译.
我在执行第4步时遇到的两个错误.一个是我找不到bin/sfbcep,有人可以解释一下这是什么.一个错误是总线错误10,我也不知道.
我想开发一个Android应用程序.
该应用程序的一个功能是识别2个人的声音.
这将是kike这个 - 当应用程序打开时,2个人将在它面前说话.应用程序将检测2个人说话,并将计算多少%(让2个人是A和B)人A讲话和人B相同.
所以,比方说,1分钟后应用程序会告诉A 80%的谈话,B会谈20%.
所以,我需要的是如何区分2个人的声音.
我试过SpeechRecognizer和android.speech.tts.但我不能让它发挥作用.
在android中可以区分2个人的声音吗?
在此先感谢您的帮助.
android voice voice-recording voice-recognition google-voice
我已经为研究做了很多工作并尝试了离线口袋狮身人面像,但它正在采取周围的声音,并以不同的方式对我的应用做出反应.以上kitkat 4.4是否有谷歌离线应用程序..我正在尝试从2周.谢谢你的宝贵答案.
详细信息:当活动开始时,文本必须在完成后阅读内容(文本到语音),阅读语音识别必须采取语音并按照命令ex :(下一个,上一个,前进,选项,1,2,3, 4等).根据命令,它必须在onresult方法中识别并作出反应.
错误:我收到一些声音后收到错误
06-18 19:54:00.159: V/onBeginningOfSpeech(3360): onBeginningOfSpeech
06-18 19:54:01.024: V/onPartialResult(3360): option
06-18 19:54:01.109: I/cmusphinx(3360): INFO: fsg_search.c(843): 105 frames, 5333 HMMs (50/fr), 7748 senones (73/fr), 371 history entries (3/fr)
06-18 19:54:01.110: I/SpeechRecognizer(3360): Stop recognition
06-18 19:54:01.110: E/cmusphinx(3360): ERROR: "fsg_search.c", line 913: Final result does not match the grammar in frame 105
06-18 19:54:01.111: V/onPartialResult-->(3360): option
06-18 19:54:01.111: V/onResult(3360): onResult
Run Code Online (Sandbox Code Playgroud)
但如果我关闭互联网,它就不能脱机工作了.
在pocketsphinx中,它没有对正确的词作出反应.如果我说"下一个"它接近另一个的声音内容附加"密钥",它给了我很多问题.是否有任何离线使用的解决方案或库.任何离线谷歌离线语音支持.
以下是我的代码尝试
package com.example.sample1;
import static edu.cmu.pocketsphinx.SpeechRecognizerSetup.defaultSetup;
import java.io.File;
import java.io.IOException;
import java.util.ArrayList;
import …Run Code Online (Sandbox Code Playgroud) android speech-recognition speech-to-text voice-recognition pocketsphinx-android
我正在参考这个链接,讨论Google语音引擎.它说我必须从谷歌获得API密钥,才能使用他们正在讨论的谷歌语音引擎.在发布的链接中,他们显示了激活Speech API密钥的图像.
但是,当我访问API站点时,我找不到任何相关信息Speech API.
是否没有更多用于Speech API的API密钥?或者不需要使用它们?值得理解的是,这种语音API允许上传flac文件,这与其他文件完全不同.
api speech-recognition chromium voice-recognition google-speech-api