我目前正在做一个非常重要的学校项目.我需要在C/C++中提取WAVE文件的信息,并使用该信息来获取语音信号的LPC.但是,为了做到这一点,我需要对信号进行一些预处理,比如进行零交叉和能量分析等.这意味着我需要标志和真正的价值.问题是我不知道如何获得有用的信息和正确的格式.我已经读过文件中的每个字段,但我不确定我做得对.建议好吗?
这是我此刻阅读文件的方式:
readI = fread(&bps,1,2,audio); printf("每个样本的位数=%d \n",bps);
提前致谢.
在阅读了webkitSpeechRecognition(Javascript中的语音识别)的文档后,我尝试在Angular 2中实现它.
但是当我这样做时:
const recognition = new webkitSpeechRecognition();
Run Code Online (Sandbox Code Playgroud)
TypeScript说这个错误:
[ts] Cannot find name 'webkitSpeechRecognition'. any
Run Code Online (Sandbox Code Playgroud)
如果我尝试从窗口中提取webkitSpeechRecognition:
if ('webkitSpeechRecognition' in window) {
console.log("Enters inside the condition"); // => It's printing
const { webkitSpeechRecognition } = window; // => TypeScript Error
const recognition = new webkitSpeechRecognition();
}
Run Code Online (Sandbox Code Playgroud)
如果我评论console.log打印的最后两行,请进入条件!webkitSpeechRecognition存在于窗口内!但是如果没有注释最后两行,那么TypeScript错误就是这样:
[ts] Type 'Window' has no property 'webkitSpeechRecognition' and no string index signature.
const webkitSpeechRecognition: any
Run Code Online (Sandbox Code Playgroud)
如何在Angular 2中创建新的识别?有人试过吗?
javascript voice-recognition webspeech-api typescript1.8 angular
到目前为止,我发现Twilio和Tropo可以帮助短信和语音应用.
还有其他人吗?
我主要对实时语音识别感兴趣(即用户可以说话,系统可以基于此做出响应).
此外,如果有人知道语音识别质量是什么样的话,它会有所帮助!
有没有办法为单声道应用程序添加语音识别功能.System.Speech(在.net中)和Microsoft.Speech(在MS Speech Platform中)有名称空间,但我在Mono中找不到任何名称空间.那么如何在Mono中添加语音识别功能呢?
在大多数Android设备中,RecognitionService将由Google的原生"现在/助理"应用程序提供.
在Android Oreo之前,我能够使用以下简单代码查询Google Recognizer支持的语言:
final Intent vrIntent = new Intent(RecognizerIntent.ACTION_GET_LANGUAGE_DETAILS);
// vrIntent.setPackage("com.google.android.googlequicksearchbox");
getContext().sendOrderedBroadcast(vrIntent, null, new BroadcastReceiver() {
@Override
public void onReceive(final Context context, final Intent intent) {
// final Bundle bundle = intent.getExtras();
final Bundle bundle = getResultExtras(true);
if (bundle != null) {
if (bundle.containsKey(RecognizerIntent.EXTRA_SUPPORTED_LANGUAGES)) {
Log.i("TAG", "onReceive: EXTRA_SUPPORTED_LANGUAGES present");
final ArrayList<String> vrStringLocales = bundle.getStringArrayList(
RecognizerIntent.EXTRA_SUPPORTED_LANGUAGES);
Log.i("TAG", "onReceive: EXTRA_SUPPORTED_LANGUAGES size: " + vrStringLocales.size());
} else {
Log.w("TAG", "onReceive: missing EXTRA_SUPPORTED_LANGUAGES");
}
} else {
Log.w("TAG", "onReceive: Bundle null"); …Run Code Online (Sandbox Code Playgroud) java android speech-recognition voice-recognition google-voice-search
我非常喜欢Microsofts最新的语音识别(和SpeechSynthesis)产品.
http://msdn.microsoft.com/en-us/library/ms554855.aspx
http://estellasays.blogspot.com/2009/04/speech-recognition-in-cnet.html
但是我觉得在使用语法时我有点受限.
不要误解我的语法,语法识别确切地指出了要注意的单词/短语,但是如果我希望它能够识别出一些我没有理解的东西呢?或者我想解析一个半预定命令名和半随机字的短语?
例如..
情景A - 我说"谷歌[漏油事件]",我希望它用括号中的搜索结果打开谷歌,这可能是任何东西.
场景B - 我说"找到[曼彻斯特]",我想让它在谷歌地图或任何其他未预先确定的地方搜索曼彻斯特
我希望它知道'谷歌'和'定位'是命令,它是参数之后的东西(可能是任何东西).
问题:有没有人知道如何混合使用预先确定的语法(语音识别应该识别的单词)和不在预定语法中的单词?
代码片段..
using System.Speech.Recognition;
...
...
SpeechRecognizer rec = new SpeechRecognizer();
rec.SpeechRecognized += rec_SpeechRecognized;
var c = new Choices();
c.Add("search");
var gb = new GrammarBuilder(c);
var g = new Grammar(gb);
rec.LoadGrammar(g);
rec.Enabled = true;
...
...
void rec_SpeechRecognized(object sender, SpeechRecognizedEventArgs e)
{
if (e.Result.Text == "search")
{
string query = "How can I get a word not defined in Grammar recognised and passed into here!";
launchGoogle(query);
} …Run Code Online (Sandbox Code Playgroud) 如何在Android模拟器上获得音频输入?我正在使用2.2 SDK,并在Ubuntu 10.10上进行模拟.
我在我的模拟器上将hw.audioinput属性设置为yes,但是当我在模拟器上运行语音识别API演示应用程序时,我收到消息"识别器不存在".当然,在我的手机上,它运行正常.
我正在尝试使用SDK中的语音输入内容,如下所述:http://developer.android.com/resources/articles/speech-input.html.他们没有提到让它在模拟器上工作的事情.
我已经在论坛上发布过有关此事的帖子,几乎没有确定的解决方案或成功.你知道论坛是怎么回事.这就是我将这个问题发布到StackOverflow的原因; 希望我们能得到一个明确的答案!
我希望我的Android应用识别声音.例如,我想知道来自麦克风的声音是鼓掌还是敲击或其他什么.
我是否需要使用数学,或者我可以只使用一些库?
如果有任何声音分析库请告诉我.谢谢.
如何将任何声音信号转换为列表音素?
即实际的方法和/或代码,从数字信号到录音的音素列表.
例如:
lPhonemes = audio_to_phonemes(aSignal)
Run Code Online (Sandbox Code Playgroud)
例如
from scipy.io.wavfile import read
iSampleRate, aSignal = read(sRecordingDir)
aSignal = #numpy array for the recorded word 'hear'
lPhonemes = ['HH', 'IY1', 'R']
Run Code Online (Sandbox Code Playgroud)
我需要这个功能 audio_to_phonemes
并非所有声音都是语言单词,因此我不能仅使用使用Google API的内容.
编辑
我不想要音频文字,我想要音频到音素.大多数图书馆似乎没有输出.您推荐的任何库都需要能够输出声音组成的有序音素列表.它需要在python中.
我也想知道声音到音素的过程是如何工作的.如果不是为了实现目的,那么为了利益起见.
我有一个ViewPager,我需要在那里使用一个按钮.按钮必须识别语音,并在TextView中显示.我为VoiceRecognition和ViewPager实现了相同的布局.
问题是:如何激活按钮以在单击后运行VoiceRecognition.我尝试在Button和TextView上设置标签,但是我做错了,它不起作用.
ViewPager:
public class SwipeAdapter extends PagerAdapter{
private int[] car = {R.string.car1, R.string.car2,
R.string.car3, R.string.car4, R.string.car5};
private Context context;
private LayoutInflater layoutInflater;
public SwipeAdapter(Context context){
this.context = context;
}
@Override
public int getCount() {
return car.length;
}
@Override
public boolean isViewFromObject(View view, Object object) {
return (view==(RelativeLayout)object);
}
@Override
public Object instantiateItem(ViewGroup container, int position) {
layoutInflater = (LayoutInflater)context.getSystemService(Context.LAYOUT_INFLATER_SERVICE);
View itemView = layoutInflater.inflate(R.layout.carSwipe, container, false);
//Implement the Button
Button carBut = (Button)itemView.findViewById(R.id.buttonCar);
carButton.setTag("car");
TextView textView = (TextView) itemView.findViewById(R.id.interTextView); …Run Code Online (Sandbox Code Playgroud)