向OpenEars添加新语言

Gun*_*nds 14 iphone ios openears

我最近开始学习OpenEars语音识别,这很棒!但我还需要支持其他语言的语音识别和听写,如俄语,法语和德语.我发现这里有各种声学和语言模型.

但我真的不明白 - 我需要在应用程序中集成额外的语言支持吗?

问题是 - 我应该采取什么步骤才能在开放式耳机中成功整合,例如俄语?

据我所知 - Open Ears演示中所有英语语言和语言模型都位于文件夹hub4wsj_sc_8k中.在voxforge语言档案中可以找到相同的文件.所以我只是在演示中替换它们.有一点是不同的 - 在演示英语中,还有一个sendump2MB的大文件,它不在voxforge语言档案中.在Open Ears演示中还有两个其他文件:

  • OpenEars1.languagemodel
  • OpenEars1.dic

这些我替换为:

  • msu_ru_nsh.lm.dmp
  • msu_ru_nsh.dic

因为.dmp类似于.languagemodel.但应用程序崩溃没有任何错误.

我究竟做错了什么?谢谢.

Hal*_*lle 10

根据我的评论,转贴为答案:

[....]这样的问题的第1步是打开OpenEarsLogging和verbosePocketsphinx,这将为您提供关于出错的非常细粒度的信息(在控制台输出中搜索单词错误和警告以节省时间).有关这样做的说明可以在文档中找到.随意将问题提交给OpenEars论坛[....]:http://politepix.com/forums/openears 您可能还想查看此主题:http://politepix.com/forums/topic/other -languages

解决方案:

为了跟进后来的读者,在打开日志后我们通过使用mixture_weights文件替代sendump并确保语音字典使用声学模型中存在的音素而不是英语语音音素来实现这一点. .

我们完成此故障排除的完整讨论可在此处阅读:http://www.politepix.com/forums/topic/using-russian-acoustic-model/


更新:由于OpenEars 1.5本周发布,因此可以将路径传递给任何声学模型作为主要聆听方法的参数,并且有一种更加标准化的方法可用于打包和参考任何声学模型,因此您可以拥有许多声学模型声学模型在同一个应用程序中.这个论坛帖子中的信息取代了我在这个答案中链接的讨论中的信息:http://www.politepix.com/forums/topic/creating-an-acoustic-model-bundle-for-openears-1-5 -and-up /我出于历史原因留下了剩下的答案,因为在讨论中可能还有一些有用的细节,但可以跳过它来支持新链接.