我想知道如何在我的.NET项目中使用Google Text-to-Speech API.我想我需要调用一个URL来使用Web服务,但对我来说这个想法并不清楚.有人可以帮忙吗?
我怎么能让Python说出一些文字?
我可以使用节与子进程,但我将无法控制它(或者可能在交互模式,但它不会干净).
有没有Python TTS库?就像节日的API,eSpeak,......?
我是Android平台的新手.现在我正在努力.TTS(Text to Speech)
如果我在TextArea中输入文本,我希望在单击"说出"按钮时将其转换为语音.
谁能帮我吗?
我需要编写一个使用语音识别引擎的应用程序 - 内置vista或第三方 - 可以显示单词或短语,并识别用户何时读取它(或其近似值) ).我还需要能够在语言之间快速切换,而无需更改操作系统的语言.
用户将在很短的时间内使用该系统.应用程序需要工作而无需首先将识别引擎训练到用户的声音.
如果这可以在Windows XP或较低版本的Windows Vista上运行,那也太棒了.
可选地,系统需要能够以用户选择的语言将屏幕上的信息读回用户.我可以使用预先录制的画外音来解决此规范,但首选的方法是使用文本到语音引擎.
谁能为我推荐一些东西?
我现在正在寻找Java Text to Speech(TTS)框架.在我的调查过程中,我发现JSAPI实现页面上列出了几个与JSAPI1.0(部分)兼容的框架,以及一对看起来不符合JSAPI规范的Java TTS框架(Mary,Say-It-Now) .我还注意到目前JSAPI没有参考实现.
我为FreeTTS做的简短测试(在JSAPI impls页面中列出的第一个)表明它远远没有阅读简单明了的单词(例如:ABC,黑板).其他测试目前正在进行中.
这就是问题(实际上是6):
提前感谢您的意见和建议.
我似乎无法找到任何相关的东西.在iOS7中是否有任何Siri类或API可以让您进行文本到语音转换?我想要做的就是以下内容:
[siriInstance say:@"This is a test"];
Run Code Online (Sandbox Code Playgroud)
然后让Siri从我的应用程序中说出来.
看来我们应该有能力做到这一点,不是吗?看起来像是一件微不足道的事情.
我正在寻找一种方法将ENG中的文本(字符串)转换为c#中的语音(声音).有谁知道一种方式或一些开源库可以帮助我完成这项任务?
我不想把我的所有代码放在这里,所以我只是把相关的部分.如果您需要更多,请随时询问.
我正在使用文本到语音(TTS),在它问一个问题之后导致语音监听器......我通过Log输出发现TTS的onInit被调用,但是UtteranceProgressListener没有,我无法弄清楚为什么.任何帮助表示赞赏.
// ---Initialize TTS variables---
// Implement Text to speech feature
tts = new TextToSpeech(this, new ttsInitListener());
// set listener to the TTS engine
tts.setOnUtteranceProgressListener(new ttsUtteranceListener());
if (!tts.isSpeaking()) {
tts.speak("Speak to me", TextToSpeech.QUEUE_FLUSH, null);
}
Run Code Online (Sandbox Code Playgroud)
// --- TEXT TO SPEECH && SPEECH TO TEXT METHODS ---
class ttsInitListener implements OnInitListener {
@Override
public void onInit(int status) {
if (status == TextToSpeech.SUCCESS) {
tts.setLanguage(Locale.getDefault());
} else {
tts = null;
Toast.makeText(mContext, "Failed to initialize TTS engine.",
Toast.LENGTH_SHORT).show();
}
}
} …
Run Code Online (Sandbox Code Playgroud) 我正在Android上实现交互式语音应答应用程序.我想知道如何确定tts.speak()
函数何时完成说话,以便我可以调用我的语音识别器功能.
不久前,我发现playEarcon()
永远不会产生 onUtteranceCompleted()
.
在我刚才解释认为文件的时间"时的讲话被称为合成为" onUtteranceCompleted()
暂时不适用的耳标,因为,一个耳标是不是真的TTS综合后的结果.
但是再看看Android的源代码,我根本找不到能够证明我解释的解释.
关于我的测试夹具的一些事实:
onUtteranceCompleted()
总是到达earcon之前的话语ID.那句话是一种普通的TTS话语,而不是一种耳语.onUtteranceCompleted()
因为那个earcon 永远不会出现.这是非常一致和可重复的行为.深入研究TtsService源代码,似乎只有2种方法可能会影响到达(或缺席)onUtteranceCompleted()
:
如果你检查那个代码,你会看到第三个候选者,TtsService.getSoundResource()被排除(由于我的earcon缺乏onUtteranceComplete),因为上面的事实#2:earcon总是在玩,因此getSoundResource()
不可能返回null.
使用相同的逻辑,第一个候选者TtsService.processSpeechQueue()也可以排除,对于相同的事实#2:earcon总是在播放,因此总是执行以下2个关键语句:
1108 mPlayer.setOnCompletionListener(this);
...
1111 mPlayer.start();
Run Code Online (Sandbox Code Playgroud)
所以,我们只剩下第二个候选人,TtsService.onCompletion(),作为一个playEarcon()
永远不会产生的 原因的可能解释onUtteranceCompleted()
:
public void onCompletion(MediaPlayer arg0) {
// mCurrentSpeechItem may become null if it is stopped at the same
// time it completes.
SpeechItem currentSpeechItemCopy = mCurrentSpeechItem;
if (currentSpeechItemCopy != null) {
String …
Run Code Online (Sandbox Code Playgroud) android text-to-speech onutterancecompleted android-mediaplayer