我在inproc-mode中SpeechRecognitionEngine使用命名空间System.Speech来完成一些自动化工作.语音识别通过以下方式开始RecognizeAsync.
它工作正常,但是,当计算机锁定时,语音识别停止.一旦计算机解锁,识别就会再次激活.虽然对于大多数应用程序来说这可能是一个有意义的行为,但对我来说,这是个问题.我搜索过网络,但没有找到解决方案来禁用此行为.
如何参数化SpeechRecognition不要在计算机锁定时停止?
(请注意:该应用程序是传统的Windows WPF应用程序,而不是Windows应用商店应用程序)
system.speech.recognition microsoft-speech-api microsoft-speech-platform
我已经安装了x86 SDK并将Microsoft.Speech.dll添加到我的项目中.该项目设置为x86.
在尝试创建SpeechSynthesizer我得到的实例时
由于以下错误,检索具有CLSID {D941651C-44E6-4C17-BADF-C36826FC3424}的组件的COM类工厂失败:80040154未注册类(HRESULT异常:0x80040154(REGDB_E_CLASSNOTREG)).
还有什么可以导致那些错误的目标平台?
似乎微软提供了不少语音识别产品,我想知道它们之间的差异.
有Microsoft Speech API或SAPI.但不知何故,Microsoft Cognitive Service Speech API具有相同的名称.
现在好了,Azure上的Microsoft Cognitive Service提供了语音服务API和Bing Speech API.我假设语音到文本,两个API是相同的.
然后是System.Speech.Recognition(或桌面SAPI),Microsoft.Speech.Recognition(或Server SAPI)和Windows.Media.Speech.Recognition.这里和这里对三者之间的差异有一些解释.但我的猜测是它们是基于HMM的旧语音识别模型,又名神经网络模型,并且所有这三种都可以在没有互联网连接的情况下离线使用,对吧?
对于Azure语音服务和bing语音API,它们是更高级的语音模型吗?但我认为没有办法在我的本地计算机上脱机使用它们,因为它们都需要订阅验证.(即使Bing API似乎有一个C#桌面库 ..)
基本上我想要一个离线模型,它可以进行语音到文本的转录,用于我的会话数据(每个音频录制5-10分钟),可以识别多个扬声器并输出时间戳(或时间编码输出).所有的选择我现在有点困惑.如果有人能向我解释,我将不胜感激,非常感谢!
speech-recognition speech-to-text microsoft-speech-api microsoft-speech-platform microsoft-cognitive
我想使用Microsoft的REST API转录更长的音频文件(至少5分钟)。有很多不同的产品和名称,例如语音服务API或Bing语音API。到目前为止,我尝试过的REST API都不支持转录更长的音频文件。
该文档指出有一个完全适合这种情况的REST API:https : //docs.microsoft.com/zh-cn/azure/cognitive-services/speech-service/batch-transcription
该服务的终点是什么?
speech-to-text microsoft-speech-api azure-cognitive-services
嗨,我试图找到一种使用 Microsoft Speech API 使用 Angular 5 的方法,我将 microsoft-speech-browser-sdk 用于 javascript
https://github.com/Azure-Samples/SpeechToText-WebSockets-Javascript
我只是从“microsoft-speech-browser-sdk”导入 SDK 导入 * 作为 SDK;我尝试在示例中使用相同的代码
但我有这个错误 SDK.Recognizer.CreateRecognizer is not a function 我知道 skd 是导入的,因为它执行第一个函数
我也找不到 API 参考 有没有人用 angular 完成过这个认知服务?
我首先要说的是,我在 C# 编程方面非常新手。我正在开发一个应用程序,用于使用 C# 结合 SAPI v5.4 ( speechlib ) 以编程方式修改 Windows 语音词典。到目前为止,一切都运行良好,但我需要更深入地了解字符串在合成(有声)时如何解释。
我的理解是,在 SAPI 5.4 中,单词被分解为音素表示,并且我在使用音素正确“训练”单词发音方面取得了一些成功。我还知道我可以手动将单词添加到 Windows 语音识别词典中,提供录音,然后提取单词的发音(音素)...但这很麻烦。探索默认情况下如何合成单词也很有用,即没有我的输入(例如合成器如何解释“海豚”?)。
从编码的角度来看,这是我到目前为止所得到的:
using System;
using System.Speech.Synthesis;
namespace SpeechTest
{
class Program
{
static void Main(string[] args)
{
// Set up the speech synthesizer
SpeechSynthesizer synthesizer = new SpeechSynthesizer();
synthesizer.Volume = 100;
synthesizer.Rate = -2;
// Configure the audio output
synthesizer.SetOutputToDefaultAudioDevice();
// Initialize string to store word of interest (not in the speech dictionary)
string myWord = "dolphins";
// Speak the …Run Code Online (Sandbox Code Playgroud) 使用 Microsoft Speech API 转录中型/大型音频文件(每个文件约 6-10 分钟)的最佳方法是什么?像批量音频文件转录之类的东西?
我使用了https://learn.microsoft.com/en-us/azure/cognitive-services/speech-service/speech-to-text-sample中提供的代码来连续转录语音,但它在某些时候停止转录观点。转录有什么限制吗?我只使用免费试用帐户 atm。
顺便说一句,我认为 Bing Speech API 和新的语音服务 API 之间没有区别,对吗?
感谢大家!
speech-recognition speech-to-text bing-api microsoft-speech-api azure-cognitive-services
按照此处的指南安装 microsoft azure 文本转语音 SDK:https : //docs.microsoft.com/en-us/azure/cognitive-services/speech-service/quickstart-python#install-the-speech-sdk
它说要运行
pip install azure-cognitiveservices-speech
,但不幸的是这会返回
找不到满足 azure->cognitiveservices-speech 要求的版本(来自版本:)未找到与 >azure-cognitiveservices-speech 匹配的发行版
我试过在 ==1.2.0 的末尾添加版本#,并添加--pre。所以:
python -m pip install azure-cognitiveservices-speech --pre
python -m pip install azure-cognitiveservices-speech==1.2.0.
我能够使用python -m pip install azure并且它下载了一大堆模块,但不是认知服务模块。我已经尝试过 python 2.7 和 python 3.7,我还安装了Microsoft Visual C++ Redistributable for Visual Studio 2017。如果有人对如何安装此模块有任何想法,将不胜感激。
这是 pypi 链接:https ://pypi.org/project/azure-cognitiveservices-speech/
python pip text-to-speech microsoft-speech-api microsoft-cognitive