我正在使用微软的认知服务.我有一个音频输入,需要识别多个扬声器及其单独的文本.
根据我的理解,Speaker Rekognition API可以识别不同的个人,Bing Speech API可以将语音转换为文本.但是,要同时执行这两项操作,我需要手动将音频文件拆分为多个部分(基于暂停/静音),然后将音频流发送到各个服务.有没有更好的方法呢?我应该改用AWS Lex/Polly或Google产品的任何其他生态系统吗?
speech-recognition ibm-watson microsoft-cognitive google-speech-api dialogflow-es
我有一个基于JavaScript的基于JavaScript的网页.我需要在https://XYZ.azurewebsites.net上调用我的Web API,该API 使用Azure Active Directory身份验证进行保护.
为此,我已将ADAL.js添加到我的网站,在AAD中将我的网站/ webapp注册为Native Client.我不确定无声地获取身份验证令牌的最少量代码.
在vanilla JavaScript中获取身份验证令牌需要做的最小步骤是什么?
注意:我在GitHub上的Azure AD身份验证中经历了大量示例.但是他们都建议克隆repo并替换Audience,Tenants等的值.我需要的只是一个简单的vanilla JS函数来做同样的事情而没有这些样本中的所有膨胀代码.
javascript active-directory azure-active-directory adal adal.js