我正在尝试使用 API 测试器在 Bluemix 中测试 IBM Watson Visual Recognition Service。
1st 我想获得有效标签的列表:
在阅读演示应用程序的源代码时,我正在推断标签,例如“动物”
知道我做错了什么吗?
演示应用程序似乎运行良好,至少它可以将奥巴马的形象识别为“人,总统,奥巴马”:)
是否有任何Watson或Bluemix API能够与OCR一起使用?
我正在使用 IBM Watson Speech to Text API:
var SpeechToTextV1 = require('watson-developer-cloud/speech-to-text/v1');
var fs = require('fs');
var request = require('request');
var speech_to_text = new SpeechToTextV1({
"username": "<user name>",
"password": "<password>"
});
var recognizeStream = speech_to_text.createRecognizeStream();
// request(wavfileURL).pipe(recognizeStream);
// recognizeStream.on('results', function(err, res){
// console.dir(err)
// console.dir(res)
// if (res.results){
// console.dir(res.results)
// }
//
// });
request.get(wavfileURL, function (err, res, buffer) {
var streamer = require('streamifier');
var params = {
// From file
audio: streamer.createReadStream(buffer) ,
content_type: 'audio/wav; rate=44100'
};
speech_to_text.recognize(params, function(err, …
Run Code Online (Sandbox Code Playgroud) 我正在使用IBM bluemix来转录一些音频,我想使用API说话人识别.
我设置了这样的识别器:
private RecognizeOptions getRecognizeOptions() {
return new RecognizeOptions.Builder()
.continuous(true)
.contentType(ContentType.OPUS.toString())
//.model("en-US")
.model("en-US_BroadbandModel")
.timestamps(true)
.smartFormatting(true)
.interimResults(true)
.speakerLabels(true)
.build();
}
Run Code Online (Sandbox Code Playgroud)
但返回的JSON不包括扬声器标签.如何使用bluemix java API返回扬声器标签?
Android中的我的录音机看起来像这样:
private void recordMessage() {
//mic.setEnabled(false);
speechService = new SpeechToText();
speechService.setUsernameAndPassword("usr", "pwd");
if(listening != true) {
capture = new MicrophoneInputStream(true);
new Thread(new Runnable() {
@Override public void run() {
try {
speechService.recognizeUsingWebSocket(capture, getRecognizeOptions(), new MicrophoneRecognizeDelegate());
} catch (Exception e) {
showError(e);
}
}
}).start();
Log.v("TAG",getRecognizeOptions().toString());
listening = true;
Toast.makeText(MainActivity.this,"Listening....Click to Stop", Toast.LENGTH_LONG).show();
} else {
try { …
Run Code Online (Sandbox Code Playgroud) 我正在尝试 IBM Watson Conversations 中的插槽功能,但遇到了一个我不知道如何解决的问题。
我有一个从用户那里收集大量信息的用例,因此使用 Slots 功能是有意义的。不幸的是,当我添加带有 @sys-number 的 Slot 时,系统不会接受 0 作为有效输入。这个插槽实际上是必需的,但 0 是一个有效值。
任何人都知道如何拥有接受 0 作为值的 @sys-number 类型的必需插槽?
我正在尝试使用 watson_developer_cloud sdk 部署一个 python Lambda 包。密码学是此包具有的众多依赖项之一。我已经在 Linux 机器上构建了这个包。我的包也包含 .libffi-d78936b1.so.6.0.4 隐藏文件。但是我的 lambda 函数仍然无法访问它。我仍然收到“libffi-d78936b1.so.6.0.4:无法打开共享对象文件”错误。我使用这里的说明在 Vagrant 服务器上构建了我的包:https : //docs.aws.amazon.com/lambda/latest/dg/with-s3-example-deployment-pkg.html#with-s3-example-部署-pkg-python
确切的错误:
Unable to import module 'test_translation': libffi-d78936b1.so.6.0.4: cannot open shared object file: No such file or directory
Run Code Online (Sandbox Code Playgroud)
请注意,如本解决方案中所述,我已经使用zip -r9 $DIR/lambda_function.zip创建了我的包。代替 *。但它仍然不适合我。
任何方向都是高度可观的。
我目前正在研究 Softbanks 的机器人 Pepper,我尝试通过使用 websocket 协议在 Pepper 的音频缓冲区远程流上使用 Watson 语音到文本解决方案。
我使用了前一个问题NAO 机器人远程音频问题的答案来找到一种方法来访问远程胡椒的音频缓冲区和该项目https://github.com/ibm-dev/watson-streaming-stt来学习如何使用 websocket 协议使用 watson 流媒体 stt。
但是,在打开 websocket 应用程序后,我开始向 watson 发送缓冲区,并在几次发送后收到错误:“无法从音频/l16;rate=48000;channel=1 转码到以下之一:audio/x-float -大批; 率=16000;频道=1'
每次我尝试将 Pepper 的音频缓冲区发送给 watson 时,它都无法理解。
我将我发送的数据与 watson 流 stt 示例中发送的数据进行了比较(使用来自麦克风的 pyaudio 流而不是 Pepper 的缓冲区流),我没有看到任何区别。两次我都非常确定我正在发送一个包含原始字节块的字符串。这就是 Watson 在它的文档中所要求的。
我尝试以 48kHz 的采样率发送 8192 字节的块,我可以轻松地将 Pepper 的音频缓冲区转换为六进制,所以我不明白为什么 Watson 无法对其进行转码。
这是我的代码:
# -*- coding: utf-8 -*-
#!/usr/bin/env python
import argparse
import base64
import configparser
import json
import threading
import time
from optparse import OptionParser
import naoqi …
Run Code Online (Sandbox Code Playgroud) 我只想要输出而不是控制台上打印的日志。
我正在尝试从 IBM Watson Studio 连接到 COS,但出现错误...
当我按 Enter 时,出现以下错误:
Unable to find products data_catalog or data_science_experience in the
entitlements response for account id: 51373fa1b8bf36fd9d78574d19af0d11.
Run Code Online (Sandbox Code Playgroud) ibm-watson data-science-experience ibm-cloud-storage watson-studio
我正在使用 IBM Watson 语音文本 iOS SDK 来转录实时音频。我已经通过可可豆荚安装了它。在将音频转录为文本时,我遇到了一个问题(身份验证)。
安装的 STT SDK 版本是0.38.1
.
我已经配置了所有内容,正确创建了服务和凭据,并确保SpeechToText
使用正确的apikey
和URL
. 每当我调用startStreaming
方法 STT SDK 打印一些错误日志,这似乎与身份验证挑战有关。
这是代码片段。
let speechToText = SpeechToText(apiKey: Credentials.SpeechToTextAPIKey,iamUrl: Credentials.SpeechToTextURL)
var accumulator = SpeechRecognitionResultsAccumulator()
func startStreaming() {
var settings = RecognitionSettings(contentType: "audio/ogg;codecs=opus")
settings.interimResults = true
let failure = { (error: Error) in print(error) }
speechToText.recognizeMicrophone(settings: settings, failure: failure) { results in
accumulator.add(results: results)
print(accumulator.bestTranscript)
}
}
Run Code Online (Sandbox Code Playgroud)
错误日志
CredStore - performQuery - Error copying matching creds. Error=-25300,
query={ …
Run Code Online (Sandbox Code Playgroud) ibm-watson ×10
ibm-cloud ×4
android ×1
api ×1
aws-lambda ×1
ios ×1
iphone ×1
java ×1
nao-robot ×1
okhttp ×1
pepper ×1
python-3.x ×1
swift ×1