我正在尝试展示一张卡片,所以我知道到目前为止所做的一切.但是,当我尝试显示卡时,它会直接进入主卡.我试图显示的卡片只是显示之前在语音识别器中所说的内容但是没有用,所以我只是放了纯文本而且也没用.应用程序 - 语音触发器 - >语音识别器 - >此服务:
public class MedMinderService extends Service {
public String MedName;
public String voiceResults;
private static final String TAG = "ShowData";
private static final String LIVE_CARD_ID = "showdata";
public static final String PREFS_NAME = "MyPreferencesFile";
private TimelineManager mTimelineManager;
private LiveCard mLiveCard;
@Override
public void onCreate() {
super.onCreate();
mTimelineManager = TimelineManager.from(this);
}
@Override
public IBinder onBind(Intent intent) {
return null;
}
public int onStartCommand(Intent intent, int flags, int startId) {
String voiceResults = intent.getExtras()
.getString(RecognizerIntent.EXTRA_RESULTS);
String …Run Code Online (Sandbox Code Playgroud) 我在此处描述的集成GDK Glassware和Mirror API Glassware时遇到问题.我需要使用Mirroe api Glassware app MenuItem打开GDK玻璃器皿应用程序.我可以发送意图数据包吗?有没有人对此有所了解.
谢谢.
如何在常规菜单中弹出菜单Card.我试过使用这段代码:
@Override
public boolean onKeyDown(int keyCode, KeyEvent event) {
if (keyCode == KeyEvent.KEYCODE_DPAD_CENTER) {
openOptionsMenu();
return true;
}
return false;
}
Run Code Online (Sandbox Code Playgroud)
但它似乎没有用.此外,有把可能Live Cards在Activity像我一样在这里.我相信我正在使用Static Cards,但最终我需要通过这些卡访问相机和视频功能.
活动
public class NewChecklistActivity extends Activity {
private GestureDetector mGestureDetector;
private List<Card> mCards;
private CardScrollView mCardScrollView;
StepCardScrollAdapter adapter;
Intent checklistIntent;
String allStepsJSONString;
ArrayList<String[]> allStepsArray;
ArrayList<String[]> checklistsArray;
ArrayList<String[]> stepsArray;
ArrayList<String[]> checklistSteps;
@SuppressWarnings("unchecked")
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
checklistsArray = (ArrayList<String[]>) this.getIntent().getSerializableExtra("checklists");
stepsArray = (ArrayList<String[]>) this.getIntent().getSerializableExtra("steps");
createCards();
mCardScrollView …Run Code Online (Sandbox Code Playgroud) 我已经按照官方文档中的确切步骤进行操作,但仍然无法让我的应用程序开始使用自定义语音命令.遵循的步骤是:
1在strings.xml中为自定义语音命令添加新的字符串资源:
<?xml version="1.0" encoding="utf-8"?>
<resources>
<string name="app_name">Hello World!</string>
<string name="glass_voice_trigger">start example</string>
</resources>
2为语音启动定义创建新的XML文件:
<?xml version="1.0" encoding="utf-8"?>
<trigger keyword="@string/glass_voice_trigger" />
Run Code Online (Sandbox Code Playgroud)
3在AndroidManifest.xml中请求适当的权限:
<uses-permission android:name="com.google.android.glass.permission.DEVELOPMENT" />
Run Code Online (Sandbox Code Playgroud)
4清单部分如下:
<service
android:name="pl.infoshare.sample.helloworld.HelloWorldService"
android:icon="@drawable/ic_lap"
android:label="@string/app_name"
android:enabled="true"
android:exported="true">
<intent-filter>
<action android:name="com.google.android.glass.action.VOICE_TRIGGER" />
</intent-filter>
<meta-data
android:name="com.google.android.glass.VoiceTrigger"
android:resource="@xml/voice_trigger_start" />
</service>
Run Code Online (Sandbox Code Playgroud)
不过,我无法使用语音命令启动应用程序.如果我更改为其中一个预定义的语音命令,应用程序会显示在时间轴上,我可以使用语音命令启动它.我错过了什么吗?
出于某些奇怪的原因,surfaceView正在显示图像,但红色和蓝色通道被交换.我使用的代码与Github项目中的代码基本相同,但有一些小的改动.
我正在使用它的代码是:
public class CameraView extends SurfaceView implements SurfaceHolder.Callback{
private SurfaceHolder surfaceHolder = null;
private Camera camera = null;
public CameraView(Context context) {
super(context);
surfaceHolder = this.getHolder();
surfaceHolder.addCallback(this);
}
@Override
public void surfaceCreated(SurfaceHolder holder) {
camera = Camera.open();
Parameters parameters = camera.getParameters();
parameters.setPreviewFpsRange(30000, 30000);
camera.setParameters(parameters);
}
@Override
public void surfaceChanged(SurfaceHolder holder, int format, int width, int height) {
if (camera != null){ // Start the preview for surfaceChanged
try {
camera.setPreviewDisplay(holder);
} catch (IOException e) {
// TODO …Run Code Online (Sandbox Code Playgroud) 我正在尝试使用Google Glass MIC录制音频,但我一直收到W/IMediaDeathNotifier:媒体服务器死机错误.思考?
它应该在第一次触摸时开始录制并在第二次触摸时停止,但是第一次单击时会发生错误.
package com.google.android.glass.sample.charades;
import android.media.MediaRecorder;
import java.io.IOException;
import android.util.Log;
import android.os.Environment;
public class SlideshowActivity extends Activity {
private static final String LOG_TAG = "AudioRecordTest";
private MediaRecorder mRecorder = null;
private static String mFileName = Environment.getExternalStorageDirectory().getAbsolutePath() + "/audiorecordtest.3gp";
private boolean recording = false;
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.activity_slideshow);
mGestureDetector = new GestureDetector(this).setBaseListener(mBaseListener);
}
private void startRecording() {
mRecorder = new MediaRecorder();
mRecorder.setAudioSource(MediaRecorder.AudioSource.MIC);
mRecorder.setOutputFormat(MediaRecorder.OutputFormat.THREE_GPP);
mRecorder.setOutputFile(mFileName);
mRecorder.setAudioEncoder(MediaRecorder.AudioEncoder.DEFAULT);
Log.e(LOG_TAG, "File name: " + mFileName);
try { …Run Code Online (Sandbox Code Playgroud) 我正在使用GDK,但在文档中找不到如何将LiveCard固定到时间线上.有人可以帮忙吗?谢谢.
我想在我的谷歌眼镜应用程序中启动图库来选择图像.对于Android移动它是直的
Intent intent = new Intent(Intent.ACTION_GET_CONTENT);
intent.setType("image/*");
startActivityForResult(intent, REQ_SELECT_FILE);
Run Code Online (Sandbox Code Playgroud)
当我在玻璃中运行相同的代码时,它会失败并出现错误
07-29 16:12:45.941:E/AndroidRuntime(15847):android.content.ActivityNotFoundException:找不到处理Intent的Activity {act = android.intent.action.GET_CONTENT}
似乎相关的组件不是gdk的一部分.那应该是什么选择.我确定他们必须提供一些其他方式来使用保存在设备上的图像.任何指针围绕着该wd表示赞赏.