是的我将在实际设备上测试(当它到达时),但现在很高兴知道:
如何设置设备定义,以便我可以运行像玻璃一样的模拟器.
关键是:
尺寸:玻璃"报告"自身的大小:小,正常,大,XLarge
屏幕比例:不长或长?
密度桶:xxhdpi?或者是什么?
其他:根据DPad输入帮助设置它还是接近Glass上的导航?其他提示?
注意:是的我知道镜像API游乐场,但我正在开发APK而不是mirror-api.
我正在尝试将新的Google Glass开发套件与Android Studio配合使用.不幸的是,我没有取得多大成功.
我收到错误:"Gradle:package com.google.android.glass.touchpad不存在"
我已经将清单中的uses-library添加如下:
<application
android:allowBackup="true"
android:icon="@drawable/ic_launcher"
android:label="@string/app_name"
android:theme="@android:style/Theme" >
<uses-library
android:name="com.google.android.glass"
android:required="true" />
<activity
android:name="com.glass.test.MainActivity"
android:label="@string/app_name" >
<intent-filter>
<action android:name="android.intent.action.MAIN" />
<category android:name="android.intent.category.LAUNCHER" />
</intent-filter>
</activity>
</application>
Run Code Online (Sandbox Code Playgroud)
然后我将gdk.jar添加到libs目录中.我已将以下内容添加到build.gradle的依赖项部分.
dependencies {
compile files('libs/gdk.jar')
}
Run Code Online (Sandbox Code Playgroud)
任何帮助都将非常感激.
我正在努力调整现有的Android应用程序以在Google Glass上运行,作为概念验证.我想在我的应用程序中使用语音输入来替换当前需要触摸输入的一些功能.
我可以将我的APK部署到谷歌眼镜并运行它没有问题(通过ADB),但一旦它运行,我试过的Android语音识别API都不适用于Glass:
startActivityForResult(new Intent(RecognizerIntent.ACTION_RECOGNIZE_SPEECH));
Run Code Online (Sandbox Code Playgroud)
这会导致在Google Glass上运行时发生ActivityNotFoundException("找不到处理意图的活动")
SpeechRecognizer.IsRecognitionAvailable(context);
Run Code Online (Sandbox Code Playgroud)
这总是在Google Glass上返回false.
我很好奇是否有其他人遇到过这些问题或有任何建议.
我已经为Google Glass 编写了一个开源摄像头,但是一些使用它的人报告说,录制的视频无法正常保存用于冗长的视频.
我找不到有关Android文档中任何此类限制的信息
因此,在检查出来之后,我发现对于大于26 minutes的视频,视频文件保存在Glass中,其大小已经存在,2.7 GB但其持续时间是0:00.它无法使用任何视频播放器播放.
所以我想知道为什么会这样?为什么视频会被正确录制duration < 26 minutes并被搞砸为更长的视频.
启动视频录制的代码是
/**
* Initialize video recorder to record video
*/
private void initRecorder() {
try {
File dir = new File(Environment.getExternalStorageDirectory()
+ File.separator + Environment.DIRECTORY_PICTURES
+ File.separator + "My Videos");
if (!dir.exists()) {
dir.mkdirs();
}
videofile = new File(dir, "video.mp4");
recorder.setCamera(mCamera);
// Step 2: Set sources
recorder.setAudioSource(MediaRecorder.AudioSource.CAMCORDER);
recorder.setVideoSource(MediaRecorder.VideoSource.CAMERA);
// Step 3: Set a CamcorderProfile (requires API Level 8 or …Run Code Online (Sandbox Code Playgroud) android android-camera android-mediarecorder google-glass google-glass-camera
今天Google刚刚发布了Google Glass 的GDK Sneak Peak.我试图运行他们在GitHub中托管的样本但没有成功:
我的目标是针对Android 4.0.3 Glass Development Kit Sneaky Preview并试图在AVD中运行它,并使用以下其他规格来定位它:
当我运行应用程序并显示选择设备的对话框时,我确实看到虚拟设备不兼容.

如果我跳过它并尝试运行它,我会看到以下错误输出:
Installing com.google.android.glass.sample.compass
DEVICE SHELL COMMAND: pm install -r "/data/local/tmp/com.google.android.glass.sample.compass"
pkg: /data/local/tmp/com.google.android.glass.sample.compass
Failure [INSTALL_FAILED_MISSING_SHARED_LIBRARY]
Run Code Online (Sandbox Code Playgroud)
我试图强制不要求玻璃库(设置要求false)在AndroidManifest.xml:
<uses-library
android:name="com.google.android.glass"
android:required="false" />
Run Code Online (Sandbox Code Playgroud)
......但显然运行不正常,它以叠加方式显示:
我也尝试过使用Genymotion,但它也没有运行.
有没有办法在模拟器中成功运行玻璃器皿?
编辑:
添加gdk.jar作为库不起作用.
Google Glass的骨传导传感器是否也可用作输入设备?如果是这样,人们如何访问其读数?
编辑:让我澄清一下我问的原因.
根据Catwig的说法,"它看起来像是一个触觉开关".很难从图片中看出来,所以我想知道开关有多敏感,以及它是否可用于检测颅骨的振动.如果是这种情况,则可以通过识别哪些声音来自佩戴者来增强语音命令的准确性.
调试Android应用程序很容易,因为大多数应用程序都会启动一个活动,并且只需保留断点即可.如何调试基于GDK的谷歌眼镜应用程序,因为该服务是通过语音触发的,并且在安装时不会明确地启动活动?
Glass最近发布了耳机和单耳耳塞.这意味着它能够从Micro USB端口产生音频信号.
是否可以为Glass创建适配器以连接标准音频连接器,例如3.5mm耳机线?
我正在尝试将玻璃器皿.APK部署到Google Glass设备,但ADB没有列出.我按照几个指南介绍了如何将Google Glass连接到Windows 8操作系统:
为了将设备连接到我的电脑,我做了以下操作.
1.安装USB驱动程序以为Android SDK Manager
2.更新android_winusb.inf文件并包含识别设备所需的行:https://dl.dropboxusercontent.com/u/83972129/android_winusb.inf
我在设备"硬件ID"设置下找到的这些ID:
3.连接设备并强制使用上面的驱动程序
https://dl.dropboxusercontent.com/u/83972129/android_device.png
看起来几乎和指南一样,它被安装为"Android ADB Interface"而不是"Android Composite ADB Interface"
然后我去了ADB工具并试图列出Android设备:
https://dl.dropboxusercontent.com/u/83972129/android_adb.png
谷歌玻璃不在那里,没有adb服务重启没有系统重启帮助.
5.因此,IDE无法看到设备,因此无法部署.APK
我该如何调试问题?这可能有什么问题?
我如何编写语音触发器来导航Google Glass Cards?
This is how I see it happening:
1) "Ok Glass, Start My Program"
2) Application begins and shows the first card
3) User can say "Next Card" to move to the next card
(somewhat the equivalent of swiping forward when in the timeline)
4) User can say "Previous Card" to go back
Run Code Online (Sandbox Code Playgroud)
我需要显示的卡片是简单的文字和图像,我想知道是否可以在显示卡片时设置某种类型的监听器来监听语音命令.
我已经从给定列表中研究过Glass语音命令最接近匹配但是无法运行代码,尽管我确实拥有所有库.
旁注:使用语音命令时,用户仍然可以看到卡片,这一点非常重要.他的手也很忙,所以不能选择点击/滑动.
关于如何仅使用语音控制来控制我的Immersion应用程序中的时间线的任何想法?非常感谢!
我正在跟踪https://code.google.com/p/google-glass-api/issues/detail?id=273.
我正在进行的研究让我回顾Google Glass Developer使用谷歌建议的聆听手势的方式:https://developers.google.com/glass/develop/gdk/input/touch#detecting_gestures_with_a_gesture_detector
我们如何使用语音命令激活这些手势?
Android只是beta发布的可穿戴设备升级为Android http://developer.android.com/wear/notifications/remote-input.html,有没有办法我们可以用它来回答我的问题?它仍然感觉我们仍然只有一步之遥,因为我们可以打电话给服务,但在我们谈话时没有"睡觉"和"醒来"作为后台服务.