有谁知道最终用户是否购买了Kinect传感器,他可以使用它来制作自己的游戏.或者仅适用于专业游戏工作室的API?
通过使用Kinect,我可以获得深度图像,其中每个深度图像像素存储相机和对象之间的距离(以毫米为单位).现在我想保存它们以便以后使用.什么是最好的推荐?
我想将深度图像保存为图像(jpg/png等).但是,该值通常为50毫米至10000毫米,而普通图像元素可以存储0-255.然后我需要将数据扩展到0-255范围,并且可能以某种方式利用数据.
我想做类似于Johhny Lee在他的Wii头部跟踪中所做的事情 http://www.youtube.com/watch?v=Jd3-eiid-Uw&feature=player_embedded
但我想使用Kinect.由于微软的sdk暴露了骨骼关节,我曾希望我能够用它来获得头部位置.问题是我想用我的台式电脑及其显示器来做这件事.如果我将Kinect传感器放在我的显示器旁边并坐在桌子旁边.几乎只有我的头部和颈部对于传感器是可见的,因此骨骼跟踪不会在我的头部位置上拾取.
有人熟悉使用Kinect的头部跟踪项目吗?最好是在C#
是否可以使用Kinect检测手指运动.我能够检测骨架并做一些鼠标移动并根据OTHER HAND位置执行点击.我想用手指动作实现'鼠标点击'.
是否有可能与Microsoft Kinect sdk或其他开源类似的项目?
谢谢.
我一直在尝试使用Kinect库(http://nicolas.burrus.name/index.php/Research/KinectUseNestk)运行"入门教程",但我偶然发现了一个错误.
当我在CLI中尝试以下行时:
cmake -DCMAKE_BUILD_TYPE=RelWithDebInfo ..
Run Code Online (Sandbox Code Playgroud)
我收到以下错误:
CMake Error at D:/Program Files/CMake 2.8/share/cmake-2.8/Modules/FindPackageHan
dleStandardArgs.cmake:91 (MESSAGE):
Could NOT find OpenNI (missing: OPENNI_LIBRARY OPENNI_INCLUDE_DIR)
Call Stack (most recent call first):
D:/Program Files/CMake 2.8/share/cmake-2.8/Modules/FindPackageHandleStandardAr
gs.cmake:252 (_FPHSA_FAILURE_MESSAGE)
nestk/cmake/FindOpenNI.cmake:51 (find_package_handle_standard_args)
nestk/cmake/find_nestk_deps.cmake:77 (FIND_PACKAGE)
build/nestk/UseEmbeddedNestk.cmake:23 (INCLUDE)
nestk/CMakeLists.txt:67 (INCLUDE)
Run Code Online (Sandbox Code Playgroud)
有谁知道我该如何解决这个问题?我安装了OpenNI,它安装在D:\ Program Files\OpenNI.
我正在尝试构建一个基于Kinect和iPhone的应用程序.
我试图根据kinect返回的轨迹计算我的手在XY和Z轴的每一个上随时间的加速度.基本上我选择的0.5秒或15帧(标准时间间隔dt)和3点,( x0,x1和x2)超过其通过0.5秒separeted时间.首先我要提一下,以米为单位提到3点的位置.通过使用这些点,我计算两种速度(v0 = (x1 - x0) / dt和v1 = (x2 - x1) / dt).最后,通过使用这个速度,我计算的加速度x1和x2作为acc = (v1 - v0) / dt.
我在每一帧重复这些计算,然后获得一系列加速度.
正如我所说,我还有一部iPhone,我想看看我用哪只手拿着我的iPhone,左手还是右手.我想通过尝试将我的手的加速度与保持在正确位置的iPhone的加速度相匹配来做到这一点,这样我就拥有相同的轴系统.
唯一的问题是我的加速度和手机的加速度之间存在巨大差异.
每个轴的手机加速读数介于-2和2之间,而我的介于-10和10之间.我应该如何解释iPhone的加速度,以获得类似于以米/秒为单位的采矿措施?
我有一个认可项目.它工作,但如果我使用这个项目如何一个类和从其他类调用其方法我有一个问题在线异常:
sre = new SpeechRecognitionEngine(ri.Id);
Run Code Online (Sandbox Code Playgroud)
错误是:
找不到所需ID的识别器.
代码:
KinectAudioSource source = kinectSensor.AudioSource;
source.EchoCancellationMode = EchoCancellationMode.None; // No AEC for this sample
source.AutomaticGainControlEnabled = false; // Important to turn this off for speech recognition
// source.SystemMode = SystemMode.OptibeamArrayOnly;
speechRecognizer = CreateSpeechRecognizer();
using (Stream s = source.Start())
{
speechRecognizer.SetInputToAudioStream(s, new SpeechAudioFormatInfo(EncodingFormat.Pcm, 16000, 16, 1, 32000, 2, null));
Console.WriteLine("Recognizing speech. Say: 'purple', 'green' or 'blue'. Press ENTER to stop");
speechRecognizer.RecognizeAsync(RecognizeMode.Multiple);
Console.ReadLine();
Console.WriteLine("Stopping recognizer ...");
speechRecognizer.RecognizeAsyncStop();
}
private static SpeechRecognitionEngine CreateSpeechRecognizer()
{
RecognizerInfo ri …Run Code Online (Sandbox Code Playgroud) 当Kinect本身没有插入时,是否可以模拟Kinect传感器(用于Kinect SDK)?
首先,我认为Kinect Studio完全符合我的要求,但现在看来Kinect Studio可以记录数据流,并可以将它们"提供"给应用程序,但无法模拟与传感器的连接.所以目前我有几个.xed文件用Kinect Studio录制,我无法启动任何启用Kinect的应用程序,而不会得到"Kinect传感器未插入"或任何消息.
有没有办法解决?我可以访问Kinect,但它不在同一个地方,我打算编写大部分代码(我非常希望用记录数据运行/调试它).
我真的很感激任何帮助.
PS也许我只是错误地使用Kinect Studio,它实际上可以模拟Kinect连接(实际上这是最好的情况).
我正在使用我的Kinect进行一些2D 3D图像处理.这是我的问题:我的3D(x,y,z)中的点位于一个平面上.我也知道RGB图像(x,y)上的点的坐标.现在我想估计一个2D-3D单应矩阵来估计(x1,y1,z1)坐标到随机(x1,y1)点.我认为这是可能的,但我不知道从哪里开始.
谢谢!
我正在尝试根据来自Kinect V2的数据使用Unity3D移动化身,问题是当我将多关节方向应用于单位Slerp变换时,
我如何计算新的四元数,它允许我正确模拟实时人体运动?
float ox, oy, oz, ow;
ox = body.JointOrientations[_SpineMid].Orientation.X;
oy = body.JointOrientations[_SpineMid].Orientation.Y;
oz = body.JointOrientations[_SpineMid].Orientation.Z;
ow = body.JointOrientations[_SpineMid].Orientation.W;
//SpineMid.transform.localRotation = new Quaternion(ox, oy, oz, ow);
SpineMid.transform.localRotation = Quaternion.Slerp(SpineMid.transform.localRotation, new Quaternion(ox, oy, oz, ow), Time.time * 0.1f);
Run Code Online (Sandbox Code Playgroud)

float ox, oy, oz, ow;
ox = body.JointOrientations[_SpineMid].Orientation.X;
oy = body.JointOrientations[_SpineMid].Orientation.Y;
oz = body.JointOrientations[_SpineMid].Orientation.Z;
ow = body.JointOrientations[_SpineMid].Orientation.W;
//SpineMid.transform.localRotation = new Quaternion(ox, oy, oz, ow);
SpineMid.transform.localRotation = Quaternion.Slerp(SpineMid.transform.localRotation, new Quaternion(ox, oy, oz, ow), Time.time * 0.1f);
ox = body.JointOrientations[_SpineBase].Orientation.X;
oy = body.JointOrientations[_SpineBase].Orientation.Y;
oz …Run Code Online (Sandbox Code Playgroud) kinect ×10
c# ×5
cmake ×1
depth ×1
emulation ×1
homography ×1
iphone ×1
kinect-sdk ×1
matlab ×1
openni ×1
orientation ×1
rgb ×1
speech ×1
xbox360 ×1