基于什么是公开的,有人可以使用.NET Gadgeteer与Kinect进行交互吗?
可能需要对司机做什么(如果有的话)?
如果您有兴趣,这里有一个Channel9视频,向您展示如何使用VS2010创建嵌入式应用程序.它将于2011年春季发布.
我在虚拟机上安装了Windows 7 64位.我想在其上运行任何kinect驱动程序,如openni,openkinect或kinect sdk我不想在本机环境中运行它.
有没有办法在oracle虚拟盒上运行kinect?
[更新]我通过安装openni http://i.stack.imgur.com/R5ZIr.png完成了这项工作
但是kinect仍然不起作用
注意:主机是Ubuntu 10.10 64位
我想使用Microsoft Kinect进行面部检测,我能够裁剪RGB视频的一部分,并能够在Skeleton View中围绕面部制作一个矩形,但我无法检测到的RGB(正常图像)面对,在WPF中.我怎么能做到这一点?
让我们说我有一个指向地板的kinect.
如果我在地板上放置3或4个物体,我如何确定这些物体所在的平面?
如何检测该地板上颜色鲜艳的物体?
我正在使用SDK创建一个应用程序,我必须只有一个用户并锁定它,所以如果其他人出现,即使该人更接近Kinect,应用程序也会跟踪它跟踪的第一个骨架.
从msdn库我发现我可以使用Skeletom Stream类:
属性:AppChoosesSkeletons =获取或设置一个布尔值,该值确定应用程序是否选择要跟踪的骨架.
方法:SkeletonStream.ChooseSkeletons(Int32)=选择一个要跟踪的骨架.语法:public void ChooseSkeletons(int trackingId1)
我不是很擅长编程而且我正在使用C#,我想写下类似代码的东西,但它说我使用的是无效表达式.
SkeletonFrame SFrame = e.OpenSkeletonFrame();
if (SFrame == null) return;
Skeleton[] Skeletons = new Skeleton[SFrame.SkeletonArrayLength];
SFrame.CopySkeletonDataTo(Skeletons);
int firstSkeleton = Skeletons[0].TrackingId;
sensor.SkeletonStream.ChooseSkeletons(int firstSkeleton);
if (firstSkeleton == null)
return;
if (SkeletonTrackingState.Tracked == firstSkeleton.TrackingState)
{
//body...
Run Code Online (Sandbox Code Playgroud)
sensor.SkeletonStream.ChooseSkeletons(int firstSkeleton它说,问题在于它int firstSkeleton cannot be used.
有人可以帮帮我吗?谢谢!
我正在使用SDK创建一个程序,当检测到用户时,该程序会为它们绘制一个框架供他们遵循.我最近看到一个游戏在我的Xbox,Nike + Kinect上做广告,并看到它如何显示该角色的副本,如:
http://www.swaggerseek.com/wp-content/uploads/2012/06/fcb69__xboxkinect1.jpg
要么
http://www.swaggerseek.com/wp-content/uploads/2012/06/fcb69__xboxkinect.jpg
我是否可以创建仅检测到的人(不是任何背景)的点云表示?提前致谢!
编辑
使用这个网站,我可以创建点云,但仍然无法在人体周围进行裁剪.
我想知道当Kinect传感器没有连接到计算机时,是否有人设法从Kinect Studio(.XED文件)播放录像,或者是否可能?连接传感器时,播放按预期工作.
快速谷歌搜索没有产生很多结果,我在文档中找到的是:
"Kinect Studio必须与Kinect for Windows应用程序结合使用".
对于那些想知道原因的人:我要离开一个星期,不能随身携带传感器,但我希望继续开发 - 我希望我可以制作一套录音来看我一周...
我正在开展一个带手势识别的项目.现在我想准备一个只能显示图像的演示文稿.我有一系列定义手势的图像,我想在单个图像中显示它们,就像在文献中显示运动历史图像一样.
我的问题很简单,我可以使用opencv中的函数来制作运动历史图像,比如定义手的运动的10个或更多图像.
作为一个例子,我有以下图像,我想显示手的位置(不透明度直接取决于时间参考).

我尝试使用GIMP来合并具有不同不透明度的图层以执行相同的操作,但输出效果不佳.

我想要做的是从保存的数据绘制和动画骨架(就像我们可以用传感器流做的那样)(所以我有每个关节的x,y和z值).
我搜索了很多,但我找不到任何可以帮助我的东西.
我可以将数据转换为关节集合,将其与骨架相关联,但是呢?我不知道如何将骨架映射到colorImagePoint.
也许我要创造一个depthImageFrame?
非常感谢!
我已经在这个问题上工作了很长一段时间,并且在我的创造力结束时,所以希望其他人可以帮助我指出正确的方向.我一直在使用Kinect并尝试将数据捕获到MATLAB.幸运的是,有很多方法可以这样做(我目前正在使用http://www.mathworks.com/matlabcentral/fileexchange/30242-kinect-matlab).当我试图将捕获的数据投影到3D时,我的传统方法给出了很差的重建结果.
简而言之,我最终为matlab编写了一个Kinect SDK包装器,用于执行重建和对齐.重建就像一场梦,但......
正如您在此处所看到的,我在对齐方面遇到了很多麻烦:

请不要仔细看模型:(.
如您所见,对齐方式不正确.我不确定为什么会这样.我已经阅读了很多论坛,其他人使用相同的方法比我更成功.
我目前的管道是使用Kinect Matlab(使用Openni)捕获数据,使用Kinect SDK重建,然后使用Kinect SDK(通过NuiImageGetColorPixelCoordinateFrameFromDepthPixelFrameAtResolution)进行对齐.我怀疑这可能是由于Openni,但我在使用Kinect SDK创建mex函数调用捕获方面收效甚微.
如果有人能指出我应该深入研究的方向,那将非常感激.
编辑:
图一我应该发布一些代码.这是我用于对齐的代码:
/* The matlab mex function */
void mexFunction( int nlhs, mxArray *plhs[], int nrhs,
const mxArray *prhs[] ){
if( nrhs < 2 )
{
printf( "No depth input or color image specified!\n" );
mexErrMsgTxt( "Input Error" );
}
int width = 640, height = 480;
// get input depth data
unsigned short *pDepthRow = ( unsigned short* ) mxGetData( prhs[0] );
unsigned char *pColorRow …Run Code Online (Sandbox Code Playgroud)