我正在使用官方Kinect SDK进行kinect应用程序.
结果我想1)能够识别身体已经挥动了5秒.做一些事情,如果它2)能够识别一条腿倾斜5秒.如果有的话,做点什么.
谁知道怎么做?我正在WPF应用程序中.
想有一些例子.我对Kinect很新.
在此先感谢您的帮助!
我想开发一个使用Kinect和手势识别的应用程序hidden Markov models.我在这里看了一个教程:HMM讲座
但我不知道如何开始.什么是状态集以及如何规范化数据以实现HMM学习?我知道(或多或少)应该如何处理信号和简单的"从左到右"的情况,但3D空间让我有点困惑.谁能形容它应该如何开始?
谁能形容这些步骤,怎么做?特别是我需要知道如何做模型以及HMM算法的步骤应该是什么.
algorithm gesture-recognition gestures hidden-markov-models kinect
所以我终于在邮件中获得了两个Kinect v2,并期待从他们那里获得一些原始数据,看看他们互相干扰了多少.我去下载SDK,由于某种原因我从未注意到Windows 8的要求......因为在Windows 7中不受支持.
这感觉很虚伪和不必要,但很好,我不能做任何事情.在我浪费一些钱将我的机器升级到我真正不想要的操作系统之前,有没有办法让Kinect v2与Windows 7机器(或者甚至是Ubuntu)通话?我不需要任何花哨的骨骼检测或任何东西; 我只想要原始xyz-rgb数据.我正在阅读关于OpenNI(以及他们新的Apple霸主)的内容,我希望通过一些奇迹,他们的最后一个开源发行版将与Kinect v2s向前兼容?
TL; DR:有没有可以在Windows 7-64bit上与Kinect v2连接的免费SDK?
我刚刚在OSX 10.11.5上设置了libfreenect2,我可以成功运行显示RGB/IR /深度流的Protonect演示,但我也想使用OpenNI/NITE进行骨架跟踪.
我按照repo的README文件中的说明进行了OpenNI,但是当我尝试运行NiViewer时,我得到了这个:
NiViewer
openDevice failed:
DeviceOpen using default: no devices found
Press any key to continue . . .
Run Code Online (Sandbox Code Playgroud)
目前我经历libfreenect2问题在GitHub和记录我尝试和成果在这里.任何提示/提示都很有帮助.
在OSX上使用Kinect v2使用libfreenect2设置和测试OpenNI/NITE的最简单方法是什么?
原来我的时候,我应该一直在使用NiTE2.2我只是复制使用NITE 1.5 libfreenect2-openni2.0.dylib从libfreenect2/build/lib给NiTE-MacOSX-x64-2.2/Samples/Bin/OpenNI2/Drivers/然后跑了SimpleUserTracker样品和它的工作!
还有一个问题:只打印到控制台的样本运行,但打开窗口和渲染的样本不起作用.没有窗口呈现,好像该线程以某种方式被阻止.那是我使用集成的Intel GPU的时候.如果我使用离散的nVidia GPU,应用程序崩溃:
./UserViewer
124095 INFO New log started on 2016-08-30 20:32:19
124114 INFO --- Filter Info --- Minimum Severity: VERBOSE
126001 VERBOSE No override device in configuration file
126029 VERBOSE Configuration has been read from '/Users/George/Downloads/Grouped/Projects/code+libs/NiTE-MacOSX-x64-2.2/Samples/Bin/OpenNI.ini'
126034 VERBOSE OpenNI 2.2.0 (Build 21)-MacOSX …Run Code Online (Sandbox Code Playgroud) 我正在尝试使用 Processing 为基本的 Kinect (v2) 深度云调整 Daniel Shiffman 的代码,但是屏幕中间总是有一个像素不会去任何地方,这很烦人。这是我的意思的一个例子。
您可以看到它似乎就在前面,并且在视野中的任何物体移动时都不会移动。
这是我用来生成上面图像的代码,(这是我正在尝试做的非常精简的版本)
// imports for openkinect
import org.openkinect.freenect2.*;
import org.openkinect.processing.*;
import java.nio.FloatBuffer;
// dots size is dot_size*skip
int dot_size = 2;
// step size when iterating through pixel array
int skip = 5;
// Kinect Library object
Kinect2 kinect2;
// Angle for rotation
float a = 3.1;
void setup() {
// Rendering in P3D
size(1500,1000,P3D);
// start the kinect
kinect2 = new Kinect2(this);
kinect2.initDepth();
kinect2.initDevice();
smooth(16);
// Black background
background(0);
} …Run Code Online (Sandbox Code Playgroud) Kinect有哪些手势识别库(如果有的话)?现在我正在使用OpenNI来记录骨架运动,但我不确定如何从那里开始触发离散动作.
我的问题可能就像姿势检测一样简单,但它也可能像基于时间的运动一样复杂(即,检测它们何时将手移动到圆圈中),具体取决于它的难度.我见过的用于姿势检测的例子非常特别 - 这是因为通用算法难以做到吗?
这对Kinect SDK是否可行?
我正在尝试使用Microsoft Kinect for Windows工作进行演示.对于骨骼跟踪,我使用的是一个名为FAAST的软件,它似乎工作得很好,但它没有任何语音识别功能.我编写了自己的软件以利用Kinect的语音识别,但我发现我无法并行运行这两个过程.这是一个可以在C#中使用代码的问题吗?我希望它可以修改我的C#语音识别代码,但我不知道从哪里开始,也无法在互联网上找到帮助.
首先,有人知道是否可以同时使用一个kinect运行两个进程?如果是,我怎么能确保我的kinect过程允许这个?
我不知道我的代码的哪一部分对你有用,所以我现在不打算提供任何代码.但如果您需要代码示例,我很乐意提供它们.
谢谢.
我想将Kinect的彩色相机捕获的视频流保存为.avi格式视频,我尝试了很多方法,但没有成功.有没有人成功完成这个?我正在使用Kinect for Windows SDK和WFP进行应用程序开发
我只是在理解主动红外图像和Kinect v2的深度图像之间的区别时感到困惑.谁能告诉我主动红外图像与深度图像相比有什么特殊功能?
kinect ×10
c# ×3
kinect-sdk ×2
openkinect ×2
openni ×2
wpf ×2
algorithm ×1
depth ×1
gestures ×1
infrared ×1
kinect-v2 ×1
libfreenect2 ×1
macos ×1
processing ×1