在解释问题之前,让我解释一下我的需要.我期待着一个手控应用程序.使用手掌和点击使用抓取/拳头导航.
目前,我正在使用Openni,这听起来很有前景,并且几乎没有一些例子在我的案例中有用,因为它在样本中构建了手动跟踪器.这符合我的目的.
我想问的是,
1)使用拳头/抓取探测器的最佳方法是什么?
我在提取的RGB数据上训练并使用了Adaboost拳头分类器,这非常好,但是,它有太多的错误检测才能继续前进.
所以,在这里我再提出两个问题
2)是否有其他好的图书馆能够使用深度数据来满足我的需求?
3)我们可以训练自己的手势,尤其是使用手指,因为有些论文指的是HMM,如果是的话,我们如何进行像OpenNI这样的图书馆?
是的,我尝试使用OpenNI中的中间件库,例如抓取探测器,但是,它们不能满足我的目的,因为它既不是开源也不符合我的需要.
除了我的问题,如果你有什么想法,那可以帮助我将被接受作为一个好建议.