use*_*217 6 mesh unity-game-engine kinect
我目前正在开发一个应用程序,其初始目标是实时获取Kinect设备"看到"的环境的3D模型.此信息稍后将用于投影映射,但目前这不是问题.
需要克服几个挑战,即Kinect将安装在移动平台(机器人)上,并且模型生成必须是实时的(或接近它).
经过对该主题的长期研究,我想出了几种可能的(?)架构:
1)使用从Kinect获得的深度数据,将其转换为点云(使用PCL执行此步骤),然后将其转换为网格,然后将其导出到Unity中以进行进一步的工作.
2)使用从Kinect获得的深度数据,将其转换为点云(使用PCL执行此步骤),将其导出到Unity中,然后将其转换为网格.
3)使用已经可以选择创建Mesh模型的KinectFusion,并(以某种方式)自动加载创建到Unity中的Mesh模型.
4)使用OpenNI + ZDK(+包装器)获取深度图并使用Unity生成网格.
老实说,我有点迷失在这里,我的主要问题是实时要求以及被迫集成几个软件组件使这成为棘手的问题.我不知道这些解决方案中是否存在哪些解决方案是可行的,并且关于这些问题的信息/教程并不完全丰富,例如,对于Skeleton跟踪.
任何形式的帮助将不胜感激.
此致,努诺
抱歉,我可能无法提供 Unity 中实时网格创建的解决方案 - 但这里的流程讨论非常有趣,足以让我回复。
\n\n在硬科学小说《玛雅人的回忆》中,讨论了这样一个场景:
\n\n“\xe2\x80\x9c 点,\xe2\x80\x9d 他说。\xe2\x80\x9cSo\xe2\x80\xa6 Satish 向我展示了 Quad [Quad=Drone] 获取实时深度和纹理的演示地图.\xe2\x80\x9d
\n\n\xe2\x80\x9c这没什么新意,\xe2\x80\x9d 我说。\n\xe2\x80\x9c是的,但是看看我们的上方。\xe2\x80\x9d \n我抬起头。四边形的粗略形状映入眼帘。
\n\n\xe2\x80\x9cQuad 在这里,但你看不到它,因为 FishEye [Fisheye=Kinect 2] 就在上面,瞄准前方。\xe2\x80\x9d
\n\n\xe2\x80\x9c那么它是在实时几何体上映射视频纹理?酷,\xe2\x80\x9d 我说。
\n\n\xe2\x80\x9c是的,突破是我可以定格\xe2\x80\xa6 定格现实生活,走出场景来研究它。\xe2\x80\x9d
\n\n\xe2\x80\x9c你所做的只是用交叉偏振器遮挡现实世界?\xe2\x80\x9d
\n\n\xe2\x80\x9c是啊,\xe2\x80\x9d他说。\xe2\x80\x9c对于 AYREE 来说能够使用这样的数据集是一件大事。\xe2\x80\x9d
\n\n\xe2\x80\x9c分辨率提高了,\xe2\x80\x9d我说的。
\n\n\xe2\x80\x9c 观察得很好,\xe2\x80\x9d 他说。\xe2\x80\x9c所以具有范围感应。镜头光学系统也已升级。\xe2\x80\x9d
\n\n\xe2\x80\x9c我注意到,如果我转身,我看不到实时直播,只有空荡荡的街道,\xe2\x80\x9d 我说。
\n\n\xe2\x80\x9c是的,当然,\xe2\x80\x9d他回答道。\xe2\x80\x9cQuad 面向相反的方向。这就是我站在你面前的原因。然而,整条街道是通过从高塔顶部拍摄的标准激光扫描完成的 3D 模型。\xe2\x80\x9d \nKrish 指着街道远端的一个建筑块。我再次返回实时 3D 视图。他走到我面前。
\n\n\xe2\x80\x9c 这太酷了。每个人看起来都很真实。\xe2\x80\x9d
\n\n\xe2\x80\x9c哈哈。当你亲自带着 Wizer 来到这里时,你应该会发现它是多么酷,\xe2\x80\x9d 他说。\xe2\x80\x9c我在这里看着这些真实的人经过,只是他们身上映射了自己的网格。\xe2\x80\x9d
\n\n\xe2\x80\x9c啊啊!是的。\xe2\x80\x9d
\n\n\xe2\x80\x9c是的,就像它们上面有活的油漆一样。我想伸手去触摸,只是为了感受纹理。\xe2\x80\x9d...
\n\n您正在考虑在该领域进行的工作,以及实时网格的使用远远超出了事件的投影映射 - 当然!
\n\n祝您在这个项目上取得最好的成绩,我将关注您的最新动态。\n如果您对这个主题感兴趣,故事背后的一些科学知识可以在www.dirrogate.com上找到。\n亲切的问候。
\n