我正在通过使用Kinect传感器来识别对象,以便获取对象的x,y,z坐标。
我正在尝试找到与此相关的信息,但找不到太多。我也看过视频,但是没有人共享信息或任何示例代码?这就是我想要实现的目标https://www.youtube.com/watch?v=nw3yix3XomY
可能很少有人会问相同的问题,但是由于我是Kinect和这些库的新手,因此我几乎不需要更多指导。
我在某处读到使用Kinect v1无法进行对象检测。我们需要使用第三方库,例如开放式简历或点云(pcl)。
有人可以帮助我,即使通过使用第三方库,如何通过Kinect传感器准确识别物体?
这将非常有帮助。
谢谢你。
正如您链接的视频的作者在评论中指出的那样,遵循此PCL教程将为您提供帮助。正如您已经发现的那样,使用独立的SDK可能无法实现这一点。依靠PCL可以帮助您避免重新发明轮子。
那里的想法是:
教程中的软件需要用户手动输入模型和场景文件。正如您链接的视频那样,它不会在实时Feed上执行此操作。
不过,该过程应该非常相似。我不确定检测的CPU强度,因此可能需要进行其他性能调整。
一旦进行逐帧检测,就可以开始考虑跨帧实际跟踪对象。但这是另一个话题。
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句