使用神经网络估计图像中的距离

要求

使用神经网络估计静止图像或视频流中的距离是否可行?

我有一个激光游侠取景器,可提供视频输出以及距离测量。但是,距离测量需要将激光照射到环境中,这并不总是理想的或不允许的。我希望有一个选项可以将其切换到“被动”模式,在该模式下,图像被馈送到神经网络,然后该神经网络可以提供距离估计,而无需激活激光器。最初,网络将在活动模式下从测距仪上以图像+距离对进行训练。

我不是神经网络专家,尽管Google发现神经网络在图像分类和姿态估计方面有很多用途,但我找不到用于距离估计的任何现有技术。这看似可行,还是我在浪费时间?每N个像素一个输入的基本前馈网络是否足够?还是需要其他体系结构?

rcpinto

是的,有可能,假设您有训练的真实数据。早在2006年,就有关于此主题的出版物,但使用了Markov Random Fields。您可以在这里阅读最近进行了卷积神经网络深卷积神经场这3个示例估计了图像上每个像素的深度,因此它们需要对每个像素进行正确的测量。

如果您使用的是平面测距仪,则根据激光的分辨率,您将获得适合图像各列的正确深度。这可能意味着您需要使用图像中的单行像素而不是完整图像来训练NN。对于全场景深度提取,人们通常使用双筒望远镜相机或Kinect之类的东西(当然只是为了训练)。

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章