我有一个关于机器人地图的研究想法。基本上,最终目标是使用一个中等的单目相机(售价20-50美元),并创建一个3D占用率网格地图(有一个用c++编写的流行库,名为Octomap)。为了做到这一点,我建议自己采取以下步骤:
获取rgb图像(从视频),并转换为深度图像使用卷积神经网络。这部分完成了。
获取原始rgb图像并创建深度图像并转换为Point。
获取点云并将其转换为3D占用率网格地图。
因此,对于第二步,我有点困惑,无论我做的是对还是错。我使用了这段代码,它是一个开放源代码:
import argparse
import sys
import os
from PIL im
我试图从预测深度的图像中生成3D点云(PC)。给出了摄像机的本质和地面真实深度图像。首先,我正在用摄像机内部的GT深度生成一台PC,它看起来如下:
但是,当我试图生成与预测深度相同的图像的PC时,PC看起来很奇怪。下面是预测深度的PC:
我用同样的相机本质来做这件事。我正在使用相同的代码和程序的两个PC代。我原以为两台PC会很接近,但我得到的是真的很奇怪。我做错了什么?
我生成点云的代码如下所示:
int rows = RGB.size[0];
int cols = RGB.size[1];
for (int v = 0; v < rows; v++) {
for (