如何使rgbdemo工作与非kinect立体摄像机
How to make rgbdemo working with non-kinect stereo cameras?
我试图让RGBDemo(主要是重建器)与2罗技立体摄像机一起工作,但我不知道如何做到这一点。
我注意到在nest库中有一个opencv抓取器,它的头文件包含在reconstructor.cpp中。然而,当我尝试"rgbd-viewer -camera-id 0"时,它一直在寻找kinect。
我的问题:1. RGBDemo目前只支持kinect吗?2. 如果RGBDemo可以与非kinect立体摄像机一起工作,我该怎么做?3.如果我需要为非kinect立体相机编写自己的实现,有什么建议吗?
如果你想使用非kinect摄像头。你甚至不需要立体声。现在有一些算法可以确定两幅图像的视点是否有足够的差异,从而可以像用立体相机拍摄一样使用。事实上,他们使用从互联网上找到的不同相机拍摄的图像,重建著名景点的3D模型。我可以给你写一篇教程,教你如何让它工作。我一直想这么做。这个软件叫做Bundler。除了Bundler,人们还经常使用CMVS和PMVS。CMVS对PMVS的图像进行预处理。PMVS产生稠密的云。
但是!我强烈建议你不要走这条路。它会犯很多错误,因为2D图像中的信息要少得多。这使得重建3D模型变得非常困难。所以,它最终会犯很多错误,或者不起作用。尽管与以前的软件相比,Bundler和PMVS非常棒,但你可以用kinect做的事情完全是在另一个层面上。
使用kinect只需要在ebay上花80美元,在亚马逊上花99美元,再在亚马逊上花5美元买电源适配器。所以,我强烈推荐这条路线。Kinect为算法提供了比2D图像更多的信息,使其更加有效、可靠和快速。事实上,使用Bundler和PMVS处理图像可能需要几个小时。而使用kinect,我在几秒钟内就做出了我的桌子模型!它真的很棒!
- Azure Kinect 使用正文索引映射裁剪正文
- 将摄像机调整到俯视图
- OSG地球摄像机位置
- 无法使用 OpenCv 3.4.5 从具有C++ dll 的网络摄像机 (rtsp) 中抓取帧
- 将Kinect v2帧速率(rgb、深度、骨架)设置为每秒25帧
- 错误错误 C2872:"布尔值":kinect.h 的不明确符号
- 在 X 轴上移动摄像机 glm::lookat()
- Affectiva 可以连接 Kinect v1 吗?
- 如何从OpenCV矩阵转换为k4a_image_t(Azure Kinect SDK)
- 在 UWP 中使用C++录制 Kinect V2.0(颜色和深度)
- C++、OpenCV和Kinect:处理速度下降
- 如何找到捕获IP摄像机捕获的帧的准确时间?
- OpenCV:使用 cv::triangulatepoints() 的立体摄像机跟踪问题
- 错误: 包含 <Kinect.h> 时未声明"_Out_"
- 运行时 kinect 输出的 3D 可视化
- Kinect V2 已閱讀深度問題
- 将JPEG流从IP摄像机接收到C 的RGB图像
- 使用IP摄像机的OpenCV上的问题
- 使用mynteye立体声摄像机在ROS中发布左右视频
- 如何使rgbdemo工作与非kinect立体摄像机