另一方面,單目相機也無法依靠一張圖像獲得圖像中物體離自己的相對距離。
但這兩個問題都有對應(yīng)的解決辦法。比如,通過借助 GPU 和 IMU(Inertial Measurement Unit,慣性測量器件)確定物體的大小,依靠運動中的三角測量,來求解相機運動并估計像素的空間位置。
雙目 SLAM 消除了單目的很多麻煩。雙目視覺和人眼類似,通過左右眼圖像的差異來計算距離——也就是所謂的立體視覺(Stereo)。
但雙目 SLAM 的計算量非常大,通常需要用到可編程門陣列 FPGA。而且其其深度量程也受雙目的基線與分辨率限制。
RGBD SLAM 的傳感器是深度攝像頭,能直接記錄深度信息。深度攝像頭通過把光投射到物體表面,再測量反射的信息來計算距離,具體原理有兩種:結(jié)構(gòu)光或 Time-of-Flight。它比傳統(tǒng)相機能夠提供更豐富的信息,也不必像單目或雙目那樣費時費力地計算深度。Kinect 就是一種比較常見的深度攝像頭。不過,現(xiàn)在多數(shù) RGBD 相機還存在測量范圍窄、噪聲大、視野小等諸多問題。
總的來說,SLAM 的實現(xiàn)方法多種多樣,應(yīng)用場景也不斷打開。但「由于產(chǎn)品和硬件高度差異化,而 SLAM 相關(guān)技術(shù)的整合和優(yōu)化又很復(fù)雜,導(dǎo)致算法和軟件高度碎片化,所以市場上目前還沒有一套通用普適的解決方案,在短時間內(nèi)也不會有」。
白鑫 本文來源:極客公園 責(zé)任編輯:白鑫_NT4464
2025-04-16 13:34
2025-04-16 11:09
2025-04-16 09:03
2025-04-15 09:28
2025-04-13 09:00
2025-04-09 10:28
2025-04-07 09:58
2025-04-07 09:58
2025-04-07 09:58
2025-04-07 09:34