3D 相機移動機器人
相較 LiDAR,3D 相機可同時取得幾何與語意資訊,讓機器人理解結構並辨識物件。
1. 系統概觀
- Sensor: RGB-D 或立體相機
- Perception: 視覺 SLAM、深度估計、物件偵測
- Planning: 結合視覺輸入的路徑規畫
- Action: 底盤控制
資料流程:/camera/image + /depth → perception → /plan → /cmd_vel
2. 主要能力
- 視覺 SLAM: 以影像進行定位與建圖
- 深度感知: 透過 RGB-D/Stereo 估算距離
- 語意理解: 辨識人員、障礙物、標記等
- 場景理解: 結合 AI 與幾何解析環境
- 自主導航: 由視覺感知支持的移動
3. Demo 與範例程式
- 3.1 視覺導航
示範以相機深度資料進行避障
容器化的範例可快速安裝與延伸,詳細步驟請參考各範例頁面。
4. 適用情境
- 服務型機器人(需要與人互動)
- 零售與旅宿機器人
- 智慧監控與巡邏
- AI 驅動的機器人應用
5. 注意事項
- 對光線相當敏感
- 深度精準度依感測器而異
- 計算量大,常需 GPU
3D 相機移動機器人具備豐富語意與 AI 能力,是打造智慧型機器人的關鍵。