跳至主要内容

洞察(Perception)

感知運算負責把原始感測資料轉為有意義的資訊,讓機器人可以理解周遭環境並進行決策。

1. 建圖(Mapping)

  • 目標: 邊移動邊建立環境地圖
  • 輸入: LiDAR/相機資料
  • 輸出:
    • 2D 佔據格網圖
    • 3D 點雲地圖
  • 範例:
    • 2D SLAM(例如 slam_toolbox)

      2D SLAM2D LiDAR 建圖

    • 3D SLAM(LiDAR / 視覺 SLAM)

      3D SLAM3D LiDAR 建圖

2. 定位(Localization)

  • 目標: 推算機器人在環境中的位置與姿態
  • 輸入: LiDAR/相機/IMU
  • 輸出: 機器人姿態(x, y, z, roll, pitch, yaw)
  • 常見方法:
    • LiDAR 定位(NDT、AMCL)
    • 視覺 SLAM(ORB-SLAM、Isaac ROS Visual SLAM)
    • 感測融合(例如 IMU + LiDAR 的 EKF)
  • ROS 2 Topic 範例:
    /localization/pose
    /tf

3. 物件偵測

  • 目標: 找出並分類環境中的物件

  • 輸入: 相機影像

  • 輸出: Bounding box、類別標籤、信心值

  • 範例:

    • YOLO(如 Isaac ROS YOLOv8)可辨識人員、障礙物、棧板等

    YOLO 範例

處理完的資訊會交給規畫(Planning)模組,產生具體行動。