2.4. アプリケーションの起動#
autoware.universe に実装されている認識アプリケーションを起動します。
2.4.1. Jetson ベースの ECU#
注釈
次の手順は、x86 ベースの ECU から ssh 経由で実行できます。
次のサンプルでは、2 台のカメラで個別に実行される画像ベースのオブジェクト検出を起動します。
cd edge-auto-jetson
source install/setup.bash
ros2 launch edge_auto_jetson_launch edge_auto_jetson.launch.xml
注釈
最初の実行時に結果が利用可能になるまでに約 15 分かかる場合があります。これは、ONNX モデルを TensorRT エンジンに変換することによって発生します。変換結果はディスクにキャッシュされるため、2 回目の起動以降は結果がすぐに利用可能になります。
このサンプルは、autoware.universe に実装されているtensorrt_yolox および bytetrack を利用します。詳細については、これらのパッケージの README を参照してください。
2.4.2. x86ベースのECU#
次のサンプルは、LiDAR ベースのオブジェクト検出と、2D オブジェクト検出と 3D オブジェクト検出の間のバウンディングボックス レベルのフュージョン (すなわち レイトフュージョン) を起動します。 LiDAR 設定に一致する起動ファイルを起動します。
cd edge-auto
source install/setup.bash
ros2 launch edge_auto_launch perception_xt32_sample.launch.xml
## or
ros2 launch edge_auto_launch perception_at128_sample.launch.xml
このサンプルは主に autoware.universe のpointcloud_preprocessor、centerpointおよび image_projection_based_fusionを利用します。 詳細については、これらのパッケージの README を参照してください。
このサンプルでは、パーセプションスタックに加えて、ユーザーが認識結果を視覚的に確認できるようにビューアも起動します。