2.4. アプリケーションの起動#

autoware.universe に実装されている認識アプリケーションを起動します。

2.4.1. Jetson ベースの ECU#

注釈

次の手順は、x86 ベースの ECU から ssh 経由で実行できます。

次のサンプルでは、2 台のカメラで個別に実行される画像ベースのオブジェクト検出を起動します。

cd edge-auto-jetson
source install/setup.bash

ros2 launch edge_auto_jetson_launch edge_auto_jetson.launch.xml

注釈

最初の実行時に結果が利用可能になるまでに約 15 分かかる場合があります。これは、ONNX モデルを TensorRT エンジンに変換することによって発生します。変換結果はディスクにキャッシュされるため、2 回目の起動以降は結果がすぐに利用可能になります。

このサンプルは、autoware.universe に実装されているtensorrt_yolox および bytetrack を利用します。詳細については、これらのパッケージの README を参照してください。

2.4.2. x86ベースのECU#

次のサンプルは、LiDAR ベースのオブジェクト検出と、2D オブジェクト検出と 3D オブジェクト検出の間のバウンディングボックス レベルのフュージョン (すなわち レイトフュージョン) を起動します。 LiDAR 設定に一致する起動ファイルを起動します。

cd edge-auto
source install/setup.bash

ros2 launch edge_auto_launch perception_at128_sample.launch.xml
## or
ros2 launch edge_auto_launch perception_xt32_sample.launch.xml

このサンプルは主に autoware.universepointcloud_preprocessorcenterpointおよび image_projection_based_fusionを利用します。 詳細については、これらのパッケージの README を参照してください。

このサンプルでは、パーセプションスタックに加えて、ユーザーが認識結果を視覚的に確認できるようにビューアも起動します。