・自動運転車用ニューラルネットワークの開発により、人を検出して次の動きを予測することが可能となりました。
・この技術により車両から最大45メートル離れた場所にいる複数の歩行者の姿勢と次の位置を正確に予測できます。
ほとんどの自動運転車では、さまざまなカメラ、LiDAR、GPSを使用して、周囲の内部マップを生成して維持します。その後、アルゴリズムにより、これらの入力を処理し、経路をプロットします。その後、ステアリング、加速、およびブレーキの制御を行う車両のアクチュエーターに命令を送信します。
予測モデリング、ハードコードされた規則、障害物回避、オブジェクト識別アルゴリズムなどの他のパラメーターは、ソフトウェアにより交通規則に従いながら走行するのに役立っています。この領域で行われる作業のほとんどは、静止画像のみをチェックしており、歩行者が3次元でどのように動くかは考慮していません。
この問題に対処するために、ミシガン大学の研究者らは、既存の技術と比較してより高い精度で人を検出し、次の動きを予測できるAIを開発しました。このAIにより、車両から最大45メートルの距離にいる複数の歩行者の姿勢と次の位置を同時に予測できます。
バイオメカニクスに触発されたリカレントニューラルネットワーク
これまで、自律型テクノロジーでは、何百万もの2次元画像を処理する機械学習手法を使用してきました。この方法では、一時停止の標識を現実世界においてリアルタイムで認識することができます。
一方、新しい機械学習手法では、数秒の動画クリップを使用して歩行者の動きを認識し、次のステップでどこに向かうかを正確に予測します。
システムにより、歩行者が左右どちらを見ているか、携帯電話で遊んでいるかなど、歩行者の姿勢が観察されます。この種の情報によって、歩行者が次にどのような行動をとる可能性が最も高いかについて多くのことがわかります。
ニューラルネットワークは、人間の歩行のバイオメカニクス、たとえば、人体の左右対称性や人の歩行の周期性にヒントを得た長・短期記憶ネットワークに基づいています。
どれくらい正確か?
ニューラルネットワークの検証結果は、変換誤差の中央値が、1秒後で約10cm、6秒後で80cm未満と非常に印象的なものでした。一方、他の同様の技術では最大700cmの誤差がありました。
ネットワークをより効率的にするために、研究チームは人体に適用される物理的制約条件(歩行・走行の最高速度や飛行できないこと)を設定し、システムが次の動きとしてすべての可能性を計算する必要がないようにしました。
研究者のチームは、CUDA深層学習フレームワークを備えた2つのNVIDIA TITAN X GPUを使用して、ミシガン州の実際の交差点を含むPedXデータセットをニューラルネットワークに学習させました。
Python 3.6で実行されており、各フレーム内の各歩行者の次のステップを予測するのに約1ミリ秒かかります。研究者によると、コードをさらに最適化して、より良い結果を得ることができるようになります。
AIにより、無人運転車能力の水準を向上させることができます。また、二足歩行ロボットの歩行研究に役立つ可能性があり、臨床歩行リハビリテーションシステムの開発にも適用できるでしょう。