・自動運転車は、肌の色が濃い人の場合、検出の精度が5%低くなります。
・物体検出アルゴリズムの大半が、白人の画像を含むデータセットで学習されていたことが理由です。
機械学習モデルは、私たちの日常生活のいたるところで活躍し始めています。特に自動運転の分野は、10年前には「実現の可能性がある」程度であったのが、今では「市販されている」状況にまでなりました。
しかし、このような自動化システムの進歩により、近年、自動運転車に対する多くの懸念が引き起こされていますし、またその懸念は増えていっているようです。自動運転車の安全性や道路上の障害物への対処能力を心配するだけでなく、自動運転車が有色人種に危害を加えるかどうか、ということについても心配する必要があります。
今回、ジョージア工科大学の研究者が行った調査によると、自動運転システムに使用されているアルゴリズムは、肌の色が濃い歩行者の検出精度が5%低いと結論づけています。
特定の人々のグループのエラー率が他のグループよりも高い
研究チームはまず、自動運転車で主に使用されている最先端の物体検出モデルの精度を調査しました。まず、それらのモデルの、人々のグループごとの検出精度を調べました。
研究チームは、歩行者の写真を含む膨大なデータを分析し、肌の色に基づいて人々を分けました。そして、肌の色が濃い人と薄い人に対するモデルの検出精度をそれぞれ調べました。
研究者たちは、これらのモデルは、肌の色が濃いグループの検出精度の方が平均で5%低いことを発見しました。この差は、歩行者が障害物に遮られる頻度や時間帯などいくつかの重要なパラメータを調整しても変わりませんでした。
この研究では、一般に公開されているデータセットで学習し、研究目的に使用されているモデルのみを対象としています。市販の自動運転車で実際に使用されているモデルは分析していません。今回の調査結果が貴重だというわけではありませんが、このような研究は、実際の欠陥やリスクについて強い洞察を与えてくれます。
アルゴリズムの偏りや人種による差の理由
偏ったアルゴリズムに関するレポートが発表されたのは、今回が初めてではありません。昨年、ある研究で、ハイテク大手企業(Microsoft、IBM、Megvii)が開発した3つの顔認識システムにおいて、肌の色が薄い人よりも濃い人の方が性別を間違えられる可能性が高いことが明らかになりました。
人工知能モデル、特に機械学習や深層学習のアルゴリズムは与えられた学習データセットから学習するため、十分な種類のデータを提供しなければ、現実世界に導入した際に正確に動作しません。
自動運転車の場合も同様です。物体検知のアルゴリズムは、白人の画像を含むデータセットで主に学習されていました。また、これらのアルゴリズムにおいて、一部のデータセット(肌の色が濃い人)からの学習はあまり重視されていませんでした。
研究者たちは、多様な人種のサンプルを含み、一部のサンプルをトレーニングにおいてより重視することで、これらのモデルが改善できると考えています