● 研究者は、人工知能によってなされた道徳的決定に関する人間の視点を収集するための実験を設計
● 何百万もの人間の反応を分析し、文化によって倫理がどれほど異なるかを明らかにした
私たちは、機械が損傷を最小限に抑えるだけでなく、回避できない損傷を分散させるという任務を負っている時代に突入しています。損傷の分散(および機械が生み出す幸福)は通常、トレードオフを生み出し、その解決策は道徳的領域に含まれます。
自動運転車が衝突しそうになっていて、すべての人を救う道を評価できない状況を考えてみましょう。このような場合、車両は、道路上のさまざまな人々の間で損傷のリスクを公平に分散する方法を決定する必要があります。これらの道徳的ジレンマは、ロボット工学の法則や人間の倫理的原則では解決できません。
2014年、MITの研究者は、自動運転車などのAI搭載マシンによる道徳的決定に関する人間の視点を収集するために、Moral Machineという名前の実験を行いしました。これまでのところ、この実験には世界中から4,000万件以上の回答が寄せられています。これは、さまざまな文化の集合的な倫理的優先事項に対する貴重な洞察を提供します。
Moral Machineは、自動運転車が優先すべきと人々が考える13のシナリオをテストします。
● 少ない命より多くの命か
● 女性より男性か
● ペットより人間か
● 高齢者より若者か
● 低いものより高い社会的地位か
● 不健康者より健康者か
● 法律違反者より法律順守者か
研究者はすべての回答を分析し、人間の倫理が地理的位置、経済、文化に基づいてどのように変化するかを明らかにしました。
彼らは、国によって好みが異なることを発見しました。たとえば、日本や中国のような集団主義文化の人々は、若者よりも高齢者を助ける傾向があります。一方、より個人主義的な文化を持つ国は、高齢者を助ける可能性が低くなります。
同様に、米国や英国などの個人主義文化の人々は、他のすべての選択肢を考えると、より多くの命を惜しまない傾向があります。制度が弱い発展途上国の人々は、合法的に横断する歩行者よりも、斜め横断する歩行者に対してより寛容です。
より高いステータスをもつ人を救わないという好みは、東の国(日本、台湾、サウジアラビア、インドネシア)ではそれほど顕著ではなく、南の国(中南米、フランス)でははるかに高くなっています。
西洋と東洋の国々は、南の国々と比較して、ペットよりも人間を救うことをはるかに好む傾向があります。
制限
サンプルサイズが大きいにもかかわらず、この研究には多くの制限があります。たとえば、研究者はキャラクターの運命についての不確実性を考慮していませんでした。すべてのキャラクターは100%の確実性で子供と大人として認識され、彼らの生と死の結果は100%の確実性で推定されました。
また、回答者と登場人物の間に架空の関係要素(配偶者や親戚など)も導入しませんでした。 これらの仮定は非常に非現実的でしたが、実験を扱いやすくするために必要でした。
普遍的な合意に達することはできないかもしれませんが、これらの結果は、さまざまな設計や政策決定の倫理に国民がどのように反応するかをよりよく理解するために、ハイテク企業や自動車メーカーが使用することができます。