・研究者らは、歩き方から壁の向こう側にいる人を識別するニューラルネットワークを開発しました。
・電波を利用し、カメラがなくてもAIが人の姿勢や動きを正確に予測します。
2030年までに、人工知能は15兆ドル以上世界経済を動かすと予測されます-PwCレポートによると。 ここ数年、この分野では大きな成長が見られます。グーグルだけでも、AIの研究開発に40億ドル近くを投資しています。
これまでにも、心を読むAI、寿命を予測するAI、がんを発見するAI、さらにはあらゆる死を予見するサイコパスAIなどのプロジェクトが報告されています。そして現在、X線ビジョンがそのスーパーパワーの一つに加わりました。
近年、MITのエンジニアチームが、固形物を通して人を見ることができ、さらに歩き方から人を特定できるツール(RF-Poseという名)を開発しました。その仕組みと、どうやって作ったのかを見てみましょう。
ラジオ信号解析のためのニューラルネットワーク
私たちは1世紀以上にわたって、医療用X線撮影装置、セキュリティスキャナー、工業用CTスキャンなど、対象物や中身を透視するためにX線を使用してきました。しかし、これには欠点があります。それは、ターゲットすべてに放射線を浴びせてしまうことです。
そこで、壁の向こう側にいる人やその動きを検知するために、電波を利用したツールを開発しました。WiFiと同じ原理です。– WiFiの信号は壁を通り抜けることができますが、人体で跳ね返され、壁を通って探知機に戻ってきます。
なぜ人間に跳ね返ってくるのでしょうか?平均的な成人の体は約60%が水分で、電波は簡単に通り抜けることができないからです。これは、従来の家庭用WiFiの数千倍も穏やかな電波の場合です。
研究者たちは、これは単純な仕組みだが、実行するのは難しいと言っています。検出器に戻ってくる電波信号は非常に乱雑で、あらゆる物体を反射するからです。
画像元: Jason Dorfman / MIT CSAIL
そこで、ノイズの多い電波を整理するためにニューラルネットワークを使いました。しかし、ほとんどのニューラルネットワークは、手動で仕分けされたデータで学習されます。例えば、犬を識別するためのニューラルネットワークには大量の画像が必要で、それぞれの画像に人が「犬」「犬でない」という仕分けをする必要があります。この程度であれば1人でできますが、無線信号にラベルを付けるには膨大な人手が必要になります。
そこで、カメラと無線装置を設置し、人の動きを同時に記録することにしました。話す人、座る人、歩く人、ドアを開ける人など、大量の画像を収集しました。その画像から、人体の要所要所を抽出しました(いわゆる棒人間)。
そして、カメラで撮影した映像にニューラルネットワークを学習させ、対応する電波信号とマッチングさせました。これにより、棒人間と電波のつながりを学習させることができました。
学習を終えると、カメラがなくても人の姿勢や動きを正確に予測できるようになりました。開発者の報告によると、83%の確率でAIは100人のグループから特定の人物を正しく識別できます。システムは、棒人間の2秒間のクリップを使用して各人を識別しました。
画像元: MIT CSAIL
アプリケーション
現在、AIが提供できるのは2次元の棒人間だけですが、研究者は、より細かい部分を反映できる3次元の開発に挑戦しています。今後は、より複雑なモデルを学習し、歩行以外の動作をしている野生の人間を識別することを目指しています。
例えば、高齢者の手の震え(手の震えの原因)を観察し、深刻な事態になる前に警告して医師に相談することができるようになるかもしれません。
確かに、この種の病気はウェアラブルセンサーで検出できますが、RF-Poseは患者が機器を身につけたり充電したりする必要がありません。ヘルスケア以外にも、救助活動での生存者の位置確認や、プレイヤーが家の中を動き回るビデオゲームなどにも利用できるかもしれません。