・日本の研究者が文字通り何を想像しているかわかるAIを開発しました
・このシステムは、人間の脳の動きから深層画像を再構築するシステムです。
・初期トレーニングの後、DNNは初見の画像を再構築することができます
この研究は、人工知能が私達を驚かすようになった数年前に実施されました。日常的に、私達はパーソナルカラー音声ガイド、Web検索エンジン、ソーシャルメディアプラットフォーム、そして最近ではサムスンが8K解像度にどんな動画も変換する機械学習を開発したように、数千のAIプログラムを利用しています。その可能性は計り知れません。
毎月、世界をより便利にするAI技術が誕生しているように思えます。2017年後半、Nvidia が初見の画像やシーンを扱えるニューラルネットワークを発表しました。ATR脳通信研究所の日本の研究チームが、文字通り思考を読めるAIを開発しました。
考え、それをロボットが映像化します。研究者達は、これを人間の脳の機能から深層画像を再構築することで実現させました。例えば、「Z」という文字の画像を見ているとしたら、AIはその画像に近しい画像を作り出します。これは、ある種に人の心を読んでいます。それでは、このシステムがどのように機能するのか詳細に見ていきましょう。
最近の進歩
今まで、機械学習技術に基づいているfMRI(機能的磁気共鳴画像)は、私達に知覚的なコンテンツを見せてきました。しかし、画像ベースの低レベルな再構築に制限されていました。
昨年、神経科学の分野の進歩により視覚的な大脳皮質の動きを深層ニューラルネットワーク(DNN)の階層レベルへデコードできるようになりました。
この予測されたレベルは異なる物体の画像に対して、想像化された物体のカテゴリーを画像計算された特徴の配列から見分けるために使えるでしょう。想像化された物体のデコーディングは、高次から低次の視覚表現の段階的な採用を明らかにします。
新しい画像再構築技術
日本の科学者たちは、画像の画素数を、人間の脳の機能の複数層として抽出されるDNNの特徴に最適化する画像再構築技術を発案しました。
このシステムは、DNNをリアルタイムで利用している際にfMRIスキャナーからくる信号を分析します。そしてさらに人々が見ているものを再構築します。このシステムを訓練するため、自然界の画像をAIと被験者に見せたところ、人間が異なる写真を知覚したのに対し、ネットワークは脳内の血の流れのパターンを正確に見分けることができました。
初期訓練(10週間)の後、DNNは数字やアルファベットといった初見の画像を再構築できるように(リアルタイムで)なりました。
これらは、人間と同じ方法で推測して学びます。あなた方が特定の数字を想像している際に脳波がどのように見えるかを知っています。このシステムは、人間の脳の動きを元にあなたの思考を見たい結果を推測することによって画像化させます。
人間と違い、沢山の推測を行うことができます。すべてのデータ(DNNのフォームにある脳波から抽出された)を持っており、それを画像に変換できます。このシステムは、これを何度も繰り返して、感覚的なイメージを再現していきます。
次の展開は?
最近の人工知能の開発の中でも、これはまるでSFのようです。この技術は、話すことができない人々にとってとても助けになるでしょう。現段階では、意識を読み取ることに関しては完全ではないため、この研究は更に進めていく必要性があります。
一方で、将来より進歩したAIが新しいコミュニケーションを可能にしてくれるでしょう。冒頭で述べたように、可能性は無限大です。