・研究者は、今まで思いつかなかったニューラルネットワークを開発しました。
・それは、テキスト要約、言語モデリング、質問への回答と、今までの方法を差し替えました。
通常、研究論文は専門的なアプローチと技術用語で埋められていて、科学的背景がない人が理解するのはとても難しいです。
最近、MITとカタールコンピューティング研究所の科学者が、科学記事やいくつかの文の簡単な英語要約ができる、新しい人工知識(AI)モデルを思いつきました。
それは以前の技術よりはるかに良い結果をもたらしますが、科学ライターやエディターには置き換えられません。しかしながら、AIはとてもたくさんの記事スキャンできますし、それがなにかというアイデアを得ることもできます。
元々研究チームは、物理学の問題に取り組むためにニューラルネットワークを開発しようとしていました。例えば、複雑な工学的材料において光がどのように振舞うか、などです。
彼らはすぐに、同じテクノロジーが他の計算タスクにも使用できると認識しました。音声認識や自然言語の解釈等、現在の機械の学習方法よりも効率的です。
彼らは実際に何をしましたか?
数年前、再開発したニューラルネットワーク(RNN)は、言語モデレーション、テキスト要約、チャットボットシステム開発等のたくさんのタスクのための、スタンダートな人工ニューラルネットワークになりました。
様々なテクニックは、長いストロングデータから情報を結びつける能力を、改善するために開発されました。もっとも人気のあるものが「Long Short-Term Memory (LSTM) 」と「Gated Recurrent Units (GRU)」です。しかし、それらは未だ、優れたメモリ機能や合成タスクの効率的なリコールの実演に失敗しています。
研究者達は、回転記憶単位(RUM)と呼ばれる別のアプローチを開発しました。伝統的なニューラルネットワークのようではなく、行列の乗算を基にしています。RUMは、多次元空間で回転するベクトルを基にしています。
リファレンス: MIT Press Journals | doi:10.1162/tacl_a_00258 | MIT
それらは、テキストの全てのシングルワードを表すため、多次元空間(特定の方向を向く特定の線)のベクトルを使用します。それぞれの連続した単語は、1,000の寸法を含む理論空間で、特定の方向からそらします。結果のベクトル(またはベクトルのグループ)は、言葉のストリングを関連付けるために置き換えられます。
全体でRUMは、複雑でダイナミックな順序の記録と、正確な情報のリコールの、2つのことをします。それは、人格をもったような、言葉モデリングと質問への回答という、可能性を秘めたパフォーマンスを見せます。
テスト
研究者達は、自分達の研究結果を含むたくさんの研究論文でこのシステムをテストし、伝統的ニューラルネットワークを基にしたLSTMとGRUでの結果と比較しました。
RUMはコンテンツをシンプルに要約するため、抄録をスキャンする代わりに論文全体を読みます。このシステムによって表示される要約には、専門用語や繰り返しの言葉が少なくなりました。しかし、きれいな文ではありません。データのキーポイントを捉えていないのです。
読み物:AI Writes Its Own Poetry That Resembles Shakespeare’s Work
是非あなたのタスクでこのシステムを試してみてください。コードとデモは、ここで使用できます。