・触覚と視覚を使ってジェンガを学習するロボットアームが開発されました。
・この研究で開発した機械学習法は、ロボットが一般製品を組み立てる際や、慎重な物理的作用を必要とする作業を行う際に役立つと考えられます。
ジェンガは、目と手の正確な連携と戦略を必要とする複雑なゲームです。私たち人間は、視覚と触覚を連続して使い、このゲームを攻略しています。一方、ロボットはまだそのような高度な感覚を持っていません。
ほとんどのロボット学習システムは、触覚を持たない視覚データのみを使用しており、基本的に外界の学習能力が制限されています。モデルフリー強化学習技術に基づく既存の学習アルゴリズムは、物理的な物体、接触、力に関する知識を利用する能力がほとんどありません。
近年、MITのMCubeラボの研究者は、ロボットでこの能力を再現するアルゴリズムを開発しました。膨大なデータセットを使って次善の策を評価する従来の機械学習技術とは違い、このロボットは階層的に学習することで、穏やかで正確な駒の抽出を可能にしました。
ジェンガをするロボット
このロボットには、外部RGBカメラ、ソフトプロンググリッパー、力を感知する手首カフが装備されています。これらの装置により、ロボットはジェンガタワーと個々のブロックを観察し、感じることができます。
ABB IRB 120という産業用ロボットアームをカスタマイズし、その手の届く範囲にジェンガタワーを設置しました。アームがブロックを軽く押すと、コンピュータがカフとカメラから触覚と視覚のフィードバックを取得し、ロボットの以前の動きと比較します。
このモデルを使うと、ロボットは駒の状態を正確に推定し、次の手をシミュレーションし、有利な手を決定することができます。また、崩れるを防ぐために、ブロックを押し続けるか、新しいブロックに移動するかをリアルタイムで学習しています。
ジェンガというゲームは、チェスや囲碁のAI開発よりも難易度が高く、個々のブロックを引く、押す、置く、揃えるといった基本的な身体能力が求められるからです。
今回開発したロボットは、ブロックが詰まっているか空いているかを効率的に識別し、少しのデータでブロックの抽出方法を決定します。数万回も試行しなくても、ほぼ300回の試行で学習させることができます。似たような結果と測定値の試行がクラスタにまとめられ、各クラスタは特定のブロックの動きを表しています。
その結果、1つ1つのデータに対して、現在の触覚と視覚の測定値からブロックの動きを推定するモデルが開発されました。このクラスタリング戦略は、人間の自然な学習方法にヒントを得ており、ロボットがゲームをプレイするための学習効率を大幅に向上させることができます。
応用
この方法は、人工知能が物理的な世界に進出した成功例です。ロボットは周囲を観察するうちに、人間の操作を定義する基本的なスキルのいくつかを学んでいきます。
この触覚学習システムは、ジェンガゲーム以外のタスク、特に慎重な身体の動きを必要とするタスクにも応用することができます。例えば、消費財の組み立てや、埋め立てゴミからリサイクル可能な材料を分別する作業などです。
例えば、スマートフォンやノートパソコンの組み立てラインでは、ほとんどの工程で視覚だけでなく、触覚や力加減を必要としますが、この技術はそのような組み立てラインを劇的に改善する可能性があります。