・2011年に発表された子供型アンドロイド・ロボット「アフェット」。
・研究者たちは、より人間らしい表情を作り出せるよう「アフェット」を改良しました。
・アフェットの顔面100カ所以上のポイントを分析し、しかめっ面や笑顔といったさまざまな表情を追加しました。
ロボットの顔は、顔のさまざまな箇所を変形させることで、感情や意志を伝えることができる最も重要な情報表示装置の一つです。ロボットは、販売用や医療用(特に日本において)など様々な分野で利用されていますが、ロボットの顔に人間らしい表情を加えることは、依然として困難な課題となっています。
2011年、日本の科学者たちはこの課題に取り組み、「アフェット」と名付けられた子供の表情を持つアンドロイドを開発しました。これは大阪大学が開発したもので、人間の認知機能の発達をロボットを通して学ぶことを目的としています。例えば、乳幼児の世話をする保育者のスキルを向上させるのに役立ちます。
今回、このロボットをバージョンアップさせることにより、さらに印象的な表情を持てるようになりました。人間らしい動きを得るため、アフェットの顔面のポイントや、いくつかの力のバランスを注意深く分析しました。そして、数学的なモデリングと機械的な測定により、アフェットの表情の幅を大幅に改善することができたのです。
アンドロイド顔面の変形による制御
これまで、ロボットの皮膚に使用されている素材、非対称性、顔の動きの範囲などの要素は、詳細に検討されていませんでした。本研究では、これらの要素を考慮し、顔の柔らかい皮膚の動きを効果的に測定・制御する方法を開発しました。
その結果、ロボットの顔を操作する上で、顔表面の変形が重要な役割を果たしていることがわかりました。この研究では、アフェットの顔面100以上のポイント(正確には116)を分析し、その動きを3次元で測定しました。
研究者たちは、顔面のポイントを選択するために、変形ユニットと呼ばれるものを使用しました。各ユニットには、まぶたや唇の一部を上げたり下げたりするような、ユニークな顔の歪みを生成するメカニズムのグループが含まれています。そして、これらの計測値を数学モデルに入力し、顔の動きのパターンを解析しました。
このモデルを使って、適切な力を加えて人工皮膚を調整したり、アフェットの顔面の動きを正確に制御するための変形ユニットをシステムで設定しました。
これまでアンドロイドの顔は、ブラックボックス的な問題でしかありませんでした。こういったロボットは実現できているものの、一般的で漠然とした評価しかされていないのです。
この新しい技術は、顔のシステムを検出して調べることができ、しかめっ面や笑顔といった様々な表情を生み出すことができます。総合的に見て、アンドロイドの表情という難解な問題を解決する強力な手段と言えるでしょう。