今週、Amazon FAR Labs、MIT、カリフォルニア大学バークレー校、スタンフォード大学、カーネギーメロン大学の研究チームは、革新的な新技術「OmniRetargetインタラクション保存データ生成エンジン」を発表しました。この技術により、Yushu G1ヒューマノイドロボットは、視覚やライダーシステムに頼ることなく、固有受容覚のみで複雑な動作シーケンスを実行できるようになります。デモビデオでは、ロボットは椅子を踏み台にしてテーブルに登るだけでなく、着地時の衝撃を和らげるためにパルクール風のロールもこなし、驚異的な運動能力を披露しています。
OmniRetargetの核となるイノベーションは、ロボット、地形、そして操作対象物間の空間的および接触関係を正確にモデル化し、保存するインタラクションメッシュ技術にあります。運動学的制約を厳密に満たしながら、人間とロボットのモーションメッシュ間の変形差を最小限に抑えることで、システムは物理的に正確な動作軌跡を生成します。研究チームは複数のデータセットで検証を行い、9時間以上に及ぶ高品質な軌跡データを生成しました。動作の実現可能性と接触安定性において、従来の手法を大幅に上回る性能を発揮しました。
この画期的な成果として、ロボットはわずか5つの報酬パラメータとシンプルな環境ランダム化によって、最大30秒間の複雑な動作シーケンスを習得できるようになりました。実証されたテーブル登りや転がり動作に加え、システムは8種類の異なる物体ハンドリングスタイルもサポートできます。研究チームは、この純粋に固有受容覚に基づく制御戦略は、視覚センサーが機能しない極限環境において重要な応用価値を持ち、災害救助や探査といったシナリオにおけるヒューマノイドロボットの将来的な実用化への道を開くと述べています。