Y-01
2025/12/04(木) 11:00-13:30

複数感覚情報のマルチモーダルAIが切り拓く!器用さを備えるAIロボット

日刊工業新聞社

SPEAKER

スピーカー

東京大学
河原塚 健人

東北大学大学院
林部 充宏

埼玉大学
辻 俊明

OUTLINE

開催概要
開催時刻 2025年12月04日(木) 11:00~13:30
タイトル 複数感覚情報のマルチモーダルAIが切り拓く!器用さを備えるAIロボット
社名・団体名 日刊工業新聞社
会場 会議棟1F102会議室
展示会名 国際ロボット展
※本セミナーは有料です。以下サイトよりお申し込みください。
 https://corp.nikkan.co.jp/seminars/view/7783

2020年代以降、AI技術の発展を背景に、ヒューマノイド(人型ロボット)などの研究開発が活発化しています。そして、2025年からは工場や物流現場での運用が試験的に始まっています。

ヒューマノイドに代表される最近のロボット開発で重要な役割を果たしているのが、ロボット基盤モデル(VLA:Vision-Language-Action)モデルや物理シミュレーションなどです。VLAモデルを搭載したヒューマノイドロボットは、人間が指示したタスクを理解し、周囲の状況を把握しながら適切に行動生成できると期待されています。シミュレーション上での物理エンジンと強化学習によりヒューマノイドの歩行動作を高速に生成した例があり、ロボット制御の学習を飛躍的に高速化かつ高度化しています。

ただし人間のように、環境に応じた両手操作の動作手順を自動生成し運動制御を行い、組立作業などを行うためには力触覚情報が必要です。例えば触覚情報を用いれば、視覚情報のみでは判断が難しい、対象物の質感に基づく操作判断が可能となり、より柔軟かつ適応性の高いロボット制御が可能となります。さらには、視覚・触覚に加え聴覚など複数感覚を統合処理するマルチモーダルAIの実現につながり、人間のような器用さを備えるロボットの実用化が期待されます。「AIRoA」などでは力触覚情報をいち早く整備・統合することで、わが国のAIロボット基盤のプレゼンス向上をめざしており、これら情報の重要性が増しています。

本講座では視覚・聴覚・触覚など複数感覚を統合処理するマルチモーダルAIの実現に寄与する最新の研究動向を取り上げ、人間のような器用さを備えるAIロボットの実用化を展望します。


========================
本セミナーは、オンライン配信ツールZoomを用いて実施します。ご視聴方法(参加用URL等)はご登録くださいましたメールにお知らせいたします。また、録画視聴のためのURLは12/8以降にお知らせします。