人間らしい「視覚から物体間に働く力を想起する能力」をAIが再現することに成功

国立研究開発法人産業技術総合研究所(産総研)の研究チームは、視覚情報から物体間に働く力を想起するAI技術を開発しました。具体的には、物体が「崩れそう」「つぶれそう」などと想像する力をAIが獲得し、物体を「壊さないよう」人間らしい推論に基づく行動を立案することが可能となりました。

人間は視覚のみから物体にかかる力や物体の柔らかさなどを経験的に推論し、それに基づいて行動します。このような人間の視覚から異なる感覚を呼び起こす能力をAIが再現したのが本研究の成果です。具体的には、物理シミュレーター上で物体間にかかる力を可視化した仮想的な経験データを構築し、AIがその経験から視覚と力の関係を学習することで実現しました。

実験では、カメラ1台で未知の物体間に発生する力分布をリアルタイムで可視化することに成功。また、力分布を理解したロボットが周囲の物体の損傷を最小限に抑えながら対象物を持ち上げるなど、人間らしい推論に基づく行動が可能となりました。

この技術は、店舗や工場、物流倉庫におけるロボットの作業や、カメラによる事故予測などに応用が期待されます。また、2023年10月1日から5日まで開催の国際会議「IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) 2023」で発表される予定です。

この技術は、店舗や工場、物流倉庫でのロボット作業や、自動運転車の事故予測などに活用できると期待されています。

Source: PR TIMES