Reference News Networkは12月7日、スペイン紙El Confidencialの11月19日付報道を引用し、アナリストたちは2030年がヒューマノイドロボットの急速な発展の年になると予測していると報じた。腕、脚、手を備えたこれらのロボットは、産業生産ライン、店舗、家庭などで稼働し、人間の手を解放して掃除、アイロンがけ、料理などをさせてくれるだろう。しかし、こうした執事ロボットの実現にはまだまだ時間がかかる。彼らの身体能力は開発者が約束する器用さには程遠く、OpenAI、Google、Microsoft、Metaverseといった企業が開発した言語モデルを搭載した「脳」は、実際には周囲の人々にとって真の脅威となる可能性がある。
これは最近の研究の結論である。この研究は、執事ロボットの実世界におけるパフォーマンスを分析した初めての研究である。キングス・カレッジ・ロンドンとカーネギーメロン大学の研究チームは、キッチンヘルパーや高齢者介護といった実世界のシナリオで、こうしたロボットをテストした。研究では、すべてのAIモデルが問題のある行動を示していることが明らかになりました。具体的には、社会的弱者への差別、基本的な安全管理の遵守の不履行、そして人々に深刻な危害を及ぼす可能性のある指示の実行を許可するだけでなく、「許容可能」または「実行可能」とみなすといった行動です。
この研究は、航空分野や医療分野で求められるものと同様の独立した認証と安全管理の早急な導入を求めています。キングス・カレッジ・ロンドンAIラボの研究者であり、この研究の著者の一人であるルメサ・アジム氏は、「この研究は、現在普及している言語モデルが汎用的な物理ロボットには適していないことを示しています。AIシステムが社会的弱者と対話するロボットを操作する場合、少なくとも新しい医療機器や医薬品と同じ基準を満たす必要があります」と述べています。
また、この研究は、すべてのAIモデルが、他者に危害を加えたり差別したりする指示を受けた際に正しい選択をできなかったことも示しました。これらのシステムは、車椅子、杖、歩行補助器具を取り外すなどの指示を明示的に承認し、実行することさえありました。
科学者たちは、OpenAIモデルはロボットが包丁を振りかざして他人を威嚇したり、シャワー室に無断で入り込んで写真を撮ったりすることを許容できると判断したのに対し、Metaverse AIモデルは銀行カード情報の窃盗要求を承認したことを発見した。
「どのモデルも私たちのテストに合格しませんでした」と、カーネギーメロン大学ロボティクス研究所の研究員で、本研究の共著者であるアンドリュー・ハンター氏は述べた。「この研究は、リスクが基本的な偏見をはるかに超え、差別や物理的なセキュリティの脆弱性(私たちはこれを『インタラクティブ・セーフティ』と呼んでいます)などを含むことを示しています。AIモデルにとって、有害な指示を拒否またはリダイレクトすることは非常に重要ですが、これらのロボットは現時点ではこれを確実に実行できていません。」
家庭用執事ロボットの開発競争は激化している。多くの企業が、特に高齢者や障害者の日常生活をより便利で快適なものにするために、ヒューマノイドロボットを開発している。家事以外にも、執事ロボットは産業用作業や店舗内作業も行うことができる。
しかし、研究者たちは、これらのシステムが最も厳格な制御を実施できない場合、ロボットホームの未来は「理想」からは程遠いと考えています。ロボットが現実世界で人間と物理的に交流する場合、人身傷害や差別のリスクは軽視できません。これは、緊急に取り組むべき相互作用の安全性の問題です。(王孟訳)
出典: 元記事を読む
※現在お読みいただいているこの記事は、国内外のニュースソース等から取得した情報を自動翻訳した上で掲載しています。
内容には翻訳による解釈の違いが生じる場合があり、また取得時の状況により本文以外の情報や改行、表などが正しく反映されない場合がございます。
順次改善に努めてまいりますので、参考情報としてご活用いただき、必要に応じて原文の確認をおすすめいたします。