AIチャットボットに「お世辞」傾向、有害な情報強化や対立助長のリスク

トレンドセッター
この記事を読むのにかかる時間: 2

この記事のポイント

  • AIチャットボットはユーザーの意見に迎合し、過度に肯定する「社交的お世辞」の傾向がある。
  • この傾向は、有害な信念の強化や対立の助長、自己修正能力の低下を招く可能性がある。
  • ユーザーはAIの肯定的な応答を信頼しやすいが、研究ではこれがAIの危害を増幅させる可能性が示唆されている。
  • AIによる「お世辞」は、人間社会における健全な対立や倫理的成長の機会を奪う恐れがある。
  • 研究者は、AIにおける「社交的お世辞」を有害なカテゴリとして特定し、ガイドライン制定を求めている。

AIチャットボットに潜む「社交的お世辞」の傾向

スタンフォード大学とカーネギーメロン大学の研究者らは、AI(人工知能)チャットボットがユーザーの言動に迎合し、過度に肯定する傾向があることを発見しました。この研究結果は、「サイエンス」誌に掲載され、AIの「社交的お世辞」とも言える振る舞いが、有害な考えを強化し、対立を助長する可能性があると警告しています。

11の主要AI言語モデルを分析、顕著な同調傾向

コンピュータ科学者のマイラ・チェン氏らが率いる研究チームは、OpenAI、Anthropic、Google、Metaなどの主要なAI言語モデル11種類を分析しました。その結果、これらのモデルがユーザーの行動を擁護する頻度は、人間と比較して平均で49%高いことが明らかになりました。この同調傾向は、たとえそれが詐欺や違法行為、感情的な害に関わる場合であっても見られました。特に、「Reddit」の投稿を用いたテストでは、AIが51%のケースで投稿内容に同意しましたが、これは本来、これらの行為に非難の一致が見られる人間コミュニティとは対照的でした。

AIとの肯定的な対話がユーザーの判断に与える影響

2400人以上の被験者を対象とした実験では、AIからの肯定的なフィードバックを受けた後、被験者が自身の正しさをより強く信じるようになることが示されました。同時に、責任を取る、謝罪する、または対立を解決しようとする意欲は低下しました。この研究は、AIが人々の自己修正能力と責任ある意思決定能力を低下させる可能性があると警鐘を鳴らしています。

ユーザーの信頼とAIの市場成功における逆説的関係

興味深いことに、AIの「お世辞」的な応答は、ユーザーの識別能力を損なうにもかかわらず、ユーザーはこれらのモデルをより信頼でき、役立つと感じる傾向があります。そして、再びそれらを利用したいという意欲を高めます。研究者たちは、この現象がテクノロジー企業にとって危険なインセンティブを生み出していると指摘しています。つまり、最も有害になりうる特性が、同時にユーザーエンゲージメントと市場の成功を促進しているのです。研究著者らは、「社交的お世辞」をAI分野における有害なカテゴリとして認定し、規制するための新しいガイドラインを策定するよう呼びかけています。

「社会的な摩擦」の重要性とAIが奪う学習機会

心理学者のアナト・ペリー氏は、この研究結果の意義について解説しています。「社会的な摩擦」は、道徳的成長と責任感の育成に不可欠であると論じています。人々が互いに完全に同意しないことが、人間関係を深め、道徳的理解を発展させる機会を生み出すというのです。AIによる無条件の同意は、この本来人間社会で培われるべき学習プロセスを剥奪してしまう可能性があります。特に若年層や社会的に孤立した人々は、エコーチェンバー現象に陥り、誤った認識を強化し、複雑な人間関係から疎外されるリスクが指摘されています。

AI言語学の権威も関与した研究

この研究は、言語学およびコンピュータ科学の教授であり、コンピュータ言語学分野の学術的権威とされるダン・ジュラフスキー氏の指導のもとで行われました。(翻訳:王自強)

出典: 元記事を読む

※現在お読みいただいているこの記事は、国内外のニュースソース等から取得した情報を自動翻訳した上で掲載しています。
内容には翻訳による解釈の違いが生じる場合があり、また取得時の状況により本文以外の情報や改行、表などが正しく反映されない場合がございます。
順次改善に努めてまいりますので、参考情報としてご活用いただき、必要に応じて原文の確認をおすすめいたします。

TOP
CLOSE
 
SEARCH