10月16日付のQuartz金融ウェブサイトによると、Reference News Networkは10月20日にこう報じた。人工知能(AI)は日常生活を一変させ、世界経済に大きな変化をもたらしている。AIと大手テクノロジー企業が前例のない成果を報告している一方で、多くのユーザーはChat Generator Pretrained Transformers(ChatGPT)のようなツールへの適応に依然として苦戦している。
利益が急増するにつれ、AIは日常生活にますます浸透しているが、その成功を牽引する人々はしばしばそのことに気づいていない。AIの能力はもはや外見や入力したテキストの認識に限定されず、より親密な領域にまで拡張されている。そして今、AIは感情を解釈することを学習している。ソーシャルメディア、小売、医療など、様々な業界で、AIシステムは生理学的、行動学的、言語的シグナルを活用して人間の感情を推測している。
オランダの学術誌「Decision Support Systems」に掲載された最近のレビューによると、心拍数、皮膚伝導反応、脳波活動といった生理学的シグナルは、感情認識モデルにとって最も信頼性の高い入力情報の一つであると指摘されている。
表情や声など複数の信号を組み合わせることで、AIは感情の観察者として機能し、ユーザーが気づかないかもしれない微妙な生理的変化さえも推測することができます。
一方、商用AIはすでにオンラインでの不快感を検知できます。ヒートマップやセッションリプレイツールは、クリック、スクロール、ウェブページの離脱といったユーザー行動を記録し、機械学習を用いて不快感や満足感といった感情的な反応をフラグ付けします。
The Hillによると、公共空間では、Metaverse Platformの実験的なスマートグラスが通行人の顔をリアルタイムで分析し、あらゆる歩道を監視実験室に変えてしまう可能性があるとのことです。
しかし、研究者たちは、AIには現状、真の感情理解が欠けていると強調しています。ヨーロッパのESCPビジネススクールが指摘するように、既存のシステムはパターン認識を通じて共感をシミュレートすることはできますが、真の感情的なつながりを体験することはできません。
こうした限界があるにもかかわらず、感情AIの開発は加速しており、企業、デバイス、そして政府がユーザーの内面世界を解釈する方法を静かに変えつつあります。ここでは、それがすでに起こっている5つの憂慮すべき事例を紹介します。
1. AIが身体の隠れた感情信号を解釈
スイスのジュネーブ大学の研究者による報告によると、AIシステムは心拍変動、皮膚コンダクタンス反応、脳の電気活動といった無意識の生理学的信号を分析することで感情を識別します。無表情であっても、これらの信号は興奮やストレスのレベルを明らかにする可能性があります。これらの信号は意識的に制御することが難しいため、言語やジェスチャーよりも信頼性の高い感情の指紋として機能します。
2. 機械は顔、音声、生体データを融合し、精度を向上
米国の公衆衛生データベースとScience Dailyが発表したマルチモーダル感情認識研究のレビューによると、顔の動き、音声のイントネーション、脳波(EEG)、皮膚コンダクタンス反応など、異なる種類の入力データを統合することで、感情予測の精度を大幅に向上させることができます。これらの「融合モデル」により、AIシステムは「幸せ」や「悲しい」といった大まかなカテゴリーに限定されるのではなく、感情状態の微妙な変化を追跡できるようになります。
3. クリック、スクロール、そしてためらいはすべてあなたの感情を表します
今日では、会話のリプレイやヒートマップ分析によって行動データが感情検出モデルに入力されています。データサイエンティストのマルクブ・アラム氏によると、AIは「怒りのクリック」、カーソルの一時停止、素早い離脱といったパターンを追跡し、ユーザーがイライラしているのか、退屈しているのか、それとも満足しているのかを推測します。検出された感情は、ユーザーエクスペリエンスの再設計やマーケティングに活用されます。つまり、あなたの不満がアルゴリズムの学習材料となっているのです。
4. スマートグラスは近い将来、公共の場で顔をスキャンすることで感情を識別できるようになるかもしれません。
Metaverse PlatformのAI搭載プロトタイプグラスは、近くにいる人の表情を捉えて解釈し、リアルタイムで感情状態を識別できます。プライバシー保護団体は、これにより同意なしに感情のスナップショットのデータベースが作成され、匿名性と監視に関する規範が変化する可能性があると警告しています。
5. AIは言語と音声を通してあなたの感情を「聞き取る」。
エビデンスに基づくガイダンスのクロニクルによると、看護における人工共感に関する研究では、AIはテキストや音声における感情的なトーンやストレスを認識できるものの、真の感情的・道徳的理解には至っていないことが示されています。ESCPビジネススクールの研究者らは、既存のシステムは意識ではなく言語や音声の手がかりに頼り、共感を模倣することしかできないと付け加えています。(劉宗雅編集)
出典: 元記事を読む
※現在お読みいただいているこの記事は、国内外のニュースソース等から取得した情報を自動翻訳した上で掲載しています。
内容には翻訳による解釈の違いが生じる場合があり、また取得時の状況により本文以外の情報や改行、表などが正しく反映されない場合がございます。
順次改善に努めてまいりますので、参考情報としてご活用いただき、必要に応じて原文の確認をおすすめいたします。