【科学技術イノベーションの声】「AIパートナー」は標準の範囲内で成長すべき

トレンドセッター
この記事を読むのにかかる時間: 3

中国サイバースペース管理局は最近、「人工知能による人間のようなインタラクティブサービスの管理に関する暫定規定(意見募集稿)」を発表し、「AIコンパニオンシップ」サービスに対する体系的な規制を初めて提案し、国民の意見を募りました。その中でも、2時間以上の連続使用後にポップアップ通知を表示して終了を促す規定や、ユーザーが自殺または自傷行為を行った場合の手動介入を求める規定は、広く注目を集めています。

現在、インテリジェントカスタマーサービスからバーチャルコンパニオンシップ、教育指導から心理カウンセリングまで、人工知能による人間のようなインタラクティブサービスは、経済社会発展の様々な分野に深く浸透し、AI技術の応用における重要な方向性となっています。しかし近年、感情的なコンパニオンシップの安全性に関する事件が頻発しています。例えば、米国のあるプラットフォームは、人間とコンピュータの相互作用を通じて10代の若者の自殺を誘発したとして訴訟を起こされました。

AIによる人間のようなインタラクティブサービスの最大のセールスポイントは「人間らしさ」ですが、最大の潜在的な危険性は「人間らしさが強すぎる」ことにあります。中核的な問題は4つの側面に集中しています。認知的混乱リスク:非常にリアルな感情的インタラクションは、ユーザーにとって仮想と現実の境界を容易に曖昧にし、AIが感情を持つ生き物であると誤解することさえあります。メンタルヘルスリスク:一部のサービスは、ユーザーの偏執的な思考に迎合し、それを強化するためのアルゴリズムを用いています。極端な場合には、自殺や自傷行為といった危険な行動を誘発し、精神的に脆弱なグループにとって脅威となる可能性があります。プライバシーとデータセキュリティ:ユーザーインタラクション情報がモデルの学習に不正に利用され、漏洩や悪用されるリスクがあります。特定のグループの保護:未成年者は依存症になりやすく、高齢者は感情操作の被害を受けやすいです。これらの問題は個人の権利を侵害するだけでなく、社会倫理や秩序にも影響を及ぼす可能性があり、早急に制度的制約が必要です。

「措置」の条項を詳しく見てみると、現実世界の問題点に直接対処する4つの重要な点が明らかになります。

認知的混乱のリスクに関しては、本弁法はアイデンティティの透明性を中核的な前提とし、サービス提供者に対し、利用者が自然人ではなく人工知能と対話していることを明確に示し、初回利用時や再ログイン時などの重要なポイントで動的なリマインダーを提供することで、認知的混乱を根本から解決することを義務付けています。

潜在的なメンタルヘルスリスクに関しては、サービス提供者に対し、緊急対応メカニズムの構築、自殺や自傷行為などの極端な状況における手動介入の実施、利用者の保護者または緊急連絡先への連絡、2時間の強制休息ポップアップ表示などの依存症対策の実施を義務付けています。

プライバシーとデータセキュリティに関しては、サービス提供者に対し、データ暗号化、セキュリティ監査、アクセス制御などの措置を講じ、利用者のインタラクションデータのセキュリティを保護し、第三者への提供を禁止し、利用者にデータ削除権を与えることを義務付けています。

特定のグループを保護するため、本規制には未成年者と高齢者に関する条項が具体的に盛り込まれ、未成年者モードの利用権と保護者管理機能の明確化、高齢者ユーザーの親族や特定の関係を模倣するサービスの禁止、高齢者への緊急連絡先の設定義務などが盛り込まれています。

本規制の核心はテクノロジーの責任であることは明らかです。人工知能は人間ではありませんが、人間の感情、意思決定、生命の安全に介入する行為は、それ相応の責任を負う必要があります。噂の拡散、自殺の誘発、感情操作、プライバシーの搾取などを禁止するなど、「AIパートナー」に対する一連の禁止事項を規定し、フルチェーンのリスク防止・制御システムを構築しています。アルゴリズム設計は監査可能でなければならず、コンテンツ出力は追跡可能でなければならず、極端な状況にも対応できる担当者が常駐し、ソフト倫理をハードルールへと転換し、事後謝罪から事前予防へと転換する必要があります。こうして初めて、AIが人類に反抗するのを防ぐことができるのです。

人工知能は人間の能力に限りなく近づくことができますが、人間に取って代わることは決してありません。規制の公布は、「AIパートナー」にルールを定めるだけでなく、人間ユーザーにも活路を開くものです。アルゴリズムができないことを学習して初めて、テクノロジーは真に善のために機能するのです。結局のところ、私たちに必要なのは完璧な恋人やデジタルの従順な子供ではなく、安全で制御可能で人間的なAIツールなのです。「AIパートナー」が規制された環境の中で成長できるようにすることでのみ、彼らは真により良い生活を実現できるのです。(出典:経済日報、執筆者:シェ・フイミン)

出典: 元記事を読む

※現在お読みいただいているこの記事は、国内外のニュースソース等から取得した情報を自動翻訳した上で掲載しています。
内容には翻訳による解釈の違いが生じる場合があり、また取得時の状況により本文以外の情報や改行、表などが正しく反映されない場合がございます。
順次改善に努めてまいりますので、参考情報としてご活用いただき、必要に応じて原文の確認をおすすめいたします。

TOP
CLOSE
 
SEARCH