AI安全标准体系加速构建!中国迈向系统化推进新阶段

トレンドセッター
この記事を読むのにかかる時間: 5

この記事のポイント

  • AI安全事件频发,引发公众和产业界关注。
  • 中国人工智能安全标准体系建设进入系统性推进阶段。
  • AI安全供给侧持续发力,新的安全需求催生增长机遇。
  • AI治理日益受到重视,安全标准制定正在加速。

AI安全事件频发,攻防战升级

近年、AI(人工知能)の急速な普及に伴い、「AI+」戦略が推進され、様々なAIエージェントやAIアプリケーションが生産・生活のあらゆる場面に浸透しています。しかし、最近頻発するAIのセキュリティインシデントは、一般の関心を引くだけでなく、産業界と学界が共同で取り組むべき重要な課題となっています。

3月末には、AI企業AnthropicのAIプログラミングツール「Claude Code」のソースコードが漏洩するという、AI業界初のコアコード漏洩事件が発生しました。これは、製品のコアロジックと防御の最低ラインが公開されると、製品の動作方法がすべて明らかになり、競合他社がアーキテクチャ、機能設計、AIエージェントのロジックを直接研究し、迅速に模倣、追随、あるいは最適化できるようになることを意味します。また、セキュリティルールが公開されると、脆弱性が見つかりやすくなり、制約を回避したり、使用制限を解除したりすることが容易になります。

今年に入って急速に普及したAIエージェントツール「OpenClaw」(通称「ザリガニ」)も、相次いで複数のセキュリティ上の脆弱性が指摘されています。4月3日、国家情報セキュリティ脆弱性データベース(CNNVD)は、3月10日から4月2日までの間に「OpenClaw」の脆弱性を155件収集し、そのうち超危険脆弱性が11件、高危険脆弱性が53件であったと発表しました。

「私たちは午後の半日でOpenClawを突破しました」と、著名なホワイトハッカーチームであるDARKNAVYのセキュリティイノベーションディレクター、陸晨氏は述べています。現在、中国国内の主流な「ザリガニ」ソリューションは2種類に分けられます。一つはOpenClawをベースにしたラッパーでダイアログボックスを提供するもの、もう一つはユーザーが自分で設定できるサーバーを提供するものです。前者はリスクが高く、一度攻撃されるとハッカーは直接サーバー権限を取得したり、内部ネットワークの大規模言語モデルにアクセスしたりする可能性があります。

上海交通大学安泰経済・経営学院副院長の劉少軒氏は、最近、製造業のある企業がOpenClawを急いで導入した結果、生産ラインが72時間停止し、直接的な損失が2000万元(約4億円)を超えた可能性があると明らかにしました。また、ある法律サービス企業では、リスク対策とデータセキュリティが不十分であったために、大量の顧客プライバシーデータが漏洩しました。

亚信安全(AsiaInfo Security)の担当者も、現在のサイバー攻撃がインテリジェント化・自動化へと進化しており、ハッカーがAIを利用してランサムウェアペイロードの動的生成や高精度のフィッシングコンテンツ制作を行うことで、攻撃効率と隠蔽性が大幅に向上していると指摘しています。AIによる自律攻撃エージェントや、ディープフェイクを基にしたビジネス詐欺は、2026年に最も差し迫ったセキュリティ課題となると予想されています。

AI安全供給への注力、需要が機会を創出

国有資産監督管理委員会(SASAC)が1月末に発表したデータによると、中央企業は、工業製造、エネルギー電力、インテリジェントコネクテッドビークルなどの重点分野で、1000以上のAIアプリケーションシナリオを構築しており、AIが産業変革を推進する勢いがますます顕著になっています。同時に、AIのセキュリティ問題が引き起こす業界の懸念は、全く新しいセキュリティ需要を生み出し、AIセキュリティ供給側の継続的な注力を促しています。

これに対し、東莞証券は、最近のOpenClawなどのAIエージェント技術の急速な普及が、全く新しいセキュリティ需要シーンを生み出し、サイバーセキュリティ分野の政策的な追い風が継続的に放出されることで、業界は新たな成長機会を迎える可能性があると見ています。

長江証券は、2026年には中国国内のサイバーセキュリティ市場規模が1500億元(約3兆円)を突破し、2030年には3000億元(約6兆円)に達し、年平均成長率が18%~20%になると予測しており、この業界は発展の黄金期にあるとしています。

同時に、AIセキュリティの新製品やサービスも継続的に発表されています。最近、上海人工智能実験室は、高セキュリティな産業向けAIエージェントプラットフォーム「SafeClaw」を発表し、高セキュリティを必要とする産業のインテリジェント化変革に焦点を当て、「事後安全」から「内生的安全」への移行を推進しています。また、上海人工智能実験室は、リスクを迅速に診断できるAIエージェントガードモデルをオープンソース化し、セキュリティ原則をAIエージェントの意思決定層に組み込む「内生的進化」ガバナンストフレームワークの模索も進めています。

上海人工智能実験室のリーダー科学者である胡侠氏は、「最も危険なのは既知のリスクではなく、『想定外の危険』です。したがって、現在の中心的な課題は、AI能力が飛躍的に向上するのと同時に、予見的に内生的安全システムを構築することです。これらの取り組みは、安全能力をAI開発の全チェーンに深く統合し、AIエージェント時代の『内生的安全』のためのシステム的なソリューションを提供することを目的としています」と述べています。

AIガバナンスの継続的な改善、安全基準の策定加速

AIの広範な応用に伴い、AIガバナンスへの関心もますます高まっています。今年の政府活動報告では「AIガバナンスの改善」が明確に打ち出され、全国人民代表大会常務委員会の活動報告では「AI分野における立法研究の強化」が提言されています。

このような背景の下、AIの安全基準の策定が加速しています。3月25日、工業情報化部(MIIT)は、「人工知能安全ガバナンスモデルコンテキストプロトコル応用安全要求」などの業界標準計画プロジェクトに関する意見募集を開始しました。

4月初旬、AI安全標準作業グループ(WG9)は、「サイバーセキュリティ技術 人工知能安全能力成熟度評価方法」、「サイバーセキュリティ技術 人工知能応用安全分類・等級付け方法」、「サイバーセキュリティ技術 人工知能技術における未成年者応用安全ガイドライン」などのコア標準の実施を重点的に推進すると発表しました。同時に、全国サイバーセキュリティ標準化技術委員会の統一配置の下、内生的安全とデータ基盤、新形態とサービスセキュリティ、システムと応用セキュリティ、科学的評価などの分野における国家標準の確立に注力します。

奇安信(QiAnXin)副社長の張勇氏は、「AIがもたらす新たなリスクに対しては、政策・法規制、技術標準、実施メカニズムの3つのレベルで連携して推進する必要があります」と述べています。将来展望として、第一に、セキュリティは「オプション」から「必須」へとアップグレードされ、セキュリティコンプライアンスは推奨から義務へと移行し、「AIセキュリティ投資はAIアプリケーション総投資の15%以上」といった業界基準を設定できるでしょう。第二に、サイバーセキュリティは「単一点保護」から「全チェーン協調」へと移行し、「一箇所で攻撃を発見すれば、全ネットワークで自動的に免疫化」を実現します。第三に、「人的防御」から「技術的防御+知能的防御」へと移行し、AI対AIが攻防の常態となります。第四に、「受動的な緊急対応」から「能動的な免疫」へと移行し、レジリエントな防御システムを構築し、「攻撃を受けても迅速に回復し、コアデータが失われない」ことを実現します。

出典: 元記事を読む

この記事で取り上げた分野では、現在も採用が活発です。以下は、semicon.todayの編集部が記事のテーマをもとに選定した求人情報です。広告・PRではありません
※採用状況により求人内容が更新される場合があります

※現在お読みいただいているこの記事は、国内外のニュースソース等から取得した情報を自動翻訳した上で掲載しています。
内容には翻訳による解釈の違いが生じる場合があり、また取得時の状況により本文以外の情報や改行、表などが正しく反映されない場合がございます。
順次改善に努めてまいりますので、参考情報としてご活用いただき、必要に応じて原文の確認をおすすめいたします。

TOP
CLOSE
 
SEARCH