メディア

AI導入企業の半数が「被害あり」という衝撃の実態

調査によると、AIを導入した組織の半数がAIの脆弱性による悪影響を受けている。AIのどのような性質が悪影響を生み出すのだろうか。情報システム部門や従業員ができることは何だろうか。

» 2025年12月05日 07時00分 公開
[Eric GellerCybersecurity Dive]
Cybersecurity Dive

 AIを導入した組織は利便性を享受するだけでなく、同時にAIから悪影響を受けていた。

 これはサイバーセキュリティについてのコンサルティングサービスを提供するEYの調査から明らかになったことだ(注1)。原因はAIが内在するセキュリティの脆弱(ぜいじゃく)性だ。しかし一般的なソフトウェアの脆弱性とは意味が異なるという。

AI導入企業の半数が「被害あり」という衝撃の実態

 EYによれば、全組織の半数が自社のAIの脆弱性によって悪影響を受けたという。このような事態は当の企業も理解している。自社のAIシステムが機密データを十分に保護できていると考えているCEOは、わずか14%しかいない。AI関連のサイバーインシデントを被った組織の平均損失額は440万ドル(約6億6000万円、1ドル150円換算の場合)を超える。

Claude Codeが悪用された

 一般的に利用されている生成AIツールは攻撃者の道具としても有用だ。生成AIを提供する企業も座視しているわけではない。

 Anthropicは2025年8月、サイバー犯罪者が同社の「Claude Code」を悪用して、防衛関連企業や医療提供者、金融機関など複数の国にまたがる17の組織を対象にデータ恐喝作戦を実行したことを明らかにした。

 サイバー犯罪者は偵察や脆弱性の悪用、横方向展開、データ窃取の各段階で、Claude Codeに相談しており、実際の操作を実行するための補助ツールとして使った(キーマンズネット編集部)

 EYの調査報告「EY Global Responsible AI Pulse survey 」によると、組織は平均して47種類ものセキュリティツールを使用しているという。セキュリティツールがパッチワークのように寄せ集められた環境では、ネットワークを守ること自体が難しい。そこにAI特有の新しいリスクが加わり、状況が悪化した。

 EYの報告書は、攻撃におけるAIの役割や企業環境へのAI導入など、AIに関する多様な知見をまとめた。同社は他の専門家と同様に、AIを活用することで攻撃者は後始末に多額の費用を要するような被害をもたらす攻撃を容易に実行できるようになったと警告した。

 EYの英国法人とアイルランド法人でセキュリティリーダーを務めるリック・ヘムズリー氏は報告書の中で次のように述べた。

 「高度な攻撃を実行する際に乗り越えなければならなかった高いハードルをAIが下げてしまった。これまでは時間と経験を積まなければサイバー攻撃のスキルを身に付けられなかったが、今日では、これまで以上に多くの攻撃者が無料で容易に悪用可能な知見にアクセスできる」

 ソーシャルエンジニアリングの手法はAIから大きな恩恵を受けている(注2)。EYは、CrowdStrikeの最新データを引用して、偽の音声を用いたフィッシング攻撃「ヴィッシング」が2024年後半に442%も急増したと指摘している。さらに、同データによると、攻撃者のブレイクアウトタイム(初期侵入の後、横方向に侵害を広げ始めるまでに要する時間)は2023年には約1時間だったが、2024年には48分へと短縮されているようだ。直近では、セキュリティサービスを提供するReliaQuestが、2025年後半にはブレイクアウトタイムがわずか18分に短縮されたと報告した(注3)。少なくとも攻撃が通るまでの時間は急速に短くなっている。

 EYは「これらの数値は防御側に強い警鐘を鳴らすものだ」と述べた。同社は「ブレイクアウトタイムの短縮は非常に危険だ。(攻撃の初期段階ではなく)ネットワーク内部に攻撃者が居座るようになると、より深いレベルで被害を受けた企業のITの支配権を得てしまい、排除することが一段と難しくなる」とも述べた。

どうすればAIを安全に使えるのか

 EYは高額な損失につながるミスを従業員が避けられるよう教育することが重要だと指摘している。これはAIが企業のネットワークに新たなリスクをもたらしている状況の下で特に言えるのだという。同社の最新の調査では、68%の組織が上層部の承認なしでAIエージェントの開発や導入を従業員に許可しており、作業についての指針を提供している組織はわずか60%にとどまることが明らかになった。

 EYは「データが従来の業務にもAIモデルの学習にも極めて重要だということを踏まえると、企業はデータの完全性を守るための対策を講じなければならない」と述べた。報告書では、AIモデルが機密情報を漏えいしてしまうリスクや、企業が誤って個人を特定できる情報(PII)を学習データとしてモデルに取り込んでしまうリスクなどが挙げられた。

 EYの報告書では他にも、AIツールのサプライチェーンにおける完全性の維持や、AI開発プロセスの全ての段階にセキュリティの観点を組み込むこと、AIツールの悪用を迅速に検知および遮断できるように脅威検知プログラムを再設計することが挙げられている。

 EYは「CISO(最高情報セキュリティ責任者)は、明確な価値を生み出す分野にセキュリティ投資を集中させるべきだ」と述べた。

© Industry Dive. All rights reserved.

会員登録(無料)

製品カタログや技術資料、導入事例など、IT導入の課題解決に役立つ資料を簡単に入手できます。

アイティメディアからのお知らせ