検索
ニュース

シャドーAIがセキュリティの課題に 禁止ではなく把握とアクセス制御で対応せよ

シャドーITならぬ「シャドーIT」が問題になり始めた。個人情報や企業の重要情報を入力してしまう論外だ。だが、管理下にない生成AIを利用していると、そのような行動を検出できない。

PC用表示 関連情報
Share
Tweet
LINE
Hatena

 企業内で生成AIの利用が進むにつれて、情報システム部門などの管理下にない「シャドーAI」の利用が目立ち始めた。シャドーAIはさまざまなセキュリティリスクの原因になる可能性があるため、対応が迫られている。

 Netskope Japan(以下、Netskope)は2025年8月18日、同社の調査研究部門のNetskope Threat Labsによる最新の調査結果「Netskope Threat Labsクラウドと脅威レポート」を発表した。

 レポートによれば、2025年3〜5月に「企業やその他の組織」(以下、組織)のエンドユーザーによる生成AIプラットフォームの利用が50%と急増しており、そのうち半数以上が承認を得ない「シャドーAI」だという。組織におけるAI活用が広がる半面、新たなセキュリティリスクが顕在化している状況が明らかになった。

シャドーAIがセキュリティの課題に 禁止ではなく把握とアクセス制御で対応せよ

 それではどのような生成AIの利用が増えた結果、組織はどのように管理すればよいのだろうか。

 レポートでは生成AIプラットフォームがユーザーにとって柔軟で使いやすい基盤として急速に拡大している点が強調されている。特に2025年5月末までの3カ月間で利用者が急増して、組織ネットワークにおける関連トラフィックは73%増加した。41%の組織が少なくとも1つの生成AIプラットフォームを導入しており、利用率の内訳は「Microsoft Azure OpenAI」が29%、「Amazon Bedrock」が22%、「Google Vertex AI」が7.2%だったとしている。

 オンプレミス環境でのAI導入も進展している。GPUを活用したローカルな生成AIの運用から、SaaSで提供されている生成AIとの連携まで多様な取り組みが見られ、特に大規模言語モデル(LLM)インタフェースの利用が広がっていた。Netskopeが調査した母集団のうち、34%の組織がこうしたインタフェースを利用しており、その中で「Ollama」が33%と高い採用率を示した。加えて、ユーザーが「Hugging Face」を通じてモデルやリソースを取得するケースが母集団のうちの67%の組織で確認されており、AIマーケットプレイスの利用が急拡大している。

 AIエージェントの採用も進んでおり、少なくとも1つの生成AIプラットフォームを導入している組織のうち、39%が「GitHub Copilot」を使用していた。オンプレミスでのエージェント利用も確認されており、5.5%の組織ではエージェントフレームワークから生成したソリューションを稼働させている。API利用の観点では66%の組織が「api.openai.com」へアクセスしており、13%は「api.anthropic.com」を利用していることが分かった。

 SaaSで提供されている生成AIアプリの普及も急激であり、Netskopeは現在1500以上のアプリを追跡している。対象となるアプリは2025年2月時点の317件から大きく増加した。これは組織での利用が短期間に拡大したことを示している。組織が利用する生成AIアプリの数は平均15個に達しており、2025年2月時点の13個から増えている。また生成AIアプリに月間でアップロードされるデータ量も、前四半期と比較して7.7GBから8.2GBへと増加した。

 生成AIの利用形態は「Gemini」や「Microsoft Copilot」のような専用ツールへの集約が進み、セキュリティ部門はそれらを安全に利用できる体制づくりに注力している。


AIアプリケーションの組織における利用率の推移(提供:Netskope Japan)

 「ChatGPT」の利用率は2023年の調査開始以降初めて減少し、「Anthropic Claude」や「Perplexity AI」の他、文法修正機能が有用な「GrammarlyGo」やプレゼンテーション資料などの生成に強みがある「Gamma」などの利用が拡大した。「Grok」も初めて上位10アプリにランクインしている。全体に生成AIの利用増加と生成AIを管理しながら使う、いわゆる「ブロック率低下」が同時に確認された。

どのような対策が有効なのか

 こうした状況を受け、Netskopeは安全なAI活用のための次のような推奨事項を示した。

生成AIの利用状況の把握
 組織内でどのような生成AIツールが使われているのかを正確に把握する。組織が承認した生成AIアプリだけでなく、従業員が個人的に利用しているシャドーAIを含む。

データ保護(DLP)の強化
 機密情報や知的財産などのデータが許可されていない生成AIアプリに送信されないように、データ損失防止(DLP)機能を導入する。

従業員へのコーチング
 単に生成AIへのアクセスをブロックするのではなく、リスクのある行動に対してリアルタイムで警告を表示し、従業員が情報に基づいた判断を下せるように促す。Netskopeの調査では、このような警告が表示された場合に多くのユーザーが行動を中止することが分かっている。

きめ細かなアクセス制御
 組織が許可しているSaaSアプリのインスタンスと個人のインスタンスを区別する。これは同一のSaaS提供型の生成AIについて特に重要だ。それぞれの利用状況に応じて異なるポリシーを適用することで、業務効率を損なわずにセキュリティを確保できる。

行動の継続的な監視
 ユーザーの行動やデバイスの利用状況を継続的に監視して、生成AIの異常な利用や誤った使い方を検出し、ゼロトラストの原則に基づいた適応的なアクセス制御を適用する。


 未承認の生成AIの利用を抑制するには、実行可能なポリシー策定と運用が求められるとNetskopeは結論付けた。エージェント型シャドーAIのリスクを評価して、制限するための現実的なポリシー策定を急ぐべきだという。

 なお、今回のNetskopeの調査はアンケートではなく、同社のプラットフォームを通じて匿名化された利用データに基づいており、実際の生成AIの利用状況を比較的よく反映していると考えられる。調査の母集団となったユーザーは世界中の数百万人だという。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る