メディア

4人に1人が「上司よりもAIを信じる」と回答 現場の「AI依存」の実態

企業内ではどの程度、未承認のAI(シャドーAI)が利用されているのだろうか。調査によれば従業員がシャドーAIを使う比率が高いことはもちろん、そのシャドーAIの出力を頭から信じていることが分かった。

» 2025年12月24日 07時00分 公開
[Eric GellerCybersecurity Dive]
Cybersecurity Dive

 サイバーリスク監視サービスを提供するUpGuardが公開したレポート「The State of Shadow AI」によると(注1)、従業員の81%が承認されていないAIツール、いわゆるシャドーAIを業務に使用していた。

 シャドーAIを使うことは危険だ。セキュリティの観点からは、企業内の知的財産や経営情報、個人情報などが漏えいする可能性が高まり、さまざまな脆弱(ぜいじゃく)性を突かれる可能性もある。それにもかかわらずシャドーAIは企業に深く浸透している。従業員の半数は「未承認のAIツールを定期的に使用している」と回答しており、企業が承認したAIツールのみを使用していると答えた従業員は20%未満だった。

4人に1人が「上司よりもAIを信じる」と回答 現場の「AI依存」の実態

 同社はこのレポートを2025年11月10日に公開した。レポートによると、状況はさらに良くない。セキュリティ担当者の88%がシャドーAIを業務に使用しており、さらに「業務フローの一部として定期的」にシャドーAIを使っていると回答した割合が一般の従業員よりも33ポイントも高かった。

 シャドーAIの利用は、現在あらゆる業界の企業が直面する重大な問題となっているようだ。利用頻度だけが問題なのではない。

 UpGuardは、従業員の24〜25%がAIツールを「職場で最も信頼できる情報源」と見なしていることを突き止めた(米国では28%と最も高い)。AIがハルシネーション(もっともらしいが事実ではない回答)を起こす事例が広く知られているにもかかわらず、このような回答が得られた。

 AIに対する信頼が上司よりも高いと回答した従業員は約4分の1に達した。これは同僚やWebの検索エンジンに対する信頼度よりも高かった。業界別ではITや製造、金融、医療をはじめとする分野の従業員が上司と同程度にAIを信頼していた。逆に医療業界では責任の重さからAIよりも上司を信頼していた。

 このような従業員の姿勢は企業に悪影響を及ぼすだろう。UpGuardは「AIツールを最も信頼できる情報源と見なしている従業員は、日常業務の中でシャドーAIツールを使用する可能性が大幅に高い」と述べた。

 さまざまな業界の企業でシャドーAIの問題が発生しており、金融やIT、製造、医療などの分野を含め、シャドーAIの断続的または定期的な使用を報告する従業員の割合は一貫して高い。中間管理職と一般従業員はシャドーAIの総使用率が最も高く、一方で定期的な使用率が最も高いのは経営幹部だった。

 UpGuardのレポートによると、企業内のあらゆる部門が多くのシャドーAIを使用しており、中でもマーケティングおよび営業のチームは、オペレーション部門や財務部門の担当者よりも高い頻度で使っていた。

過剰な自信がシャドーAIのまん延を促す

 UpGuardの調査結果の中で、シャドーAIのまん延を抑えようとするセキュリティチームが特に注目すべき点がある。それは、従業員が「自分はリスクを管理できるだけの知識がある」と考えているためにシャドーAIツールを使用しているという事実だ。

 UpGuardは「『AIのセキュリティ要件を理解している』と回答したユーザーほど、シャドーAIを定期的に使用しているという正の相関関係がみられた」と述べた。同社は「データは、従業員のAIリスクに関する知識が増えるほど、リスクを自分で判断できるという自信も高まり、それはときに企業ポリシーの順守を犠牲にする可能性があることを示している」と続けた。

 レポートの指摘は、このような相関関係はセキュリティ意識を向上させるためのトレーニングだけでは脅威への十分な対策にならないことだ(注2)。これらのプログラムを機能させるためには、新たなアプローチが必要だ。

 実際、自社のAI利用ポリシーについて「知っており理解している」と回答した従業員は半数未満だった。その一方で、従業員の70%が「機密データをAIツールに不適切に共有している従業員を知っている」と答えた。レポートによると、この割合はセキュリティリーダーにおいてさらに高かったという。

シャドーAIのまん延をどう捉えるのか

 レポートではシャドーAIのまん延に対してセキュリティ担当者が何を考えて、どのような取り組みを実行しているのかも記されている。

 最初に現状認識の甘さがある。セキュリティチームは自社の従業員がどの程度シャドーAIを使っているのかを過小評価する傾向があるからだ。この点についてもレポートは触れている。レポートでは、シャドーAIはどこにでも存在する(Everywhere)問題だと指摘した。

 担当者の最大の懸念は機密データの漏えいだ。ところが、従業員が機密データをシャドーAIに入力することを止める手段は限られている。まずはシャドーAIのネットワークアクセスをブロックするという方法だ。調査対象となった組織の56%が、何らかのAIアプリケーションをブロックしていると回答した。

 この方法は有効なのだろうか。実際にブロックを経験したと回答した従業員はわずか10%に過ぎない。これは、ブロックが実効的ではないか、そもそもブロックの対象が間違っていることを意味している。さらにブロックされていることに気付いた従業員の49%は、そのAIツールを使い続けるための回避策を見つけていた。

禁止ではなく育成へ

 レポートはこの問題の解決策としてこれまでの禁止(ブロック)という考え方から、育成へと切り替える必要があると指摘した。要点は3つある。

 第一に利便性で勝負することだ。従業員がシャドーAIを使う最大の理由は新規性だったり、使いやすいことだったりする。承認済みのAIツールへのアクセスを改善することで利便性においてシャドーAIに打ち勝つ必要があるとセキュリティチームは考えている。第二に好奇心を活用することだ。従業員のシャドーAIに対する好奇心を脅威として扱うのではなく、ビジネスの利益につなげるための安全なチャネルを提供すべきだという考え方だ。第三に可視化とガイドを試みるべきだ。力ずくで止めるのではなく、利用状況をリアルタイムで可視化して、適切な利用ができるようガイドし、安全を確保するアプローチを推奨した。

 レポートではシャドーAIを利用する層を不良な従業員ではなく、AIパワーユーザーと定義し直した。AIの急速な進化に取り残されないよう、あえて企業のコンプライアンスを犠牲にしてでも最新のツールを使おうとする過剰な熱意を持った人々だという捉え方だ。このような好奇心を単なる脅威として抑え込むのではなく、組織を前進させるためのイノベーションのエンジンとして活用すべきだと提案した。(キーマンズネット編集部)

 UpGuardのレポートは米国と英国、カナダ、オーストラリア、ニュージーランド、シンガポール、インドにおけるセキュリティリーダーと一般従業員1500人を対象に、2024年8〜9月に実施された2つの調査に基づく。

© Industry Dive. All rights reserved.

会員登録(無料)

製品カタログや技術資料、導入事例など、IT導入の課題解決に役立つ資料を簡単に入手できます。

アイティメディアからのお知らせ