CalypsoAIの調査によると、あらゆる職位の従業員がAIツールを誤って利用したり、規定を無視したりして、セキュリティリスクを高めていることが明らかになった。
セキュリティサービスを提供するCalypsoAIが2025年8月に発表した調査によると(注1)、従業員はAIツールを不適切に利用したり、社内規定を破ったりしており、セキュリティリスクが増大していることが明らかになった。同社は、米国のオフィスワーカー1000人以上を対象に調査を実施した。
調査対象となった従業員の半数以上は「AIツールの利用により業務が楽になるのであれば、社内の方針を無視する」と答えた。回答者の4分の1は、利用が許可されているかどうかを確認せずにAIを利用していると認めた。約3割の従業員は、AIが生成したコンテンツを確認せずに送信したことがあるという。
ルールを守っていないのは現場の従業員だけではない。
経営幹部の4分の1以上が、自社の機密情報をAIツールに入力したことがあると認めており、同じ割合の幹部が「AIを使って機密性の高いデータや文書にアクセスした」と回答している。また、経営幹部の3分の2以上は「仮に社内規定に反しても、仕事が楽になるのであればAIを使う」と回答した。
AIを安全に導入しようとする企業は、一般的にガバナンスに投資し、全社的な方針を更新して、より的確な指針を示すようにしている。
しかし、あらゆる職位の従業員が職場でAIポリシーを軽視してしまえば、こうした取り組みは事実上、水の泡となる。
CalypsoAIのCEOであるドナチャ・ケイシー氏は、報告書に添えられた声明の中で次のように述べた(注2)。
「経営幹部がリスクを十分に理解しないままAIの導入を急ぎ、現場の従業員は監督なしでAIを利用し、さらには信頼されるべきセキュリティ専門家までもが自らのルールを破っている状況が見られる。AIの不適切な利用が企業に壊滅的な影響を与える可能性があることは明らかで、それは将来の脅威ではなく、今日すでに組織の内部で発生している問題だ」
ITサービス企業であるInfosysが2025年8月に発表した報告書によると、大半の企業が何らかの問題のあるAIインシデントをすでに経験しており(注3)、多くの場合、損失につながっているという。シャドーAI(企業の承諾を得ていないAIの利用)や不適切な利用を防止できない企業は、さらなる悪影響に直面している。
これはITリーダーたちにとって見覚えのある光景だ。
ケイシー氏は報告書の中で「クラウドの導入が一気に進んだとき、多くの企業は必要な統制や可視性、安全に管理するための責任分担モデルを整備しないまま飛び付いた」と述べている。同氏は、AIはそれ以上に破壊的な存在だと強調した。
AIエージェントの台頭は複雑さに拍車をかけている(注4)。
CIO(最高情報責任者)と経営幹部は、誤用のリスクやそれが組織にもたらす影響を従業員が正しく理解できるよう、研修や各種の管理策に引き続き注力している。経営陣による取り組みは、従業員に受け入れられているようだ。IT運用管理ソフトウェアを提供するManageEngineが2025年7月に発表した調査によると(注5)、従業員の5人に3人は「AIの利用に伴うリスクに関するさらなる教育を歓迎する」と回答しているという。
出典:C-suite, workers eschew AI policies at work(CIO Dive)
注1:The Insider AI Threat Report Summer 2025(Calypso AI)
注2:CalypsoAI's Insider AI Threat Report finds 52% of U.S. employees are willing to use AI to make their job easier, even if it means violating company policy(PR Newswire)
注3:Execs use responsible AI to drive growth, prevent risks(CIO Dive)
注4:What’s holding enterprises back from AI agent success?(CIO Dive)
注5:Shadow AI emerges in the enterprise(CIO Dive)
© Industry Dive. All rights reserved.
製品カタログや技術資料、導入事例など、IT導入の課題解決に役立つ資料を簡単に入手できます。