メディア

企業で使う「ChatGPT」 機密情報をどう扱うべきなのか

個人はもちろん、企業においてもChatGPTのような生成AIの利用が広まっている。だが、企業内には外部に持ち出されては困るさまざまなデータがある。これらのデータを生成AIで分析すると何が起こるのだろうか。

» 2024年02月19日 11時00分 公開
[Sue PorembaCybersecurity Dive]
Cybersecurity Dive

 データ侵害につながる危険な行動を従業員にとらせないようにするために組織は苦労している。生成AI(人工知能)の登場は、従業員が誤って企業や消費者の機密データを「ChatGPT」に入力してしまうという新しい脅威を生み出す。

セキュリティチームの対応がすぐにでも必要

 データ活用事業を営むLayerXが2023年に発表した調査によると(注1)、多くの組織が生成AIを職場に導入する中、従業員の15%が定期的にデータをそこに入力している。ChatGPTで情報を共有する従業員のうち、6%が機密データを共有した経験があるという。

 今日のセキュリティチームは新たな悩みを抱えている。従業員が、個人を特定できる情報や企業独自の情報を生成AIツールに入力しないようにするにはどうすればよいのか。

 個人データの共有は、日本の個人情報保護法など米国のデータコンプライアンス法に違反するリスクを組織にもたらす。生成AIをツールボックスに加えたい組織は、機密情報のデータ漏えいを防ぐためのセキュリティプロトコルを構築する必要がある。

ガードレールを設置する

 AIの中でも特に生成AIは、企業にメリットがある一報でリスクをもたらす可能性がある。そこでAIの良い側面がリスクに変わる可能性を組織が認識しなければならない。

 サイバーセキュリティ事業を営むOptiv Securityのマックス・シアー氏(バイスプレジデント兼CISO《最高情報セキュリティ責任者》)は、「AIを取り入れながら、組織が安全にビジネスを継続するためのガードレールを設置する必要がある。特にプライバシー関連の法と企業の機密情報の保護に関連する領域において、企業は、AIの活用とリスク軽減のバランスを取る手段を見つけようとしている」と述べた。

 どのような組織で使用される生成AIにも、データを保護するためのポリシーとコントロールが必要だ。

 シアー氏は「データ漏えいを防止するツールの導入や、AIに特有の要素を含んだトレーニングの提供など、成熟したセキュリティプログラムが企業に存在しないのであれば、ChatGPTなどのツールを導入しないというのが最良のシナリオだ」と述べた。

 CISOとCIO(最高情報責任者)は、機密データを制限する必要性と、企業がプロセスを改善し生産性を向上させるために生成AIツールを使用する必要性とのバランスを取る必要がある。

 サイバーセキュリティ事業を営むDarktraceのジョン・アレン氏(サイバーリスクおよびコンプライアンス担当バイスプレジデント)は、どうすればよいかという問いに対してこう答えた。

 「機密データが大規模言語モデル(LLM)に入り込まないようにすることが重要だ。トレーニングデータだけではない。人気のLLMの多くは、プロンプトやフィードバックを通じてユーザーが入力したデータを、モデルのチューニングや改善に使用すると明記している。機密データを入力してはいけないと、口で言うのは容易だが、実際に実行するのは簡単ではない」と述べた。

データを保護する

 ソフトウェア企業Ontinueのクレイグ・ジョーンズ氏(セキュリティオペレーション担当バイスプレジデント)が語ったところによると、生成AIの利用におけるデータプライバシーの確保を検討する際、重要なポイントが2つあるという。

(1)コンプライアンスの維持

 米国では一般データ保護規則(GDPR)や医療情報の公開を制限する連邦法、カリフォルニア州の消費者プライバシー法との整合性を確保するために、組織は、LLMがデータをどのように扱うかを厳密に評価および管理する必要がある。

 これには、強力な暗号化や同意の仕組み、データの匿名化技術を採用するとともに、データの取り扱い方法を定期的に監査し、更新する必要があるということだ。

(2)機密データの保護

 機密データのセキュリティ確保のためには、データ保存と転送時における暗号化の他、厳格なアクセス制御、異常の継続的監視など、多層的なセキュリティアプローチを採用する必要がある。

 データ侵害が発生した場合には、迅速な対応と是正措置を講じるとともに、法的または規制上の要件に従って、影響を受ける利害関係者に対する明確なコミュニケーションが求められる。

 インシデントがあった場合、将来より適切に対処するために、得られた教訓をデータセキュリティの枠組み改善と統合されるべきだ。

今後のセーフガードはどうなるのか

 生成AIはもちろん、その他のセキュリティツールでも、プライバシー保護を強化したサブスクリプションプランを追加したり(注2)、企業のシステムからの機密データの漏えいを制限するAPIを構築したりしている。このようなデータを、他のAIモデルの開発に使用することはない。

 アレン氏は「実際、多くのベンダーは、機密データの取り扱いに関する特定のコンプライアンス要件を満たすために、データ処理契約や業務提携契約を締結している」と述べた。

 機密データを保護するために設計された生成AIの使用ポリシーに加えて、AI関連企業は暗号化などのセキュリティコントロールを追加し、サイバーセキュリティコンプライアンスフレームワーク「SOC2」に従ったセキュリティ認証を取得するなど、機密データをより適切に保護する取り組みを強化している。

 しかし、これはまだ新しい領域の話だ。セキュリティチームは、機密データがモデルに混入した場合に何が起こるのか、そのデータをどのように見つけ、どのように削除するのかをはじめとして、特に厳格なデータコンプライアンス規制の下で個人を特定できる情報(PII)の取り扱いについて学ぼうとしている(注3)。

 アレン氏は「生成AIツールの使用は、まだ初期段階にある。データプライバシーが尊重され、組織がコンプライアンスを維持するために対処しなければならない多くの課題が残っている」と述べた。

© Industry Dive. All rights reserved.

会員登録(無料)

製品カタログや技術資料、導入事例など、IT導入の課題解決に役立つ資料を簡単に入手できます。