メディア

Copilot for Microsoft 365でリスクになるNG設定とは 管理者の目線で解説

大きな関心を集める「Copilot for Microsoft 365」だが、Microsoft 365でのデータのアクセス権の設定や共有方法によっては、意図しない人にデータが筒抜けになる可能性がある。IT管理者が知っておくべきリスクや対策を専門家が解説した。

» 2024年04月19日 08時00分 公開
[指田昌夫キーマンズネット]

 Copilot for Microsoft 365は、Microsoft 365の各アプリケーションにOpenAIの大規模言語モデル(LLM)を掛け合わせたサービスだ。2023年11月の提供開始以来、AI(人工知能)によって業務効率化を図りたい多くの企業の関心を集めてきた。

 一方でユーザーからは、「自社で使用する場合のデータの取り扱いやガバナンスに不安がある」といった声が上がっている。こうした懸念に対し、IT管理者が知っておくべきリスクや事前対策について、大塚商会の池邉洋平氏(TSCコミュニケーション課)が講演した。

機密データが漏えいする? Microsoft 365内の設定に注意

 池邉氏は最初に、Copilot for Microsoft 365は、顧客企業のテナント内のデータを活用する「安全」かつ「責任ある」AIだと説明した。「Microsoftは、お客さまのテナント内にあるアクセス権があるデータは、引用しても安全という認識をアナウンスしています」

 「アクセス権がある=知っている」ということはメリットであると同時にリスクにもなると池邉氏は指摘する。

 「普段は使っていないデータによって新しい気付きが生まれる一方、アクセス権が正しく設定されていなければ、引用してはいけないデータが利用されるリスクもあります。Copilot for Microsoft 365の利用時は、社内データの管理を徹底することが求められます」

 Copilot for Microsoft 365が引用対象にするデータは、3つに分類される。1つ目は、明示的にアクセス許可が与えられているデータだ。これは「Microsoft Teams」(以下、Teams)や「Microsoft SharePoint」(以下、SharePoint)、「Microsoft OneDrive」(以下、OneDrive)などに保存されているものだ。これらのデータは、チャットや共有フォルダのアクセス権が決まっているため問題ない。

 2つ目は、意図的または偶発的に共有されているデータだ。特に、偶発的に共有されているデータの扱いには注意が必要だ。「Teamsのチャットでファイルを送信し、共有リンクが発行されると、設定内容次第ではそのURLを送った人以外にもリンクが見えてしまうことがあります。運用ルールをつくり、徹底する必要があります」(池邉氏)

 3つ目が、パブリックチームのデータだ。Teamsのチャネルをプライベートチームの設定をせず、パブリックチームのままで使うと、そのデータは自動的にCopilot for Microsoft 365の引用対象になる。「パブリックチームのデータを利用することは問題ありませんが、その中に機密データを置いていると引用されるため注意が必要です」(池邉氏)

対策ツールを使ったアクセス権限、機密情報の管理

 Microsoft 365に多くの情報を集めるほど、Copilot fot Microsoft 365の利用価値は高まるが、重要なデータが増えるにつれて本来アクセスできないデータを引用するリスクも増加する。

 データの機密性に気付きにくいケースもある。「『閲覧のみ可』に設定しているデータは、引用の対象になってしまいます。しかし、本当はそのデータは閲覧だけで、AIには引用してほしくないかもしれません。データをCopilot for Microsoft 365で引用してもよいのかどうかを判断する必要があります」(池邉氏)

 こうした課題に対して、池邉氏は(1)「パブリックチームの検出・変更」、(2)「機密情報が含まれるファイルのチェックと権限リセット」、(3)「共有リンクのチェックと共有の停止」、(4)「情報漏えい対策」の対策を提案する。

これらの対策を行うために有効なツールとして池邉氏は幾つかのツールを推奨した。「AvePoint Policies & Insights for Microsoft 365」および、「Microsoft Purview Information Protection」だ。

 米国AvePoint(アヴポイント)は、Microsoft 365シリーズをはじめとしたクラウドサービスのガバナンスやデータ移行、データ保護、バックアップを得意とするソフトウェアベンダーだ。さまざまなソリューションを展開し、日本にも支社がある。

 ここで取り上げるAvePoint Policies & Insights for Microsoft 365は、リスクの可視化とポリシー設定の2つのツールが一体化したソリューションだ。

リスクの可視化については、アクセス権が設定されているがファイルを使っていない「シャドーユーザー」や、過剰に共有されているドキュメントを検知したり、機密情報が含まれるコンテンツを可視化したりする。

ポリシー設定については、リスク可視化の結果を基に、組織本来のポリシーを再定義し、違反している内容を自動的に修復する。シャドーユーザーも削除する。

 AvePoint Policies & Insights for Microsoft 365の導入によって、上記セキュリティ対策のう(1)「パブリックチームの検出・変更」、(2)「機密情報が含まれるファイルのチェックと権限リセット」、(3)「共有リンクのチェックと共有の停止」が実行できると池邉氏は説明する。

 まず、一覧表示でパブリックチームをチェックでき、管理者への通知も可能だ。管理者が強制的にパブリックチームをプライベートチームに変更できる。

 機密情報のチェックでは、クレジットカードやマイナンバーカードの数字の並びを検知することで、テナント内にある機密情報の件数を表示する。管理者は、それらのデータの詳細を確認し、ファイル単位で権限を変更、削除できる。機密情報の定義は独自に設定できる。

 共有リンクについては、テナント内の情報を抽出、一覧表示する。ユーザーが意図せず多数の共有を設定している場合は、リンクの強制停止や期限の付与などが可能だ。これらの機能を使って、アクセス権に統制をかける。

ファイルに秘密度ラベルを付与してAIの引用を防ぐ

 (4)の情報漏えい対策は、Microsoft Purview Information Protectionが有効だ。ファイルに秘密度ラベルを「ウォーターマーク(透かし)」として付与して暗号化し、文書の区分と管理を可能にする。ドキュメントに「Confidential」の透かしを入れて権限を設定すると、ファイルの開封時に証明書による認証情報が必要になる。秘密度ラベルが付いたファイルは、社外の第三者によるアクセスができない。

 秘密度ラベルの機能を、Copilot for Microsoft 365に適用することで、アクセス権限をファイル単位で設定できるようになる。社内で意図せず共有されたファイルが別の部署で複製された場合も、生成AIの引用をブロックする。ファイルの一部を抜き出した二次利用ファイルも秘密度ラベルの権限を継承するため、意図しない引用を防げる。

 池邉氏は、「Copilot for Microsoft 365は、業務改善に生かせる将来性の高い製品ですが、使うデータが正しく管理されず、無防備な状態では、大きなリスクを含んでいます。継続的に、データのアクセス権や共有リンクの状態を監視する仕組みを備えることが必要です」と語る。特に、「参照してよいデータ=AIが引用していいデータ」とは限らないことに、注意が必要だ。

本稿は、大塚商会が主催したWebセミナー「IT管理者が事前に知っておきたい 安全にCopilot for Microsoft 365を使うための事前対策」の内容を編集部で再構成した。

Copyright © ITmedia, Inc. All Rights Reserved.

会員登録(無料)

製品カタログや技術資料、導入事例など、IT導入の課題解決に役立つ資料を簡単に入手できます。

編集部からのお知らせ