「ChatGPT」が変える上司や顧客との関係 もはや誰も信じられない
ChatGPTを利用したメール攻撃はどの程度、現実になったのだろうか。もはやそのような問いかけは無意味になりつつある。既に不正な対人コミュニケーションを生成型AIが支援し始めているからだ。メール以外のコミュニケーションにも攻撃が広がっていく。このような「攻撃」を防ぐために犠牲になるものは何だろうか。
重要な国家インフラや金銭を狙うランサムウェア攻撃が多発するなど、サイバー攻撃は深刻化の一途をたどる。こうした攻撃は、なぜ起こり続けるのだろうか。
ソーシャルエンジニアリング、特にメールが発端になる場合が多い。組織の脆弱(ぜいじゃく)性は「人間」そのものにあり、メールはこの脆弱性を突いてくるからだ。サイバー防御を専門とするDarktraceは英国や米国、オーストラリア、フランス、ドイツ、オランダのグローバルでさまざまな業種の専門家6700人を対象に調査を実施した。その結果、対象の30%が詐欺メールの被害に遭っていたことが分かった。このリスクは手に負えないほど増える傾向にある。「ここ半年で悪質なメールの送信頻度が増えている」と回答した対象は70%に達した。
ChatGPTが引き起こす「さらにまずい事態」とは
2022年11月30日に「ChatGPT」が公開された直後、「このような『生成系AI(人工知能)』を用いることで効率的なメール攻撃が可能になるだろう」という声が挙がった。メール攻撃は実際、どう変わったのだろうか。Darktraceはこの質問に答えるばかりか、さらにまずい事態が起こると主張する。
Darktraceの実証研究によれば、ChatGPTの公開以来、メール攻撃の数は安定しており、さほど増えていない。
ただし、メールの内容は変化した。被害者をだまして悪意のあるリンクをクリックさせるものは減った。その代わりに、テキストの分量や句読点、文章の長さなど、文面の複雑さが増えた。これは何を意味するのだろうか。サイバー犯罪者がメールによってユーザーの信頼を得て、より高度なソーシャルエンジニアリング詐欺を試みている可能性がある。
DarktraceはAIを利用してメール攻撃から顧客を保護する「Darktrace Email」というサービスを展開している。同社が実施した調査によれば、2023年1〜2月に同サービスを利用している数千人の顧客において、「新規ソーシャルエンジニアリング攻撃」が135%増加したことが分かった。これはChatGPTの普及と軌を一にしている。
新規ソーシャルエンジニアリング攻撃とは、他のフィッシングメールと比較して、意味や構文がかなり異なる(強い言語的逸脱を示す)メール攻撃を指す。つまりフィッシングメールだと見破られにくいメールだ。この傾向もChatGPTのような生成系AIが、より早く、より大規模で洗練されたメール攻撃を仕掛ける助けになっている。
冒頭に挙げた調査では回答者の82%が「生成系AIを使って本物のコミュニケーションと見分けがつかないような詐欺メールが送られてくることに懸念を抱く」と報告しており、組織はすでに新しい脅威がもたらす危険性を十分に認識していることも分かった。
メール攻撃はまだましだ 次は「対人コミュニケーション」に問題が広がる
信頼できないメールは組織と従業員を直撃する。問題の中心は人間であり、人間の心理だ。従業員が自分自身と組織を守ることができるよう、従業員の意識向上とトレーニングプログラムの開発に躍起になっている企業や組織は少なくない。一般的に、このような「深層防護」のアプローチが良いとされている。
だが、テキスト形式で配信されるソーシャルエンジニアリングの試みを見抜くことを従業員に教えるセキュリティ啓発トレーニングの価値は、急速に低下している。なぜなら人間の目で「悪い」メールと「良い」メールを区別するのが難しくなるほど攻撃手法は進化したからだ。
従業員の責任を過度に強調することは、ビジネスの課題であると同時に、セキュリティの問題、すなわち信頼不足を招く。信頼不足とは何だろうか。経済が不安定な時代において、ビジネスの成功には「従業員の生産性」「創造性」「効率性」が不可欠だ。従業員が社内外を問わず、受け取るコミュニケーションに不信感を持って接すると、これら3つは全て駄目になってしまう。生産性が低下し、創造性を発揮する余地がなくなり、効率が落ちるからだ。
画像や音声、動画、テキスト、全てに問題が生じる。生成系AIが主流になるにつれて、デジタルコミュニケーションに対する信頼はますます失われていくと予想できる。従業員が上司や同僚、取引先、顧客とコミュニケーションを取るとしよう。Web会議やビデオ通話で会話する相手が本物ではなく全く架空の人物であるとして、もし、従業員が本物と偽物を見分けられないようになったとしたら、職場はどうなるだろうか。
進むべき道は「こちら」、だがプライバシーはどうなる
これからの時代はAIと人間の新しい役割分担が進むだろう。あるコミュニケーションが悪意あるものか、そうではないのかをアルゴリズムが判断することで、人間から重い責任を取り除くことができる。「このコミュニケーションは本物か」といった疑いから解放されることで、従業員は生産性やパフォーマンスの向上に集中できる。
現在の従業員向けセキュリティトレーニングや意識向上プログラムは、もはや急速に進化する状況の中で持続可能ではない。過去の知識が攻撃キャンペーンを予測するのに役立つと考えられてきた従来のメールセキュリティ技術も同じ運命をたどる。
Darktraceの調査によると、過去の脅威に関する知識に依存する従来のメールセキュリティツールはあまりにも遅い。被害者への攻撃が開始されてから攻撃が検出されるまで、平均13日間かかる。つまり従来のツールだけに頼った場合、防御側のユーザーはほぼ2週間脆弱な状態に置かれる。
この数字は冒頭で紹介したソーシャルエンジニアリングキャンペーンが135%増加したことと照らし合わせると、「過去の攻撃例」を中心に据えたメールセキュリティが非効率的だという結論につながる。全く新しいユニークな攻撃を定義する方法が必要だ。生成系AIは次々とユニークな攻撃を繰り出してくるからだ。
どうすればこのような攻撃から組織や従業員を守ることができるだろうか。状況は明るいとも暗いとも言える。
明るい面はこうだ。ユニークな攻撃を防ぐには「あなた」、つまり従業員一人一人をAIが深く理解することが必要だ。攻撃を予測しようとするのではなく、メールの受信トレイから従業員の行動を理解し、従業員の生活パターン(人間関係や口調、感情、その他何百ものデータポイント)を作成することができれば、ユニークな攻撃なのか本物のメールなのかをAIが効率良く判定できるようになる。リスクが減り、組織の信頼が活性化することで、従業員はビジネスの成果に貢献できるようになる。
暗い面はこうだ。大量のデータポイントを把握することで、AIが従業員の生活パターンだけではなく、内面も全て知り尽くす「1984」のような状況が生まれるかもしれない。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 「法人向け」ChatGPTはセキュリティも安心? 個人利用と何が違うのか
業務利用禁止の動きもある「ChatGPT」。法人向けの活用サービスが開始されたようだ。個人で利用する場合と何が違うのだろうか? - 流行りの「ChatGPT」がコールセンターでウケなかった理由
Open AIが開発した大規模言語処理モデル「ChatGPT」。さまざまなAI向けベンチマークだけでなく、人間向けの知能テストでも高得点をたたき出す。しかしある企業は、顧客の問い合わせ受付をするAIチャットbotを構築する際「ChatGPTは、とてもじゃないが採用できない」と判断した。一体なぜ……? 後半では筆者が、AIとライター職の今後について徒然なるままに語る。