サイバー防御にも役立つ「ChatGPT」 悪人との競争が始まる
生成型AI「ChatGPT」はサイバーセキュリティにおいて、巧妙なフィッシングメールを作り出すなど、まず悪用に焦点が当たった。次は防衛側が利用する番だ。状況はどのように変化するのだろうか。専門家を置き換えるのだろうか。
整った文章をいくらでも生成できる「ChatGPT」はサイバー攻撃者の強力な武器になる。これに対してサイバー防衛側もChatGPTの能力を生かそうとしている。複数のベンダーがChatGPTを自社製品に急いで組み込もうとしており、サイバーセキュリティ業界が慌ただしくなってきた。
防御の強化と脅威の両面から期待される生成型AI
Microsoftは自社のセキュリティネットワークとグローバルな脅威インテリジェンス機能に最新の「GPT-4」を組み合わせ、2023年3月に「Microsoft Security Copilot」を発表した(注1)。Cohesityは2023年4月12日(注2)、自社のデータセキュリティ製品にMicrosoftのサービスとOpenAIを統合して脅威の検出と分類を強化する計画を発表した。これから何が起こるのだろうか。
MicrosoftはChatGPTを開発したOpenAIの強力なサポーターであり、これまでに110億ドル以上を投資した。
だがOpenAIはMicrosoftだけのものではない。Recorded Futureは2023年4月11日に(注3)OpenAIの大規模な言語モデルを使用して、侵害の指標や脆弱(ぜいじゃく)性、設定ミスを特定することで顧客によるリアルタイムの自動的な脅威検出を支援するツールをリリースした。
この技術はまだ初期段階だが、テクノロジーベンダーが生成型AIを導入する競争に加わるにつれて、サイバーセキュリティベンダーも同様に対応するだろう。ChatGPTや生成型AIはサイバーセキュリティの全てのレイヤーに適用されるわけではないが、製品開発はもちろん、断片化したデータストリームを統合して組織が行動を起こすために必要な洞察の提供など、重要な領域に大きな影響を与えると期待されている。
(ISC)2のジョン・フランス氏(CISO《最高情報セキュリティ責任者》)は次のように述べた。
「私たちはセキュリティの分野における生成型AIの利用を始めようとしている。セキュリティベンダーは何十年も前から人工知能(AI)や機械学習を製品や脅威検出プロセスに組み込んできてきた。与えられたデータの信号対雑音比を改善して、人間にはできない異常やパターンを大規模に特定することに対して大きな成功を収めてきた」
ChatGPTや生成型AIはセキュアなコーディングを支援し、最も重大な脆弱性や設定ミスについて組織に警告することで、防御能力を強化すると期待されている。
もちろん裏を返すと、攻撃側もこの技術を使用して(注4)本物そっくりのフィッシングメールのわなを作り出したり、マルウェアのコードを書く能力をテストしたりしている。
ChatGPTがサイバーセキュリティ分野で実現し得る画期的な技術は、まだ大部分が開発中だ。Darktraceのジャスティン・フィアー氏(レッドチームオペレーションを担当するシニア・バイスプレジデント)は、「ChatGPTと生成型AIがネガティブな結果よりもポジティブな結果をもたらすと期待している。だが、具体的にどういったもので、どのように実現されるのかを判断するにはまだ早過ぎる」と述べた。
「市場全体がAIに支配されると見ているのだろうか? いや、違う。6カ月後、12カ月後には状況が変わっているだろうか? 絶対にそうだ。私たちは状況が落ち着くのを待っているのだ」(フィアー氏)
ChatGPTは専門家と置き換わるのか、それとも違うのか
ChatGPTはサイバーセキュリティの防御基盤を完全に作り変えることはできないかもしれないが、生成型AIはセキュリティにおいて存在感を示すだろうと多くの人が期待している。
アクセス管理ソリューションを提供するKeeper Securityのダーレン・グッチオン氏(CEO兼共同創業者)は、「ChatGPTのような製品が新しいセキュリティ製品やプロセスの開発を加速させる」と期待する。
「機能としては始めから終わりまで変わらないだろうが、生成型AIの技術が製品開発のライフサイクルに組み込まれることで物事が活性化され、迅速さが増すだろう」(グッチオン氏)
脅威や脆弱性の自律的な検出など、サイバーセキュリティのツールや実行手順に組み込まれたこれまでのAIの進歩は、これから起こることの前兆かもしれない。
「サイバーセキュリティの専門家の中には、ChatGPTに質問をしたり、コードを書かせたりしている人もいる。これは生成型AIがより広い活用方法を整理するための適切な指標になることを示唆している」(フランス氏)
データの概念化と理解はChatGPTの最大の成果の一つだ。「専門家はいまのところ適切な質問をする必要がある」とフィアー氏は述べる(注5)。ChatGPTのようなツールの価値を引き出すには、その技術を用いて何ができて何ができないかを技術者が理解する必要があるのだ。
「ChatGPTは自己意識を持った存在ではない。あなたの代わりにセキュリティオペレーションセンターを運営し、あなたの代わりに意思決定をしてくれるわけではないのだ」(フィアー氏)
人の処理能力を超えたサイバー業務
多くの専門家によれば、AIがサイバーセキュリティで輝くのは人間にはできない仕事を引き受ける時だという。
「私たち人間の力では、効率的な作業や運用を続けるために必要なレベルでサイバーセキュリティの業務をこなすことはもはやできない」(フィアー氏)
そうした部分でこそ、ChatGPTのような生成型AIツールを生かすことができ、サイバーディフェンスにおける単調かつ膨大な業務の処理を滞りなく処理できる。
「サイバー環境において物事は急速に変化しており、私たち人間はそのようなタスクに対応できない。私たちに責任があるわけではなく、単に私たちにはそうした業務を行うための演算能力が備わっていないというだけなのだ」(フィアー氏)
出典:ChatGPT prompts experts to consider AI’s mark on cybersecurity(Cybersecurity Dive)
注1:Microsoft unveils Security Copilot built on GPT-4(Cybersecurity Dive)
注2:Cohesity Collaborates with Microsoft to Simplify How Businesses Protect and Secure Their Data from Cyber Threats Including Ransomware Attacks(Business Wire)
注3:Recorded Future Announces World's First AI for Intelligence(Cision)
注4:Threat actors can use ChatGPT, too. Here’s what businesses should watch(CIO Dive)
注5:How to grow generative AI prompt skills across the workforce(CIO Dive)
© Industry Dive. All rights reserved.
関連記事
- 「ChatGPT」が変える上司や顧客との関係 もはや誰も信じられない
ChatGPTを利用したメール攻撃はどの程度、現実になったのだろうか。もはやそのような問いかけは無意味になりつつある。既に不正な対人コミュニケーションを生成型AIが支援し始めているからだ。メール以外のコミュニケーションにも攻撃が広がっていく。このような「攻撃」を防ぐために犠牲になるものは何だろうか。 - 「ChatGPT」をダシに詐欺を働く悪人達
急速に進化する「ChatGPT」には詐欺師や攻撃者が大量にまとわりついてる。どのような危険性があるのか、安全に使うにはどうすればよいのかを紹介する。