ChatGPTの悪用が止まらない? OpenAIはどう対処しているか
生成AIを使ったより巧妙な攻撃が迫っている。ChatGPTを開発したOpenAIや資金を提供するMicrosoftはどのように捉えているのだろうか。
「ChatGPT」のような生成AIをサイバー攻撃に使った場合、より自然で巧妙な攻撃手法が編み出される危険性がある。ChatGPTを開発したOpenAIや資金を提供するMicrosoftはどのような対策をとっているのだろうか。
攻撃グループによるAIの利用状況は
ChatGPTは容易に利用できるため、攻撃グループが大規模に利用することはたやすい。どうすればよいのだろうか。
OpenAIは「当社の大規模言語モデル(LLM)を悪質なハッキングキャンペーンの土台作りに利用していた国家に関連する脅威グループのアカウントを停止した」と発表した(注1)。この取り組みはMicrosoftの脅威研究者と共同で決定した。
国家に関連する脅威グループには、ロシアに関連する「Forest Blizzard」、北朝鮮に関連する「Emerald Sleet」、イランに関連する「Crimson Sandstorm」、中国に関連する「Charcoal Typhoon」と「Salmon Typhoon」が含まれる。
OpenAIによると、これらの脅威グループは、オープンソースのクエリや翻訳、コードエラーの検索、基本的なコーディングタスクの実行など、さまざまな事前準備のタスクに生成AIを使用していた。脅威グループによるAIの利用について、OpenAIとMicrosoftの見解を確認してみよう。
サイバーセキュリティとAIの領域を担当するアナリストは「OpenAIとMicrosoftによって発見された脅威活動は、国家に関連する犯罪グループが攻撃能力を拡大するために生成AIを急速に採用する前兆だ」と警告している(注2)。
OpenAIとMicrosoftが公表した脅威活動は、脅威グループによる生成AIの潜在的な悪用に関する広範な懸念を裏付けているようだ。
潜在的なハッカーを探し出し、緩和策を講じるネットワーク防御者の能力を超えて攻撃が急速に拡大する点が懸念点だ(注3)。
調査企業Gartnerのアヴィヴァ・リタン氏(バイスプレジデント)は、次のように述べた。
「生成AIは攻撃を増強する。攻撃の規模を拡大し、攻撃をより迅速に拡散させることができるようになる」
ChatGPTが使われても危険性は急上昇しない
ChatGPTを利用した場合、どの程度脅威度が高まるかを調べたレッドチームの評価について、OpenAIは注意を促した(注4)。非AIツールを使用した場合と比較して、攻撃者がChatGPT(GPT-4)を使用しても限定的な改善効果しか得られないと結論付けた評価だ。
Microsoftによると、LLMを使用した独自の斬新な手法や重大な攻撃はまだ確認されていない(注5)。だが安心はできない。同社は活動を追跡しており、技術の悪用が確認された場合は速やかに警告を発することを約束した。
NPO法人であるR Street Instituteのブランドン・ピュー氏(ディレクター)は次のように述べた。
「国家に関連するグループによる活動は、サイバーセキュリティに関連するAIの利点を活用し、敵の先を行くことを確実にするために、この分野でさらなる革新を行うサイバー防御者の必要性を浮き彫りにしている」
出典:OpenAI, Microsoft warn of state-linked actors’ AI use(Cybersecurity Dive)
注1:Disrupting malicious uses of AI by state-affiliated threat actors(OpenAI)
注2:Cyber Signals: Navigating cyberthreats and strengthening defenses in the era of AI(Microsoft)
注3:Cyber Signals: Navigating cyberthreats and strengthening defenses in the era of AI(Microsoft)
注4:GPT-4 Technical Report(OpenAI)
注5:Staying ahead of threat actors in the age of AI(Microsoft)
© Industry Dive. All rights reserved.
関連記事
- 企業で使う「ChatGPT」 機密情報をどう扱うべきなのか
個人はもちろん、企業においてもChatGPTのような生成AIの利用が広まっている。だが、企業内には外部に持ち出されては困るさまざまなデータがある。これらのデータを生成AIで分析すると何が起こるのだろうか。 - ChatGPTのアカウントが大量に盗まれた 社内情報が漏えいか
サイバー犯罪者は「ChatGPT」を攻撃の道具にしようと常に狙っている。フィッシングメールのもっともらしい文面作成がその一例だ。2023年6月には次の攻撃の芽が見えてきた。社内情報の漏えいに直接つながる危険な「攻撃」だ。 - 「ChatGPT」ならぬ「WormGPT」、サイバー犯罪専用AIが登場
ビジネスメール詐欺向けに開発された生成AI「WormGPT」が登場した。何が水面下で起こっているのだろうか。