検索
連載

ChatGPTの悪用が止まらない? OpenAIはどう対処しているか

生成AIを使ったより巧妙な攻撃が迫っている。ChatGPTを開発したOpenAIや資金を提供するMicrosoftはどのように捉えているのだろうか。

PC用表示 関連情報
Share
Tweet
LINE
Hatena
Cybersecurity Dive

 「ChatGPT」のような生成AIをサイバー攻撃に使った場合、より自然で巧妙な攻撃手法が編み出される危険性がある。ChatGPTを開発したOpenAIや資金を提供するMicrosoftはどのような対策をとっているのだろうか。

攻撃グループによるAIの利用状況は

 ChatGPTは容易に利用できるため、攻撃グループが大規模に利用することはたやすい。どうすればよいのだろうか。

 OpenAIは「当社の大規模言語モデル(LLM)を悪質なハッキングキャンペーンの土台作りに利用していた国家に関連する脅威グループのアカウントを停止した」と発表した(注1)。この取り組みはMicrosoftの脅威研究者と共同で決定した。

 国家に関連する脅威グループには、ロシアに関連する「Forest Blizzard」、北朝鮮に関連する「Emerald Sleet」、イランに関連する「Crimson Sandstorm」、中国に関連する「Charcoal Typhoon」と「Salmon Typhoon」が含まれる。

 OpenAIによると、これらの脅威グループは、オープンソースのクエリや翻訳、コードエラーの検索、基本的なコーディングタスクの実行など、さまざまな事前準備のタスクに生成AIを使用していた。脅威グループによるAIの利用について、OpenAIとMicrosoftの見解を確認してみよう。

 サイバーセキュリティとAIの領域を担当するアナリストは「OpenAIとMicrosoftによって発見された脅威活動は、国家に関連する犯罪グループが攻撃能力を拡大するために生成AIを急速に採用する前兆だ」と警告している(注2)。

 OpenAIとMicrosoftが公表した脅威活動は、脅威グループによる生成AIの潜在的な悪用に関する広範な懸念を裏付けているようだ。

 潜在的なハッカーを探し出し、緩和策を講じるネットワーク防御者の能力を超えて攻撃が急速に拡大する点が懸念点だ(注3)。

 調査企業Gartnerのアヴィヴァ・リタン氏(バイスプレジデント)は、次のように述べた。

 「生成AIは攻撃を増強する。攻撃の規模を拡大し、攻撃をより迅速に拡散させることができるようになる」

ChatGPTが使われても危険性は急上昇しない

 ChatGPTを利用した場合、どの程度脅威度が高まるかを調べたレッドチームの評価について、OpenAIは注意を促した(注4)。非AIツールを使用した場合と比較して、攻撃者がChatGPT(GPT-4)を使用しても限定的な改善効果しか得られないと結論付けた評価だ。

 Microsoftによると、LLMを使用した独自の斬新な手法や重大な攻撃はまだ確認されていない(注5)。だが安心はできない。同社は活動を追跡しており、技術の悪用が確認された場合は速やかに警告を発することを約束した。

 NPO法人であるR Street Instituteのブランドン・ピュー氏(ディレクター)は次のように述べた。

 「国家に関連するグループによる活動は、サイバーセキュリティに関連するAIの利点を活用し、敵の先を行くことを確実にするために、この分野でさらなる革新を行うサイバー防御者の必要性を浮き彫りにしている」

© Industry Dive. All rights reserved.

ページトップに戻る