生成AIが作り出す画像はますますリアルになっている。この技術を使うと、本人が知らないところで本人の顔を使って顔認証を突破する攻撃が起こるだろう。
Gartnerは2024年2月1日、生成AI(人工知能)が生成した顔認証データによる「ディープフェイク」が深刻な事態をもたらすと発表した。
確かに生成AIはリアルな顔を作り出す。だが、顔認証を突破するほどではないと考える人もいるだろう。顔認証技術を利用するユーザー企業はどう考えるのだろうか。
Gartnerによれば、2026年までにディープフェイクを利用した攻撃によって、企業の30%が「本人確認/認証ソリューションを信頼できない」と考えるようになるという。同ソリューション以外の支援が必要になる。
「過去10年間、生成AIの分野では、画像作成を可能にする複数の転機が訪れた。実在の人物の顔画像を人工的に生成させたディープフェイクは、悪意のある人物に利用されると、バイオメトリクス認証を弱体化させたり、非効率化させたりするために使われる可能性がある。その結果、認証された人の顔が生身の人間なのか、それともディープフェイクなのかどうかを見分けられなくなり、組織は本人確認や認証ソリューションの信頼性に疑問を抱くようになるかもしれない」(Gartnerのアナリスト、バイスプレジデントのアキフ・カーン氏)
顔認証による本人確認と認証プロセスは、現在、ユーザーの生体反応(顔が本物かどうか)を評価するための「プレゼンテーション攻撃検知」(PAD:Presentation Attack Detection)技術に依存している。「PADメカニズムを定義し、評価するための現在の標準とテストプロセスは、今日作成可能な生成AI生成のディープフェイクを使用したデジタルインジェクション攻撃をカバーしていない」(カーン氏)
Gartnerの調査によると、プレゼンテーション攻撃は最も一般的な攻撃ベクトルだ。(AIが生成したディープフェイクのために)インジェクション攻撃は2023年に200%増加するという。このような攻撃を防ぐには、PADとインジェクション攻撃検知(IAD:Injection Attack Detection)、画像検査を組み合わせる必要がある。
顔認証にとどまらず、生成AIが作り出すディープフェイクから組織を守るためにはどうすればよいのだろうか。
最高情報セキュリティ責任者(CISO)やリスク管理リーダーは、こうした新しいタイプの攻撃を監視、分類、定量化していることを証明できるベンダーを選ぶ必要があるという。つまり、現行のセキュリティ標準を越えて、より高度なレベルの保護を提供できるベンダーを選択しなければならない。
「画像検査と組み合わせたIADを使用して最新のディープフェイクベースの脅威を軽減することに特別に投資しているベンダーと組織が協力することで、最新のディープフェイクに対する脅威に対処するための基本的なセキュリティ対策、つまりベースラインを定義することから始めるべきだ」(カーン氏)
戦略が定義され、ベースラインが設定されたら、CISOとリスク管理リーダーは、デバイス識別や行動分析などの追加のリスクおよび認識シグナルを含めて、ID検証プロセスに対する攻撃を検出する可能性を高める必要がある。
とりわけ、アイデンティティーとアクセス管理を担当するセキュリティとリスク管理のリーダーは、本物の人間の存在を証明できるテクノロジーを選択し、アカウント乗っ取りを防ぐ追加措置を実施することで、生成AI主導のディープフェイク攻撃のリスクを軽減する措置を講じるべきだという。
Copyright © ITmedia, Inc. All Rights Reserved.
製品カタログや技術資料、導入事例など、IT導入の課題解決に役立つ資料を簡単に入手できます。