Webサービスの新規登録時などで時々現れる「CAPTCHA」。人間かbotかを見分けるための仕組みだ。だが、AIによってそれが突破される事態が多発している。その対抗策として「人間らしさ」をより精緻に判定する新技術が開発された。
ゆがんだ文字を読み取らされたり、消火栓の画像を選ばされたりと、Webを利用していると、時々現れる「CAPTCHA」。これは、操作しているのが人間であることを証明し、botによる不正アクセスを防ぐための重要な仕組みだ。
最近では、Googleが提供する「reCAPTCHA v2」や「reCAPTCHA v3」など、ユーザーの負担を軽減する方式も普及してきた。だが、AIの進化によって、人間にしかできないことの境界は曖昧(あいまい)になり、実際にCAPTCHAを突破するAIも登場している。
もうAIには敵わないのか……と思われるが、ここに来て「人間であること」をより正確に証明できる新たな技術が開発された。どうやって人であることをより正確に認識しようというのか。
CAPTCHAとは「Completely Automated Public Turing test to tell Computers and Humans Apart」の略で、日本語にすると「自動化されたコンピュータと人間を区別する公開チューリングテスト」という意味になる。つまり、「人間にしかできない操作」をさせることで、利用者が人間かどうかを判定し、botによる悪意ある行動を防ぐ仕組みだ。
CAPTCHAには幾つかの種類がある。例えば、ゆがんだ文字を読み取らせる「文字認識型」や、タイル状に並んだ画像から特定のものを選ばせる「画像選択型」(例:「信号機を全て選べ、など)、チェックボックスで認証する「reCAPTCHA v2」、ユーザーの行動履歴などからスコアを算出して判定する「reCAPTCHA v3」、そして、パズルのピースをスライドさせる「スライダー型」など、多様な方式が存在する。
これらは、掲示板やコメント欄へのスパム投稿、ECサイトでの商品・チケットの買い占め、ログイン画面へのブルートフォース攻撃といったbotによる悪質行為の防止に一役買っていた。だが、AIの性能が飛躍的に向上したことで、多くのCAPTCHAが突破される事態になっている。とりわけ、Webブラウザを操作して複雑なタスクを自律的にこなせるAIブラウザエージェントの登場により、従来の検出技術では対応しきれないケースが増えている。
中でも近年よく見かけるようになった「reCAPTCHA v3」は、非常に高い検出力を持つとされる。これはインターネットの行動履歴に加えて、マウスの動きやスクロールの仕方、クリックのタイミングなどをスコア化し、人間かどうかを判断する仕組みだ。スコアが低ければ人間とは判定されない。こうした設計により、botはもちろん、AIエージェントによる操作も突破が困難なはずだった。だが、実際には、高性能なAIエージェントが高スコアを獲得し、reCAPTCHA v3をすり抜ける事例が増えている。
こうした課題に対して新たな対抗策を提示したのが、AIスタートアップのRoundtableだ。プリンストン大学で博士号を取得したマヤンク・アガワル氏(CEO)とマット・ハーディー氏(CTO)が設立した同社は、AIやbotによる不正行為をリアルタイムで検出するセキュリティ技術の開発を進めている。同社が発表したのが「Proof-of-Human API」というソリューションだ。
OpenAIのAIブラウザエージェント「Operator」がテスト環境でアカウントを新規作成する様子を収めたデモ動画が公開されている。動画では、OperatorがreCAPTCHA v3を突破し、アカウント作成に成功していることを確認できる。つまり、Operatorは非常に人間らしい挙動を模倣するAIエージェントということだ。
これに対しRoundtableが注目しているのが、「行動パターン」と「認知特性」だ。人間がコンピュータを操作する際には、独特の動作パターンが存在する。例えば、文字入力時、キーの押下には文字によって必ず微妙な遅延があり、入力リズムも一定ではない。だが、AIは文字を一瞬で入力したり、不自然な規則性で人間を模倣した文字入力を実行したりするという。
マウスの動きに関しても、人間は常にわずかな揺らぎがあり、速度が完全にゼロになることはない。一方、AIエージェントは揺らぎが一定で、速度がゼロになる瞬間があるなど、不自然な動作が目立つ。
また、認知面の違いも指摘されている。赤という文字が青色で表示され、「文字の色を示すボタンをクリックせよ」というような問題では、人間は文字の意味に引きずられて色の判断に時間がかかりがちだ。これは心理学の「ストループ課題」として知られる現象だ。対してAIは文字の意味を無視し、即座に正しい色を選択する。
もちろん、AIがこうした人間の挙動や認知特性を模倣する可能性は否定できないが、Roundtableの研究では、それには技術的・コスト的に高いハードルがあり、現実的には困難だとされている。Proof-of-Human APIは、こうした人間らしくない挙動を解析することで、AIやbotをリアルタイムで検出することを目指している。
AIブラウザエージェントが急速に進化を続ける中にあっても、「人間らしさ」に根ざしたアプローチは依然として有効であり、AIが簡単には模倣できない領域と言えるだろう。Proof-of-Human APIの導入によって、CAPTCHAの精度がさらに高まり、AI対策の新たな柱となることが期待される。「人間らしさを測る」という一見アナログな視点が、今後ますます重要な論点となっていくはずだ。
上司X: CAPTCHAがAIに突破されがちだけど、それに対抗するProof-of-Human APIが登場した、という話だよ。
ブラックピット: botやAIがCAPTCHAを突破する、そんな時代なんですねえ。
上司X: botはかなり防げるらしいけど、AIブラウザエージェントについてはかなりの実力でCAPTCHAを突破するらしい。
ブラックピット: reCAPTCHA v2やreCAPTCHA v3に遭遇することが多くなりましたが、あれも突破できるんですかね、AIは。
上司X: だからこそ、模倣しきれない部分をProof-of-Human APIが見つけるっていうことさ。人間の行動は意外に独特らしい。
ブラックピット: それは頼もしい限りですが……。
上司X: 何だい、その不安顔は?
ブラックピット: いずれそうした人間らしい部分までAIがなんとかしてしまう気もするんですよ。怖いし、不安!
上司X: まあ、その可能性は高いだろうな。でも、botやAIへの対策手段だって発展するはずさ。実際今回のRoundtableの研究や技術は、現時点で有効なわけだし。この対策が乗り越えられてしまったら、またそのときに対応する技術が生まれることを期待しようじゃないか。
年齢:36歳(独身)
所属:某企業SE(入社6年目)
昔レーサーに憧れ、夢見ていたが断念した経歴を持つ(中学生の時にゲームセンターのレーシングゲームで全国1位を取り、なんとなく自分ならイケる気がしてしまった)。愛車は黒のスカイライン。憧れはGTR。車とF1観戦が趣味。笑いはもっぱらシュールなネタが好き。
年齢:46歳
所属:某企業システム部長(かなりのITベテラン)
中学生のときに秋葉原のBit-INN(ビットイン)で見たTK-80に魅せられITの世界に入る。以来ITひと筋。もともと車が趣味だったが、ブラックピットの影響で、つい最近F1にはまる。愛車はGTR(でも中古らしい)。人懐っこく、面倒見が良い性格。
Copyright © ITmedia, Inc. All Rights Reserved.