「ChatGPT」のリリースを期に、生成AI(人工知能)の進化に大きな期待が集まり、さまざまな分野において活用の可能性が検討されている。一方で、その技術がはらむリスクについても議論が巻き起こり、どのようなルール整備を進めればよいのか、各国の政府や民間組織がさまざまな立場やレベルで検討を進めているようだ。
米Googleは、2018年に「AI原則」を定めてAIの構築において「『責任あるAI』アプローチを取ることに務めてきた」としている。2023年5月10日(現地時間)に同社が開催した年次開発者カンファレンス年「Google I/O」では、ジェームズ・マニカ氏(技術・社会担当上級副社長)が同社のアプローチを「大胆に、常に責任を持って」という言葉で表現し、同社の「責任あるAI」への姿勢を説明した。その内容とは。
Googleの考える「責任あるAI」とは
Google I/Oの基調講演では主にAIに関するテーマに重点が置かれ、Googleマップや検索エンジン、GoogleフォトのAI機能の進化や、Google WorkspaceへのチャットAI「Bard」の適用、それらのAI機能を支える大規模言語モデル「PaLM 2」の進化などが紹介された。その中でも時折「Responsible(責任ある)」という言葉が繰り返し強調された。
マニカ氏も「AIの大胆なブレークスルーを目の前にして興奮を覚えるが、AIは不当な偏見など、既存の社会的課題を悪化させる可能性がある」として同社が2018年に初めて制定した「AI原則」にのっとって、「責任あるAI」アプローチを意識しながら構築していると説明した。
AIにまつわるリスクの中でも、同社が頭を悩ませている課題の一つが「間違った情報」を生成することだという。生成AIによって新しいコンテンツを作ることが容易になったが、それによって間違った情報がWeb上に増えれば、Web上の情報全体の信頼性が低下し、Web検索の価値が低下することになる。
これに対して、今後数カ月の間にGoogle検索の機能として「この画像について」という機能を追加し、画像が最初に表示された時期や場所、画像に関連するニュースや事実を確認できるようになるという。
「『この画像について』」の機能を使えば、月面着陸を演出した画像がAIによって生成されたものであることを指摘するニュース記事を見ることもできます。これらの背景情報によって、画像が信頼に値するかどうかを判断できます」(マニカ氏)
また、Google検索でAIが生成した画像については、その事実が明確に表示するという。
さらにGoogleが開発中の「Universal Translator」に関する発表もあった。Universal Translatorは人物の発話を基に、話者の唇の動きを一致させながら音声を翻訳できるサービスだ。これは、語学学習などの「言語の習得」において有益なツールである一方、ディープフェイクなどに悪用される可能性がある。そこでGoogleは、このサービスにアクセス制限機能を付与する他、生成された動画に対して、電子透かしのような仕組みも採用するとした。
マニカ氏はGoogleが「AI原則」や「責任あるAI」を意識して敵対的テストを自動化する取り組みを進めてきたこと、さらに音声合成を検出できるツールを開発中であることも披露した。
マニカ氏が最後に「責任あるAIの構築のためには、研究者や社会科学者、各業界の専門家、政府、クリエイター、出版社、そして日常生活でAIを使用する人々の総力を結集する必要がある」としてGoogleがそのエコシステムの一端を担うことを強調した。
AIのリスクに対する認識とルール整備については、各国でもその取り組みが進んでいる。欧州委員会が2021年4月に「Responsible AI」(責任あるAI)の実現を目指す倫理ガイドラインを発表した他、米国もFRB(連邦準備制度)などの各省庁が法整備を進めている。日本でも金融庁や経済産業省がAIに関する倫理ガイドラインを発表し、これに呼応するかたちで大手IT企業が次々にAI提供における社会的責任の取り組みを公表した。
さらに、直近では2023年4月30日に群馬県高崎市で開かれた主要7カ国(G7)デジタル技術相会合においても、5月のG7広島サミットで生成AIのリスクについて議題に上げることが決まっている。
さまざまな次元で「Responsible AI」を目指した動きが高まる中、今回のGoogleの表明もその潮流の中にあると言える。
Copyright © ITmedia, Inc. All Rights Reserved.