メディア

安全にChatGPTを使いたい企業は必ず見るべき「生成AIの利用ガイドライン」とは?松尾 豊氏らが解説

日本ディープラーニング協会がAIを活用する企業や自治体に向けて「生成AIの利用ガイドライン」を公開した。生成AIを業務で使う上で必ず考慮すべきポイントが盛り込まれているという。AIの権威である松尾 豊氏らが提供の背景やその内容について説明した。

» 2023年05月01日 17時29分 公開
[溝田萌里キーマンズネット]

 「日本でDX(デジタルトランスフォーメーション)が進んでいないという問題がある中、「ChatGPT」などの生成AIはデジタル化の切り札になるでしょう。一方で、生成AIを利用する際の著作権侵害や法律違反を引き起こす可能性があります。生成AIを安心して利用するためのルール整備が重要です」――こう話すのは日本ディープラーニング協会の理事長である、松尾 豊氏(東京大学大学院工学系研究科 教授)だ。

 こうした背景から、同氏が理事長を務める日本ディープラーニング協会(JDLA)は2023年5月1日、生成AIを活用する組織に向けて「生成AIの利用ガイドライン ver1.0」を公開した。これをひな型として、企業や自治体が自社のガイドラインをスムーズに策定できるよう、生成AIの導入時のポイントや、著作権、プライバシー保護、倫理に関する注意点を盛り込んだという。

 同日に開催された記者会見では、松尾 豊氏をはじめ、AI法務の専門家でJDLAの有識者会員ある柿沼太一氏(STRIA法律事務所代表パートナー弁護士)らが登壇し、ガイドライン策定の背景やその内容を説明した。

 組織は生成AIを利用する際に、何を確認し、どのような点に気を付けなければならないのか。記者会見の内容から探る。

日本における「ChatGPTの活用戦略」とガイドライン策定の狙い

 記者会見では、まず松尾氏が生成AIの一つであるChatGPTの経済的影響度の高さを強調した。

日本ディープラーニング協会 理事長 松尾 豊氏

 「2022年11月のChatGPTの公開以降、大規模言語モデルに大きな注目が集まっています。OpenAIが2023年3月に発表した論文では、米国の約80%の労働者が、少なくともタスクの10%が大規模言語モデルの影響を受けるとしています。実際に、ChatGPTを活用してデジタル化を進める企業も現れ、今後もさまざまな事業で活用が進んでいくものと思われます」

 こうした動きに連動して、ルール整備の動きも活発化している。日本を含む各国の教育、研究機関が生成AIとの向き合い方の方針を打ち出す他、2023年4月30日に群馬県高崎市で開かれた主要7カ国(G7)デジタル技術相会合においても、5月のG7広島サミットで生成AIのリスクについて議題に上げることが決まった。

 各国で生成AIに関する議論が進む中で、松尾氏は「日本もデジタル戦略の切り札として生成AIの利用を積極的に進める必要があると考えます」とした上で、そのためにはAIを利用する各組織が著作権や個人情報保護の問題を意識し、自社の業務で生成AIをどう活用するかのルールを定める必要があるとし、その際にJDLAの「生成AIの利用ガイドライン ver1.0」がひな型として活用できる旨を強調した。

 「企業はこのひな型を基に、効率的に独自のガイドラインを策定できますし、各組織から随時フィードバックや生成AI利用のベストプラクティスが集まることで、日本の生成AIの利用がさらに促進されると考えています」

ガイドラインのポイントは「データの入力リスク」と「生成物利用のリスク」

 次に、柿沼氏が生成AIガイドラインついて「このガイドラインは、AIを利用する人が最低限法令に違反しないことを指針に策定したもので、その基本ラインに沿って各企業が自社でどう生成AIを活用すべきかを議論し、ルールを肉付けすることを想定しています」と前置きした上で、その構成を説明した。

日本ディープラーニング協会 有識者会員 柿沼太一氏

 JDLAの生成AIのガイドラインは、主に「生成AIにデータを入力する際に注意すべき事項(入力リスク)」と「AIによる生成物を利用する際に注意すべき事項(生成物のリスク)」の2つのパートから成る。これは、生成AIは、ユーザーが入力したデータを基に、保管、解析、生成、学習、再提供などの処理を実施し、その結果として生成物を出力するためだ。

 まず入力リスクについて、ガイドラインには他人の著作物や文章、絵、コードといったデータを入力する際の注意点と法的リスクが記されている。例えば、第三者が著作権を有するデータや、ロゴやデザインといった登録商標、意匠を生成AIサービスに入力しても著作権や商標権侵害、意匠権侵害には原則的に該当しない。一方で、顧客の個人情報や他社と秘密保持契約(NDA)を結んで開示された情報、地組織の機密情報は、個人情報保護やNDAに反する可能性があるという。

 柿沼氏は、「生成AIに入力(送信)されるデータは多種多様であるため、リスクを判断する際は、生成AIサービスを提供する事業者のポリシーを随時確認してガイドラインをアップデートしていほしい」と述べた。

 一方、生成AIが出力した生成物を利用するリスクについては、「生成物を利用することが誰かの知財や著作権を侵害する可能性がある」点を中心に幾つかのリスクが明記されている。

 「生成AIが出力した生成物が既存の著作物と同一もしくは類似している場合は、それを利用することで著作権侵害に当たる可能性があります。その点で、プロンプトに既存の著作物や作家名、作品の名称を入力する際は注意が必要です。生成AIを利用して作成したキャッチコニーや商品ロゴを利用する際も、登録商標権や意匠権を侵害する可能性があります。これはどの生成AIサービスを利用する際にも言えることです」

 その他、生成AIの出力した内容に虚偽が含まれているリスクや、虚偽の個人情報をそのまま利用、提供することで名誉毀損に概要するリスク、自社が生成AIを利用して作成した成果物に著作権が発生しない可能性があることなど、生成AIサービスによっては商用利用する場合の条件が課されている場合があること、などが記述されている。

 なお、上記のガイドラインはOpenAIなどの生成AIサービスを直接利用することを前提とした基本的なものだが、生成AIのサービスにはさまざまな利用形態があり、その形態ごとに考慮しなければならないリスクも異なるという。

 柿沼氏によれば、法的なリスクを評価する際には(1)「自社内にオンプレミスでモデルを構築し、自社で処理が完結しているパターン」、(2)「OpenAIなど生成AIサービスを提供している事業者のサービスを利用するパターン」、(3)「APIを利用して生成AIの機能を組み込んでいるサービスを利用するパターン」の3つに分類できる。自社がどのパターンで生成AIを利用しているのか、まずはシステムの構造を確認すべきだという。

生成AIサービス構造(出典:STORIA法律事務所のWebサイト)

 柿沼氏は、同ガイドラインが「あくまで現時点での状況を反映したものだ」として、今後もアップデートをする予定であること、さらにこのガイドラインを土台として独自のガイドラインを作成してほしい」と再度強調した。なお、同氏がWebサイトで公開している「生成AIの利用ガイドライン作成のための手引き」も参照するといいだろう。

日本の生成AIの現在地

 生成AIと付き合うためのルール作りの方法は、組織レベルのガイドラインだけでなく、法制度の枠組みを変える、裁判の結果を積み重ねることで司法が主体となるなど、さまざまな方向性があるという。

 「それぞれにメリット、デメリットがあるため、議論を積み重ねてどのように生成AIを活用すればよいのかを考える必要があります」(柿沼氏)

 また、松尾氏は国際的な立場のバランスを取りながらルールを作る必要があるとして、日本政府の現在の動きを「とても良い」と評価した。

 「生成AIに限らず、ヨーロッパが比較的慎重な姿勢の基で法規制などのルールを整備する一方て、米国が比較的積極的に技術の利用を促進するという構図があります。そうした意味で、2023年4月10日にOpenAIのサム・アルトマンCEOが来日し、自民党の『AIの進化と実装に関するプロジェクトチーム』に参加したことは、米国だけに重心が偏らないよう、また早くから日本を味方にしておきたいという狙いが少なからずあったとみています。日本は、双方のバランスを取りながらルールを作る必要があると考えます」(松尾氏)

Copyright © ITmedia, Inc. All Rights Reserved.

会員登録(無料)

製品カタログや技術資料、導入事例など、IT導入の課題解決に役立つ資料を簡単に入手できます。

編集部からのお知らせ