メディア

「試して学ぶ」が鍵 生成AIと企業の向き合い方CIO Dive

ソフトウェアテストベンダーのApplauseによると、開発者や品質保証の専門家、一般の消費者は「生成AIは、出力内容の詳細が不足したり、プロンプトの意図を正確に理解できないことがよくある」と述べている。

» 2025年05月07日 10時00分 公開
[Lindsey WilkinsonCIO Dive]

2021年9月13日、RPA BANK はキーマンズネットに移管いたしました。
移管に関する FAQ やお問い合わせは RPA BANKをご利用いただいていた方へのお知らせ をご覧ください。

RPA BANK

 ソフトウェアテストベンダーのApplauseが、4400人のソフトウェア開発者や品質保証の専門家、消費者を対象に実施した調査によると、生成AIの利用者の大半が、技術を使用する際に何らかの問題に直面しているという(注1)。

完璧ではない生成AI

 最も多く報告されている問題は、出力結果に詳細な説明が欠けていることや、プロンプトの誤解、偏りが見られることなどだった。生成AIのユーザーのおよそ3人に1人が、あるツールから別のツールに乗り換えた経験があり、3分の1以上のユーザーは複数のツールをタスクに応じて使い分けている。

 AIを活用したコーディングツールとしては、「GitHub Copilot」と「OpenAI Codex」が人気だ。品質保証の担当者は「テストケースの生成やテストデータ用のテキスト生成、テスト結果のレポート作成などにAIを活用している」と述べた。

 TeamViewerが2024年11月に発表したレポートによると(注2)、ITおよび技術領域のリーダーの大半は、AIに課題はあるものの関連するリスクに対処できると考えているようだ。

 初期導入者たちはイノベーションを継続しながらセキュリティと品質を確保する方法として「人間の関与を保つこと」や「その他の安全策を導入すること」の重要性を指摘している(注3)(注4)。

 小売企業であるWalmartは、AIによるコーディング支援や補完ツールの初期導入により生産性の向上や展開の効率化といった成果を得られたことを受けて(注5)、開発者によるアクセスの範囲を拡大している。

 Walmartでグローバルテクノロジープラットフォームを担当するスラヴァナ・カルナティ氏(エクゼクティブバイスプレジデント)によると、生成されたコードが規定の基準を満たしていることを確認するために、同社では本番環境にコードを投入する前に、正確性やセキュリティ、コンプライアンスなどをチェックするため複数のプロセスを設けているという。人による検証はこのプロセスの重要な部分である。

 カルナティ氏は、CIO Diveに対して次のように述べた。

 「ツールが完璧なものになるのを待つ必要はない。実際に試してみて、何がうまくいくのかを見極め、開発者をトレーニングしていこう」

 リスクに対する許容度は組織ごとに異なる(注6)。CIOをはじめとする上級リーダーは、どこに線引きをするのかを明確にすべきだ。

 Amazon Web Servicesのクリス・ベッツ氏(最高情報セキュリティ責任者)はCIO Diveに対し、「組織はユースケースに基づいてリスクレベルを判断すべきだ」と述べている。AIツールで従業員がコミュニケーションのために使う文書の初稿作成を支援する場面では、多少のミスが許容される余地がある。一方、一定の自律性をもってタスクを実行するAIエージェントを活用しようとする企業の場合(注7)、正確性を犠牲にすることは許されない。

 「AIエージェントの場合許容できる誤りの範囲は非常に狭くなり、求められる品質基準がはるかに高くなるのだ。ここからはリスクに関する議論だ。脅威モデルを構築し、テストの品質や出力される回答の品質、他にどのような安全策があるかを確認し、それらを踏まえて意思決定する必要がある」(ベッツ氏)

Copyright © ITmedia, Inc. All Rights Reserved.

会員登録(無料)

製品カタログや技術資料、導入事例など、IT導入の課題解決に役立つ資料を簡単に入手できます。