検索
コラム

ベンダーの“煽り”に負けない 軍隊の「AI実装リスク」回避方法とは?CIO Dive

多くのベンダーが「AIを早期に導入すべきだ」と訴えるが、IT部門はAI導入後に混乱が起きないように備える必要がある。リスクを回避するためにどのようなステップを踏むべきか。米国陸軍の例を見てみよう。

Share
Tweet
LINE
Hatena
CIO Dive

 ベンダーは生成AIを迅速に普及させようとしているが、多くのIT部門やCIO(最高情報責任者)は、AIを技術スタックの隅々に急いで組み込もうとは考えていないようだ。

軍隊は「AI実装リスク」をどう回避している?

 AIを実装するに当たっては当然リスクが発生する。ベンダーがどれほどスピードを求めても、IT部門はまず「事実」を確認すべきだ。しかし、どのような計画を立てて何を確認すればよいのだろうか。

 リスク回避を重視する企業の参考になりそうなのが、米国陸軍のAI導入計画だ。具体的に見てみよう。

ベンダーの「AIウォッシング」「誇張表現」に懸念

 生成AIは一般的なCRM(Customer Relationship Management:顧客関係管理)やERP(Enterprise Resource Planning:企業資源計画)、ソフトウェア開発ツール、ITサポートソリューションに組み込まれている。

 デジタル金融サービスを提供するDiscover Financial Servicesのジェイソン・ストルCIOは、「現在、ベンダーコミュニティーから非常に大きなプレッシャーを感じている。彼らのわれわれとの関わり方、生成AIへの言及の仕方にそれが表れている」と、「CIO Dive」に語った。

 AIに対する企業の関心がかつてないほど高まる中(注1)、CIOは組織のリスク許容度を明確に理解し、ベンダーの主張を監査し、不必要な誇大広告を排除することでベンダーに対して優位に立てる。

 生成AIは、IT業界で開催される会議や更新サイクル、将来的な計画を支配している。ただし、顧客企業を獲得するために、一部のベンダーは、実際にはAIが使われていない製品やサービスを「AI搭載」をうたって宣伝する「AIウォッシング」や(注2)、技術および能力を誇張して「AI」という言葉をマーケティングの仕掛けに使うなど(注3)、好ましくないアプローチを採っている。

 ベンダーが繰り出すこれらの手法に、規制や法的な監視の目が向く可能性があり(注4)(注5)、モダナイゼーションに関心のあるCIOは懸念を感じるだろう。

 「多くのベンダーは、『自社製品がAI機能を活用している』と主張することが有益だと考えているが、必ずしもそうではない。製品に不確実な要素が含まれる可能性があると判断した時点で、われわれCIOは自社のポリシーに基づき、追加のリスク管理手順を踏まなければならない」(ストル氏)

 誇大宣伝は裏目に出ることがあり、顧客がベンダーの主張を疑うようになる可能性もある。

 「ベンダーが不注意な宣伝文句を乱発すれば、これまでよりも多くの点でベンダーを精査しなければならなくなる」(ストル氏)

技術系リーダーはどのように反発しているか

 経営幹部は、活気のあるベンダーの製品をテストし、最も安全な技術が活用されたアプリケーションや、より付加価値の高いアプリケーションを見極めなければならない。

 通信サービスを提供するVerizonでサイバーセキュリティおよびコンサルティングを担当するシニアディレクターであり、米国サイバーセキュリティ・社会基盤安全保障庁(CISA)のアドバイザリーボードメンバーでもあるクリス・ノバック氏は、次のように述べた。

 「多くのCIOや組織は、AIによって実現できるとされている未来に夢中になり、誤った安心感を抱いている」

 こうした誤解は、AIがプロセスを自動的に強化するという考えに由来する。

 「ケーキの材料にホットソースを加えても、必ずおいしくなるとは限らない」(ノバック氏)

 ビジネスの安全性を維持しつつ、革新的であり続けるためにバランスを取ることは、CIOにとっては難しい。CIOは、変革を無視することが現実的な選択肢ではないことを理解している。

 リスクの許容度は企業や組織によって異なるが、ツールやシステム、それらの潜在的な影響を評価するための明確なプロセスを整備することは極めて重要だ。

 生成AIが著作権を侵害する可能性に関する懸念が根強い中で、生成AIツールを使用する顧客が著作権侵害で訴えられた場合に条件付きで提供される補償は(注6)、ベンダーとの契約で一般的に追加される事項となった。ただし、その有効性については意見が分かれている。

 調査企業であるForresterのアンドリュー・コーンウォール氏(シニアアナリスト)は、次のように述べた。

 「企業の中には、『補償条項は実際には何の役にも立たない。問題が起きた場合は撤退するというリスクを受け入れている。そのことを認識して開発を進めている』と言うところもある」

 一方でより多くの補償を求める企業もある。

 リスク管理ソリューションを提供するPrevalentのトーマス・ハンフリーズ氏(コンプライアンスの専門家兼コンテンツマネジャー)は、「CIO Dive」に次のように語った。

 「これら全ては複雑で、多くの懸念を引き起こす」

 顧客企業も疑念を抱いている。コンサルティング企業のKPMGが2024年1月に発表した調査結果によると、5人に3人がAIを警戒しており、4分の3近くがベンダーやパートナー企業に対して、より信頼できるものにすることを望んでいる(注7)。

 アナリストは「透明性と保護について、AIベンダーに依存するだけでは不十分だ」と述べる。企業はAIツールを監査し、ガバナンス基準を強化し、リスクを軽減するために独自の能力を駆使しなければならない。

米国陸軍におけるAI実装のための計画とは?

 米国陸軍は2024年3月に策定したAIを実装するための「100日計画」の一環として(注8)、AI導入に伴うマイナス面と機会の特定に取り組んでいる。

 米国陸軍で調達や物流、技術を担当するヤング・バン氏(主任次官補)は、2024年6月にワシントンD.C.で開催されたAWSのサミットで、次のように述べた。

 「国防総省においては、国家安全保障のための検証と信頼が重要だ。サードパーティー製のアルゴリズムを採用したいと考えているが、特定の事柄に関連するリスクを理解し、情報に基づいて意思決定したい」

 AIへの関心が高まる中、米国陸軍は段階的なリスク軽減フレームワークによって、調査結果を基に運用するための「500日計画」を展開している。

 「私たちは、サードパーティー製の生成AIの採用を妨げるものを克服しようとしている」(バン氏)

 規制が厳しく、リスクを嫌う民間企業も米国陸軍と同様のアプローチを採っている。

 「われわれはAIが発揮する能力を活用することに貪欲だが、それに伴う全てのリスクを理解した上で、本当に自信が持てる方法で実行する予定だ」(ストル氏)

© Industry Dive. All rights reserved.

ページトップに戻る