メディア

AIのミスは誰の責任? 今後AIに仕事を丸投げするために必要な「責任設計」とは

AIを業務に適用するに当たって選定基準になるのが、モデルの性能やサービスの機能だ。この常識が2026年には少し変わるかもしれない。AI insideの渡久地択CEOは「評価軸は何ができるかではなく、業務を完遂できるかどうかになる」と語った。

» 2026年01月28日 07時00分 公開
[キーマンズネット]

 AIを業務に適用するに当たって選定基準になるのが、モデルの性能やサービスの機能だ。この常識が2026年には少し変わるかもしれない。AI insideの渡久地択CEOは「2026年AIトレンド予測説明会」で、「評価軸は何ができるかではなく、業務を完遂できるかどうかになる」と語った。

AIが“一人で働ける時間”はかなり伸びている

 Open AIの「ChatGPT」やGoogleの「Gemini」、「Microsoft Copilot」、Anthropicの「Claude」など、現在ではさまざまなサービスが存在し、ビジネスでも利用されている。これらはユーザーが入力した文章に応答して文章を返すチャットサービスだ。

 2025年にはこれらが進化し、「AIエージェント」が登場した。AIがWebブラウザやOSを操作して、単独で仕事が遂行できるようになりつつあるが、渡久地氏は「期待が先行し、実用には至らなかった」と言う。

 AIに仕事を任せるにあたっての課題の一つが、時間がかかる業務を実行すると破綻することだという。性能の向上で長時間の業務を処理できるようになっても、責任の所在が問題になる。AIが間違えたときに誰が責任を取るのかは、議論されているものの結論は出ていない。渡久地氏は「2026年はこの問題が解決して標準化するのではないか」と予想している。

 AIを評価する指標の一つとして「完遂可能タスク長」がある。

 これは、AIがどれくらいの長さの仕事を完遂できるかを評価したもので、人間なら○時間かかる仕事を一定の確率で完遂できるかどうかを基準としている。例えば「人間なら4時間かかる仕事を50%の確率で完遂できる」「人間なら15分でできる仕事を80%の確率で完遂できる」などの評価があり得る。AIが処理できる仕事の長さは約7カ月で2倍のペースで成長している。

責任を取るためのしくみ作り

 長時間の仕事を実行できる能力があっても、責任の所在が不明では本格的なAI運用ができない。2026年には責任に関する設計が重要になるという。最終的に責任を取るのは人間だが、問題がどこで発生したかを追跡できる仕組みが求められる。

 責任設計の形として渡久地氏が提示したのは、任意の業務を4段階に分解する考え方だ。第1段階では、その業務の目的やKPI、優先順位を確認する。これが明確なら、失敗した事実に対して「AIに伝えた目的が間違っていた」などと分析しやすくなる。

 第2段階では、AIにどこまで任せるか、どんな条件分岐があり、それぞれどう行動するかを定める。第3段階ではAIが業務を計画、実行、報告する。第4段階ではAIの出力を見て必要に応じてプロセスを更新する。

 2026年は「AIが長く働けるようになること」「AIの競争軸が精度ではなく運用中心になること」「これらを前提に責任を設計すること」が予測される。渡久地氏は「AIに仕事を任せるために何をするかを定義するようになるだろう」とまとめた。

Copyright © ITmedia, Inc. All Rights Reserved.

会員登録(無料)

製品カタログや技術資料、導入事例など、IT導入の課題解決に役立つ資料を簡単に入手できます。

アイティメディアからのお知らせ