検索
特集

企業が今「ローカルLLM」を求める切実なワケ 導入の背景、流れ、費用、注意点を徹底解説IT導入完全ガイド

生成AIの業務活用が進む一方、クラウド利用のセキュリティ懸念は根強い。その解決策として、自社環境でLLMを運用する「ローカルLLM」が注目を集めている。なぜ今、この選択肢が選ばれるのか。

PC用表示 関連情報
Share
Tweet
LINE
Hatena

 2022年末に「ChatGPT」が登場し、瞬く間に世界中で生成AIブームを巻き起こしてから、はや3年になる。その間、多くの企業が業務効率化の切り札として生成AIに白羽の矢を立て、その活用に取り組んできた。

 OpenAIやGoogle、Anthropicなど海外ベンダーが提供する汎用(はんよう)のLLM(大規模言語モデル)をクラウドで利用し、簡単なチャットbot開発からRAG(Retrieval-Augmented Generation:検索拡張生成)を使った自社データの活用、近年ではAIエージェントの活用とそのユースケースは着々と発展を遂げてきた。

 さらに、近年はオンプレミスでLLMを利用する「ローカルLLM」にも企業が関心を向けているという。システムのクラウド移行が進んだ今、なぜローカルLLMが注目されているのか。

企業が「ローカルLLM」に注目するようになった背景とは?

 OpenAIの「GPT」シリーズやGoogleの「Gemini」、Anthropicの「Claude」などのモデルをクラウドで利用する場合、「入力データを学習に利用しない」と規約に明記されていても、海外ベンダーのクラウドAIサービスに自社データを預けることに懸念を抱く企業は多い。そもそもクラウドへの保存が禁止されているデータもあるだろう。

 そこで「自社内に生成AIの環境を構築し、セキュリティリスクを最小化した上で独自のデータを安全に活用したい」というニーズが持ち上がり、オンプレミスで利用するローカルLLMが注目されているというわけだ。

 ChatGPTや「Gemini」などの「フロンティアモデル」は学習・推論に膨大な計算資源を必要とするが、オープンソースのLLMの中にはサーバ1台〜数台の小規模環境でも実用レベルで動作するものがあり、企業が自社環境に導入してローカル運用するのに適している。またユーザーによるモデルの改変も認められているため、自社の用途に適したカスタマイズも可能だ。

 場合によっては、ローカルLLMがコスト面で優れている場合もある。業務への生成AIの適用を探るための実証実験の段階においては、さまざまなユースケースでの可能性を探るためのトライ&エラーを重ねる必要がある。クラウド型のAIサービスを使うといつの間にか利用料金がかさんでしまう可能性があるが、ローカルLLMであれば、初期費用はかかるものの、モデルの利用におけるランニングコストは気にかけることなく試行錯誤できる。


LLMのクラウド利用とローカル利用の違い(出典:リコーの提供資料)

ローカルLLMの環境一式を提供するパッケージソリューションも

 ローカルLLMの利用環境を構築するには、ハードウェアやミドルウェア、モデル、ツール、システム運用などに関するさまざまなノウハウやスキルが必要になる。そのため、大半の企業にとっては外部のベンダーの支援を仰ぐか、何らかのパッケージソリューションを導入するのが現実的だ。

 そうしたソリューションの一つに、リコーが企画・開発し、リコージャパンが販売する「RICOH オンプレLLMスターターキット」がある。これは、ローカルLLM環境を実現するために必要なハードウェアとソフトウェア、ツール類一式をあらかじめリコーが選定し、キッティングと動作検証を行った上でユーザーのオンプレミス環境に導入するというものだ。


「RICOH オンプレLLMスターターキット」のように環境構築から導入後の支援まで一貫して提供するソリューションもある(出典:リコーの提供資料)

 このキットでは、リコーがオープンソースLLMをベースに独自開発したLLMを採用しており、これを動作検証済みのGPUサーバにセットアップする。部署単位でのユースケースを想定しているという。また、LangGeniusの生成AIアプリケーション開発プラットフォーム「Dify」も併せて提供し、非エンジニアでもAIアプリケーションを開発できる環境整備を支援する。

 「弊社があらかじめ環境を構築したGPUサーバ1台を、お客さまのサイトに搬入してセッティングします。もちろん、既にお客様が運用しているGPUサーバにソフトウェアだけを導入することも可能ですが、その場合は個別対応となります」


リコー 佐々木亮氏

 こう語るのは、リコーで同製品の企画を担当した佐々木亮氏(リコーデジタルサービスビジネスユニット AIサービス事業本部 AI事業開発センター ビジネス企画室 AIソリューション企画1グループ)だ。環境の構築だけでなく、導入後の運用のために必要な知識やスキルを伝授する教育サービスや、Difyを使ったアプリケーション開発支援のプログラムも別途オプションで提供するという。

 このようなパッケージソリューションをうまく活用できれば、たとえ自社内に生成AIの高度なスキルやノウハウがなくとも、ローカルLLMの導入・活用がかなり現実的なものになる。佐々木氏も、「少なくとも環境構築に際しては、お客さま側で実施する作業はほとんどありません。将来的にリコーのLLMがアップデートされた際も、そのファイルとアップデート手順書を提供しますので、お客さま側で常に最新のLLMをご利用いただけます。導入して終わりではなく、その後の運用までしっかりカバーできるのが弊社のソリューションの特徴です」と、同社のサービスの充実ぶりをアピールする。

ローカルLLMの導入・運用にはどの程度のコストが掛かるのか?

 こうしたパッケージソリューションを導入する際には、どうしても一定の初期導入費用が発生する。短期的な利用や小規模な利用に限って言えば、確かにオンプレミス環境にローカルLLMの環境を構築するより、クラウドAIサービスを利用した方がコストを抑えられる可能性が高い。ローカルLLM導入によって得られる中長期的なメリットと初期導入コストの負担とを天秤にかけ、投資対効果を適切に判断する必要がある。

 先ほど挙げた「RICOH オンプレLLMスターターキット」の場合、標準構成では1500万円の初期導入コストが掛かるという。これには、ローカルLLMの利用に必要なハードウェアと、ソフトウェア一式とそのキッティング作業、それらをユーザーのオンプレミス環境に設置・設定する作業、導入時のシステム管理者向けの教育、導入後の製品サポート1年分などを含む。


リコー 安達真一氏

 さらにDifyによるAIアプリケーション開発の教育や、リコー製LLM以外のLLM導入といった個別対応を希望する場合には、別途オプション料金が掛かる。AIの回答精度のチューニングなどの相談も受け付けているが、個別のSI案件として対応することになるという。この点について、リコーの安達真一氏(リコーデジタルサービスビジネスユニット AIサービス事業本部 AI事業開発センター ビジネス企画室 AIソリューション企画1グループ リーダー)は次のように同社のスタンスを説明する。

 「お客さまの固有の業務内容や要件に合わせて、LLMの回答精度を向上させるためのSIも弊社の技術チームから提供できます。スターターキットはその手前の段階で、まずはお客さまがオンプレミス環境で安心して生成AIを利用できる基盤を迅速に整えることを目的としています。この環境で業務ドキュメントや実際のデータを用いた生成AIの業務適応に向けた試行・検証を実施することで、お客さまがその業務に最適な活用法や効果の範囲を見極められるようにするためのサービスとして位置付けています」

機微な情報を扱う業界で活用が広がる

 なお同社ではこれまで金融業のユーザー向けに、RAGを使ったデータ検索やコンテンツ生成の精度を高めるためのSIサービスを個別に提供してきた。しかし各社のニーズに類似点が多かったため、これらを標準機能として実装した「金融業務特化型LLM」を別途開発し、2025年10月から提供を始めている。同様に、医療業界のユーザーの間でも共通したニーズが多く寄せられるため、それらに応えるための「Difyアプリケーションのテンプレート」の開発・提供にも取り組んでいるという。

 こうしたアプリケーションテンプレートの一つに、金融機関で行われる融資稟議業務を支援するためのものがある。金融機関の担当者が融資稟議を行う際に、過去の関連する融資稟議書を素早く自然言語を使って検索できる仕組みや、RAGのデータベースに登録した商談情報や顧客企業のプロフィール情報などを基に、融資稟議書や事業性評価シートのドラフトを自動生成するアプリケーションのテンプレートを提供している。


金融機関における機微な情報もオンプレで処理できる(出典:リコーの提供資料)

 医療業界においても、「RICOH オンプレLLMスターターキット」を導入し、DifyでAIアプリケーションを内製した結果、患者の退院時に医師が作成する「退院サマリー」というドキュメントのドラフトを生成AIで自動生成するアプリケーションを実現した病院の事例も出てきている。

 このように現時点では特定の業界における事例が多いが、リコーでは今後、他の業界向けのアプリケーションテンプレートや、金融業界向け以外の業界特化型LLMの開発・提供にも力を入れていきたいとしている。

 なお同社のスターターキットはあくまでもローカルLLM導入・活用の「入口」に過ぎず、本格的な活用を実現するためにはユーザー側で乗り越えるべき課題も多いと佐々木氏は指摘する。

 「これはローカルLLMに限らずクラウドLLMを使う場合も同様なのですが、PoCの先の本番運用へと進むためには、現場の生成AI活用を促進するための施策が必要になってきます。そのために弊社では、製品を導入して終わりではなく、アプリケーション開発のサポートやテンプレートの提供、業種特化型LLMの開発・提供などを通じて、導入後の活用促進を積極的に支援していきたいと考えています」

 企業における生成AI活用で成果を出すには、各社固有のデータをいかに活用できるかが鍵になる。セキュリティやコンプライアンスを理由にクラウド型の生成AIが利用できない企業は、本稿の内容も参考に、ローカルLLMの導入を検討してほしい。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る