リコー 「Gemma 3 27B」を基盤に高性能日本語LLMを開発 オンプレミス導入を想定した省エネ型モデルを提供開始、エフサステクノロジーズ基盤にも搭載
株式会社リコーが、Googleのオープンモデル「Gemma 3 27B」を基盤に、オンプレミス環境へ最適化した日本語大規模言語モデル(LLM)を開発した。
独自のモデルマージ技術で性能を強化
リコーが開発した今回のLLMは、Gemma 3 27Bをベースにしながら、約1万5千件の独自インストラクションデータで追加学習したInstructモデルから複数のChat Vectorを抽出し、独自技術でマージして構成している。
この手法により、OpenAI「gpt-oss-20b」を含む最新の高性能オープンウェイトモデルと同等の実力を確認。非推論モデルならではの高い初期応答性と、ビジネス用途で求められる執筆能力を両立している。
PCサーバで構築可能、省エネ性も強み
モデルサイズは270億パラメータと小型ながら高性能を維持。専用GPUクラスタを必要とせず、PCサーバ等で構築できる点が特徴となる。電力消費が課題となるLLM導入において、省エネルギー性と環境負荷低減の観点でも利点が大きい。
エフサステクノロジーズ基盤に搭載し提供開始
同LLMは個別提供に加え、2025年12月下旬より、エフサステクノロジーズが提供する「Private AI Platform on PRIMERGY(Very Small モデル)」に量子化モデルとして搭載され、リコージャパン経由で提供を開始する。
同プラットフォームには、生成AIアプリケーションをノーコードで構築できる「Dify(ディフィ)」もプリインストール。リコージャパンの「Dify支援サービス」により、専門人材のいない企業でもスムーズにAI活用を始められる体制が整う。
推論性能強化や業種特化モデルを拡充
リコーは今後、推論性能の高度化や業種特化モデルの開発を進める方針。マルチモーダル技術との連携も視野に、LLMラインアップ全体の強化を図る。
