株式会社Preferred Networksが開発した国産の大規模言語モデル(LLM)「PLaMo」を検証して見えた、その特徴と最新アップデートについてまとめてみました!
1. PLaMo(プラモ)とは?
今回使用したのは、株式会社Preferred Networksが開発した大規模言語モデル(LLM)「PLaMo」です。
PLaMoは、日本発のモデルとして日本語の自然さやビジネス習慣に強いのが特徴です。つい先日(2026年1月28日)、最新の「PLaMo 2.2 Prime」もリリースされました。そこで今回は、PLaMo 2.1 Primeでの検証結果をベースに、PLaMo 2.2 Primeでのアップデート情報も合わせてまとめています。
2. PLaMoの特徴
実際にPLaMo 2.1 Primeを使い、複雑なマトリクス表などの専門資料を読み込ませてみたところ、以下2つの特徴が見られました。
日本語の自然さ
よくありがちな「英語を直訳したような違和感」がありませんでした。日本のビジネスシーンで日常的に使われる敬語や言い回しが自然にアウトプットされるため、回答をそのまま実務(メールや報告書)に転用しやすいという大きな利点があります。
情報抽出の丁寧さ
実務資料(マトリクス表など)の読み解きにおいて、非常に「丁寧」でした。 一般的なAIは効率よく要約しようとし、細部を切り捨てることがありますがPLaMoは資料の隅にある注釈や、特定のカテゴリー情報も拾い出してリストアップしていました。
3. 検証で見えたPLaMo 2.1 Primeの課題
検証では実務上のリスクとなり得る傾向も確認されました。それは、高い文脈理解力ゆえに「行間を読みすぎてしまう」という点です。
- 課題: 曖昧な指示に対してユーザーの意図を先回りしようとするあまり、元のドキュメントには存在しない情報を補完したり、指示されていない前提条件を独自に設定して回答したりするケースがありました。
- リスク: 調達や規定参照のような「事実が絶対」である業務において、AIによる良かれと思っての加筆は、誤った判断を招くリスクとなります。
もちろん、AIの回答を人間がファクトチェックするのは、どのモデルを使う上でも重要です。しかし、PLaMoは日本語が自然なだけに、混じり込んだ「事実ではない推論」を見逃してしまうリスクには注意を払う必要があります。
4. 最新PLaMo 2.2 Primeの進化
こうした課題に対し、2026年1月28日にリリースされた最新のPLaMo 2.2 Primeでは、大きな改善が加えられています。
https://tech.preferred.jp/ja/blog/plamo-2-2-prime-release/
指示追従能力(Instruction Following)の進化
英語・日本語両方の指標で、指示への忠実さが向上しています。
- 英語指標 (IFBench): 2.1 Primeの29.0%から37.8%へ向上。非Reasoning(推論特化型ではない)モデルとして、少ないトークン数で効率的に応答できる強みを維持しています。
- 日本語指標 (JFBench / JFTrain): 日本語における指示追従性能を評価するためにJFBenchというベンチマークを構築しました。出力フォーマットなどの制約を守る能力が飛躍的に向上し、GPT-5.1といったフロンティアモデルに匹敵する性能を持っています。
Multi-turnロールプレイ能力
チャットやエージェントとして活用する際に不可欠な、文脈を維持する能力も強化されています。
- 結果: 「3文以内で発言する」「ト書きを禁止する」といった厳格なルールを設定した対話テストにおいて、指示追従率が2.1 Primeの7.03%から23.7%へ大幅に改善されました。
- 今後の課題: GPT-4.1 mini(66.7%)などのフロンティアモデルとの差を埋める。
まとめ
今回の検証を通じて、PLaMoは「日本語の質の高さ」と「資料を読み解く丁寧さ」において、実務で十分に使用できる実力を持っていると感じました。
最新モデルでは指示追従能力が向上したことにより、課題である過剰な推論も抑えられ、より「制御可能な実務ツール」へと近づいています。国産AIのさらなる進化に、引き続き注目していきたいと思います。