2026.03.27 | テクノロジー

Sakana AIが開発したNamazu、AIを日本仕様に変える仕組みとは

AIは便利になった一方で、「なぜか使いづらい」と感じる場面もあります。その背景には、開発された国ごとの価値観や情報の扱い方の違いがあります。Sakana AIが開発した「Namazu」は、既存の高性能モデルを日本向けに調整することで、この違和感に向き合った取り組みです。本記事では、その仕組みと意味を整理します。

「AIは中立ではない」──なぜ国ごとの最適化が必要なのか

大規模言語モデル(LLM)は一見すると中立に見えますが、実際にはそうではありません。学習データや設計方針には特定の国や地域の価値観が反映されるため、政治や歴史といったテーマでは、回答の内容や出し方に偏りが生まれることがあります。たとえば海外で開発されたモデルでは、特定の話題に対して回答を控えたり、十分な情報を提示しないケースが確認されています。こうした挙動は、各国の情報統制や文化的背景の違いが影響していると考えられます。
一方で、最先端のモデル開発はコストの増大により、米国や中国を中心とした限られた企業に集約されています。そのため、多くの国では既存の高性能モデルを前提に活用する必要があります。

そこで重要になるのが「事後学習(post-training)」です。これは完成済みのモデルに追加の学習を行い、特定の文化や社会的文脈に合わせて振る舞いを調整する手法であり、性能そのものではなく「どう答えるか」を整えるアプローチです。Sakana AIはこの手法を用い、日本の利用環境に適した応答ができるようモデルを調整しました。では、実際にどのように性能を保ったまま調整が行われているのでしょうか。

「性能を落とさずに調整する」Namazuの技術的ポイント

Namazuシリーズは、DeepSeekやLlamaなどのオープンウェイトモデルをベースに開発されています。オープンウェイトとは、学習済みの重みが公開されているモデルを指し、既存の高性能モデルを活用しながら改良できる点が特徴です。
通常、AIに調整を加えると、ある性能を改善した分だけ別の能力が下がることがあります。しかしNamazuでは、推論・知識・コーディングといった基礎能力の評価において、ベースモデルとほぼ同等の性能を維持しています。つまり「賢さ」を損なわずに調整が行われています
そのうえで改善されているのが、中立性と事実正確性です。政治・歴史・外交といったテーマに対して、客観的な立場から多角的に情報を提示する能力が強化されています。

さらに、ベースモデルで見られた「回答を拒否する挙動」も大きく改善されています。元となるモデルでは多くの質問に対して回答を控える傾向がありましたが、Namazuでは事実に基づいて応答できる状態へと調整されています。日本語に関しても主要な評価指標で同等水準を維持しており、性能と調整の両立が実現されています。こうした特徴から、単なる精度向上ではなく「出力の質を整える技術」であることが見えてきます。
では、そのモデルは実際にどのような形で使われているのでしょうか。

「AIを使う体験」まで設計されたSakana Chat

Namazuはモデル単体にとどまらず、実際に使う環境として「Sakana Chat」に組み込まれています。ここで注目すべきなのが、Web検索機能の統合です。
検索機能により、モデルはリアルタイムで情報を取得し、複数の情報源をもとに内容を整理して回答します。これにより、最新のニュースや動向といった時間に依存する情報にも対応できます。また、政治的にデリケートなテーマに対しても、事実に基づいて多角的に説明する挙動が確認されています。従来のモデルで見られた「回答を避ける」傾向に対して、実用面での改善が図られています。

一方で、すべての質問に検索を使うわけではありません。哲学的な問いのように正解が定まらない内容については、内部知識のみで簡潔に回答します。質問の性質に応じて処理を切り替える設計です。さらに、約1,000人規模のテストを通じて得られたフィードバックが反映されており、実際の利用を前提とした改善が進められています。モデルの性能だけでなく、「どう使われるか」まで設計されている点が、この取り組みの特徴といえます。

まとめ

いかがだったでしょうか?
Namazuが示したのは、既存の高性能モデルを活用しながら、利用環境に合わせて調整するという現実的なアプローチです。性能を維持したまま応答の質を整えることで、AIの使い勝手は大きく変わります。今後は、モデルそのものだけでなく、その調整方法も重要なポイントになっていきます。