2026.03.25 | テクノロジー

Rakuten AI 3.0を解説!日本語性能とMoE構造の特徴とは

楽天が提供を開始した「Rakuten AI 3.0」は、日本語に最適化された大規模AIモデルとして注目されています。約7,000億パラメータという規模を持ち、日本語ベンチマークでも高いスコアを記録しました。では、その性能は実際にどの程度のものなのか。評価結果と仕組みの両面から、その特徴を整理していきます。

Rakuten AI 3.0の実力はどこにあるのか

Rakuten AI 3.0は、日本語に関する複数の評価指標において高いスコアを記録しています。評価には、日本の文化や歴史への理解を測る「JamC-QA」、大学院レベルの推論力を問う「MMLU-ProX」、競技レベルの数学問題に対応する「MATH-100」、指示への応答精度を確認する「M-IFEval」が用いられています。これらはそれぞれ異なる能力を測る指標であり、単一の性能ではなく、モデル全体のバランスを見るためのものです。Rakuten AI 3.0は、こうした複数の項目で安定したスコアを示しており、とくに日本語理解や指示への対応力において一定の強みが確認されています。実際、一部の指標ではgpt-4oを上回る結果も見られます。

ただし、すべての分野で最も高いスコアを持つわけではありません。数学や推論の領域では、他の大規模モデルが上回る結果も確認されています。こうした評価から見えてくるのは、特定の能力に特化したモデルではなく、日本語環境において幅広いタスクに対応できる設計であるという点です。では、このバランスの取れた性能は、どのような仕組みによって実現されているのでしょうか。

高性能を支える仕組みと公開の意味

Rakuten AI 3.0は、約7,000億パラメータの大規模モデルであり、「Mixture of Experts(MoE)」と呼ばれる構造を採用しています。これは複数のサブモデルの中から、入力内容に応じて必要なものだけを動かす仕組みで、処理の効率を保ちながら精度の高い出力を行う設計です。さらに、オープンソースの既存モデルをベースにしつつ、楽天独自のバイリンガルデータや研究成果を組み合わせて学習されています。こうしたデータは、日本語特有の表現や文脈、文化的な背景への理解を補強する役割を担っており、文章作成やコード生成、文書の解析といった幅広い用途に対応できる土台となっています。

加えて、本モデルはApache 2.0ライセンスで公開されており、楽天の公式リポジトリから無償でダウンロード可能です。商用利用も認められているため、企業や開発者が自社サービスに組み込む選択肢も現実的になります。また、経済産業省とNEDOが推進する「GENIACプロジェクト」の支援を受けて開発されている点も特徴で、日本国内におけるAI開発の基盤づくりという役割も担っています。
性能だけでなく、誰がどのように使えるのかという点まで含めて設計されていることが、このモデルのもう一つの特徴と言えるでしょう。

まとめ

いかがだったでしょうか?
Rakuten AI 3.0は、日本語に最適化された大規模AIモデルとして複数の指標で高い性能を示しており、MoE構造や独自データの活用によって、幅広いテキスト処理に対応できる点も特徴です。さらに、無償公開によって開発やサービスへの組み込みも現実的になっており、今後どのように活用されていくのかにも注目が集まりそうです。