Metaは、推論タスク向けに最適化され、モバイルデバイス上で実行できるように設計されたMobileLLM-R1を発表しました。これにより、リソース要件が削減され、ポータブルAIのパフォーマンスが向上します。
生成AIが軽量でローカライズされたモデルへと進化する中、Metaは最新のMobileLLM-R1シリーズモデルのオープンソースリリースを発表しました。これらのモデルはモバイルデバイス上で直接展開・実行でき、数学、プログラミング、科学的な問題の推論に重点を置いています。この動きは、「デバイス上AI」に対する市場の需要に応えるだけでなく、大手テクノロジー企業が推論機能の向上に継続的に投資していることを実証するものでもあります。
MobileLLM-R1は、MetaのMobileLLMファミリーの新製品であり、合理化と特化を特徴としています。このシリーズには、ベースモデルと教師あり微調整(SFT)後の最終モデルの2つのモデルが含まれており、パラメータ数はそれぞれ1億4,000万、3億6,000万、9億5,000万です。ベースモデルは4Kトークンのコンテキスト長をサポートし、最終モデルは32Kトークンまで拡張できるため、複雑な問題への対応能力が大幅に向上します。
Meta社は、MobileLLM-R1はチャットボット向けの汎用言語モデルではなく、数学の問題解決、プログラミング(PythonやC++などの言語に対応)、科学研究関連タスクなど、特定の推論シナリオ向けに設計されていることを強調しています。
最大バージョンであるMobileLLM-R1 950Mは、5TB未満の高品質データ(トークン用の事前学習データはわずか2TB)で学習されましたが、そのパフォーマンスは依然として優れています。Meta社によると、MATH、GSM8K、MMLU、LiveCodeBenchなど、複数のベンチマークにおいて、MobileLLM-R1は36TBの学習データを使用したQwen 3 0.6Bモデルを上回りました。
より詳細な比較では、MobileLLM-R1 950Mは、数学においてOlmoの1.24Bの5倍、SmolLMの1.7Bの2倍の精度を達成しました。また、コード生成能力と問題解決能力においても優位に立っています。
より小型のMobileLLM-R1 140M(ベース)もSmolLM2-135Mを上回ります。360Mバージョンは、Gemma-3-270M-ptとSmolLM2-360M(ベース)の両方を大幅に上回り、モデルアーキテクチャと学習戦略におけるMetaの最適化努力を際立たせています。
注目すべきことに、MetaはMobileLLM-R1をHugging Faceホスティングプラットフォームを通じて同時に一般公開し、開発者が簡単にダウンロードして使用できるようにApache 2.0ライセンスの下でリリースしました。vLLM推論エンジンで直接実行できます。モデルアーキテクチャをLlama4ForCausalLMとしてModelRegistryに登録するだけでデプロイできます。これを求める開発者にとって、これはクラウドリソースのみに依存することなく、モバイルデバイス上でカスタマイズされたAIアプリケーションをより低コストで構築できることを意味します。
MobileLLM-R1は、Metaの「小型ながらもパワフル」なAIモデル戦略における新たな進歩を表しています。推論機能に重点を置き、リソース要件を削減することで、AIをユーザーのデバイスや日常生活に真に関連性の高いものにします。より多くのメーカーがエッジツーエッジAIソリューションを推進するにつれて、スマートフォン、ノートパソコン、さらにはIoTデバイスのAI推論機能は、新たなアップグレードの波を巻き起こすでしょう。