Mistral Large 3は、Mistral AIが開発した最先端の汎用マルチモーダルなMixture-of-Experts(MoE)モデルです。2025年12月2日にリリースされ、410億のアクティブパラメータと合計6750億のパラメータを持ちます。NVIDIA H200 GPU 3,000基でゼロからトレーニングされました。

このモデルは、256,000トークンという非常に長いコンテキストウィンドウをサポートし、テキスト生成に加えて画像理解機能(マルチモーダル)を備えています。25億パラメータのビジョンエンコーダがアーキテクチャに統合されています。英語、フランス語、スペイン語、ドイツ語、イタリア語、ポルトガル語、オランダ語、中国語、日本語、韓国語、アラビア語を含む数十の言語をサポートし、特に非英語および非中国語の多言語会話処理に優れています。

長文推論、多言語テキスト処理、指示追従において優れた性能を発揮し、ネイティブな関数呼び出しとJSON出力による最高クラスのエージェント機能を提供します。本番環境レベルのアシスタント、検索拡張システム、科学的ワークロード、複雑なエンタープライズワークフロー向けに設計されています。Apache 2.0ライセンスの下でオープンウェイトモデルとしてリリースされており、Hugging Face、Amazon Bedrock、Azure Foundryなどのプラットフォームで利用可能です。