Mistral lance la famille Mistral 3 de modèles d’IA open source

Mistral lance la famille Mistral 3 de modèles d’IA open source

Mistral a annoncé la famille Mistral 3, avec de nouveaux grands modèles de langage pour les environnements cloud et edge.

Mistral présente la nouvelle famille Mistral 3. Les modèles, dont Mistral Large 3 et la gamme MinistRal, sont tous disponibles en open source sous la licence Apache 2.0. La gamme combine de grands modèles pour les charges de travail exigeantes avec des variantes compactes pour les applications locales et edge. Les entreprises et les développeurs peuvent adapter et exécuter eux-mêmes les modèles, du centre de données à l’ordinateur portable ou au système embarqué.

Source ouverte

Mistral Large 3 est un modèle mix-of-experts avec 41 milliards de paramètres actifs et 675 milliards de paramètres totaux. Le modèle a été entraîné à partir de zéro sur environ 3000 GPU Nvidia H200 et se compose de trois variantes : base, instruction et raisonnement.

Selon Mistral, Large 3 offre des performances comparables à celles des autres modèles d’instruction ouverts sur les invites générales. Le modèle prend en charge la saisie d’images et les dialogues multilingues (dans d’autres langues que l’anglais et le chinois). Dans le classement de la communauté ouverte LMArena, Mistral Large 3 apparaît en bonne place dans la catégorie des modèles ouverts non raisonnants.

lire aussi

ASML investit 1,3 milliard d’euros dans Mistral AI et devient le principal actionnaire

La gamme MinistRal 3 se concentre sur les scénarios locaux. Elle se compose de modèles avec 3, 8 et 14 milliards de paramètres. Pour chaque taille, il existe trois variantes : base, instruction et raisonnement, chacune avec compréhension de l’image et prise en charge multilingue.

Mistral affirme que les modèles MinistRal ont un rapport coût/performance favorable, notamment parce qu’ils génèrent moins de jetons pour des tâches comparables. Pour les cas d’utilisation où la précision est essentielle, les variantes de raisonnement peuvent « réfléchir » plus longtemps. Mistral cite en exemple un score de 85 % au benchmark AIME ’25 pour la variante de raisonnement MinistRal 14B.

Mistral 3 est désormais disponible sur différents canaux, notamment Azure Foundry, Mistral AI Studio, Hugging Face ou Amazon Bedrock.