Mistral AI révèle l’impact environnemental de son plus grand modèle d’IA

Mistral AI révèle l’impact environnemental de son plus grand modèle d’IA

La start-up française Mistral AI est la première à cartographier l’empreinte écologique d’un LLM.

Les utilisateurs de l’IA générative savent qu’elle consomme beaucoup d’énergie et d’eau. L’ampleur de cette consommation reste souvent floue. Dans un effort de transparence, Mistral AI partage pour la première fois des chiffres détaillés sur l’impact environnemental de son modèle Mistral Large 2.

L’entraînement consomme le plus d’énergie

85,5 % des émissions de CO₂ et 91 % de la consommation d’eau surviennent pendant l’entraînement et l’exécution du modèle qui compte 123 milliards de paramètres. Ces chiffres proviennent d’un nouveau rapport de Mistral.

Au total, environ 20 000 tonnes de CO₂ ont été émises et 281 000 mètres cubes d’eau ont été consommés, soit l’équivalent de 112 piscines olympiques. La consommation de matériaux a également été cartographiée, avec un impact important de l’infrastructure électrique des centres de données : éoliennes, panneaux solaires et même centrales à charbon.

Modèles plus petits, impact plus faible

Lors de l’inférence, la consommation est nettement plus faible. La génération d’une page de texte nécessite environ 45 ml d’eau et 1,14 gramme de CO₂. Mais cela s’accumule tout de même considérablement.

Selon Mistral, les modèles plus petits peuvent faire la différence. Ils nécessitent moins d’entraînement, fonctionnent plus efficacement et donnent souvent de meilleurs résultats pour des tâches spécifiques. En outre, le regroupement intelligent des requêtes d’IA aide à prévenir le gaspillage.

Appel à la transparence

Mistral appelle les autres entreprises d’IA à désormais communiquer leur impact environnemental selon des normes claires et internationalement reconnues. C’est la seule façon pour les entreprises et les gouvernements de faire des choix éclairés. Le rapport lui-même identifie trois points d’attention cruciaux : l’impact de l’entraînement, le coût de l’inférence, et la relation entre les deux sur la durée de vie d’un modèle.