Google rend les modèles Gemini 2.5 généralement disponibles

Google rend les modèles Gemini 2.5 généralement disponibles
Bron: Google

Tout le monde peut désormais utiliser les nouveaux modèles Gemini 2.5.

Google a lancé aujourd’hui Gemini 2.5 Flash-Lite, une version particulièrement efficace de ses modèles d’IA existants, axée sur le traitement rapide et économique des requêtes. En outre, Gemini 2.5 Pro et Flash sont également désormais généralement disponibles.

Plus rapide et moins coûteux

Gemini 2.5 a été officiellement présenté en mars, mais les modèles n’étaient disponibles qu’en version préliminaire. Ils sont maintenant déployés de manière générale. Ils sont basés sur une architecture « mixed-of-experts », ce qui signifie que chacun possède plusieurs réseaux neuronaux. Lorsqu’un utilisateur saisit une requête, un seul de ces réseaux est activé.

Le modèle Flash-Lite traite les requêtes encore plus rapidement que Flash. Google affirme qu’il est conçu pour des applications telles que les traductions et les classifications, où une faible latence est nécessaire. « 2.5 Flash Lite offre généralement une qualité supérieure à 2.0 Flash-Lite en matière de codage, de mathématiques, de science, de raisonnement et de benchmarks multimodaux. » Flash-Lite coûte 0,10 dollar par million de tokens d’entrée, soit dix fois moins que le modèle Pro le plus puissant.

Tous les modèles 2.5 sont multimodaux et prennent en charge jusqu’à un million de tokens par requête. Ils fonctionnent sur les puces AI TPUv5p de Google. Le prix du modèle Flash intermédiaire est augmenté : les tokens d’entrée coûtent maintenant 0,30 dollar par million de tokens au lieu du prix précédent de 0,15 dollar. Le prix séparé pour le mode de réflexion disparaît. Via le mode de réflexion, le modèle obtient une qualité de sortie supérieure car il réfléchit plus longtemps à sa réponse.