La famille de modèles Gemini s’enrichit de deux nouvelles versions expérimentales et la disponibilité des modèles existants est accrue.
Dans un blog, Google a annoncé qu’il mettait Gemini 2.0 Flash à la disposition de tous via Google AI Studio et Vertex AI, et qu’il introduisait de nouveaux modèles expérimentaux.
Gemini 2.0 Pro et 2.0 Flash Thinking Expérimentale
Parallèlement au déploiement de Gemini 2.0 Flash, Google lance une version expérimentale de Gemini 2.0 Pro. Ce modèle excelle dans les invites et les codages complexes et dispose d’une fenêtre contextuelle (c’est-à-dire la quantité de texte dont le modèle peut se souvenir) de 2 millions d’éléments. Cela lui permet de traiter des documents et des vidéos volumineux et même d’invoquer des outils tels que Google Search.
En outre, Google a introduit le modèle expérimental 2.0 Flash Thinking. Ce modèle expérimental, basé sur Flash Thinking 2.0, est optimisé pour la logique et le raisonnement et peut traiter les invites en plusieurs étapes. Il vise à donner aux utilisateurs un aperçu des processus de pensée qui se cachent derrière les réponses générées.
2.0 Flash-Lite : Petit et économique
Autre nouveauté, Gemini 2.0 Flash-Lite, le modèle d’IA le plus économique de Google. Il conserve la vitesse et le prix de 1.5 Flash, mais surpasse le modèle dans la plupart des tests de référence. Avec une fenêtre contextuelle de 1 million de jetons et une entrée multimodale, il est idéal pour des secteurs tels que le marketing et la vente au détail. Flash-Lite est actuellement déployé en avant-première publique par l’intermédiaire de Google AI Studio et de Vertex AI.