Google lance Gemini 2.0 : la base de l’expérience agent

Google lance aujourd’hui son dernier modèle Gemini 2.0, qui devrait servir de base aux expériences des agents. Le premier membre de sa famille a également été annoncé : Gemini 2.0 Flash.

Google lance son dernier modèle d’IA, Gemini 2.0, qui, selon Google, est le modèle d’IA le plus avancé à ce jour, avec des capacités multimodales telles que l’image native et la sortie audio, et l’utilisation intégrée d’outils. Ce modèle devrait constituer la base d’agents capables de planifier, de se souvenir et d’agir en fonction de vos conseils.

Le premier membre de la famille Gemini 2.0 a déjà été annoncé : Gemini 2.0 Flash. Ce modèle est disponible en tant que modèle expérimental pour les développeurs via l’API Gemini dans Google AI Studio et Vertex AI. Les utilisateurs du monde entier peuvent déjà utiliser la version expérimentale de 2.0 Flash, optimisée pour le chat. En janvier, le modèle sera mis à la disposition de tous, avec plusieurs tailles de modèles.

Gemini 2.0 Flash

Google lance aujourd’hui son premier modèle de la famille Gemini 2.0 : Gemini 2.0 Flash. Ce modèle offre une faible latence et des performances améliorées. Grâce à l’API Gemini dans Google AI Studio et Vertex AI, les développeurs peuvent commencer à utiliser ce modèle dès maintenant.

lire aussi

Google lance Gemini 2.0 : la base de l’expérience agent

En outre, les utilisateurs du monde entier peuvent déjà utiliser une version expérimentale de Flash 2.0 optimisée pour le chat. Vous pouvez facilement la sélectionner dans le menu déroulant sur l’ordinateur de bureau et dans la version mobile.

Gemini 2.0 Flash s’appuie sur le succès de 1.5 Flash, le modèle de Google actuellement le plus populaire auprès des développeurs. Selon certains critères de référence, Gemini 2.0 Flash serait plus performant que 1.5 Flash, avec notamment une vitesse deux fois plus élevée.

lire aussi

Google lance Gemini 2.0 : la base de l’expérience agent

Mais ce nouveau modèle ne s’arrête pas là. Outre la prise en charge des entrées multimodales telles que les images, la vidéo et l’audio, Flash 2.0 prend désormais en charge les sorties multimodales telles que les images générées directement et mélangées à du texte, ainsi que l’audio multilingue orientable de type texte-parole (TTS).

Expérience « agentique

Parallèlement au lancement de son dernier modèle Gemini, Google souligne l’importance d’un développement responsable de l’IA. « Nous pensons que le développement responsable de l’IA doit se faire dès le début. Pour tester comment les expériences d’agents peuvent fonctionner de manière sûre et pratique, nous présentons un certain nombre de prototypes de recherche et d’expériences à notre communauté de testeurs de confiance », a déclaré Google.

lire aussi

Google lance Gemini 2.0 : la base de l’expérience agent

Ces prototypes de recherche comprennent le projet Astra, un assistant IA universel doté de capacités de raisonnement multimodal ; le projet Mariner, un prototype axé sur les interactions humaines complexes via Gemini 2.0 ; Jules, un agent de codage IA expérimental intégré dans les flux de travail GitHub ; et des agents spécifiques à un domaine qui soutiennent à la fois le monde virtuel des jeux vidéo et la robotique.

bulletin

Abonnez-vous gratuitement à ITdaily !

  • This field is for validation purposes and should be left unchanged.