OpenAI a lancé une nouvelle version améliorée du modèle GPT. GPT-5.4 peut utiliser des outils de manière autonome, mieux analyser les images et consomme moins de tokens.
Dans un blog, OpenAI annonce GPT-5.4. La nouvelle version du modèle GPT est immédiatement disponible via ChatGPT, Codex ou sous forme d’API. GPT-5.4 améliore notamment les capacités agentiques et de traitement d’images, et devrait fonctionner plus efficacement que GPT-5.2.
OpenAI a considérablement accéléré le rythme des sorties de GPT. GPT-5.2 n’a été annoncé qu’en décembre. Le modèle GPT-5.3 Instant, déployé il y a trois jours, n’était rien de plus qu’un tremplin vers GPT-5.4. Ce dernier se décline en trois versions : un modèle de base, GPT-5.4 Thinking et GPT-5.4 Pro.
Travailler de manière autonome
OpenAI affirme que GPT-5.4 est adapté au travail intellectuel et met en avant les benchmarks nécessaires pour étayer cette affirmation. En pratique, le modèle améliore les capacités agentiques de ChatGPT pour travailler de manière autonome. Le modèle peut utiliser un ordinateur sans aide et déterminer, pour chaque tâche, quels outils ou documents sont nécessaires à son exécution. Ainsi, vous n’avez plus besoin de fournir à ChatGPT une liste d’outils avec lesquels travailler.
lire aussi
Les agents d’IA font trembler l’industrie technologique : le SaaS a-t-il encore un avenir ?
GPT-5.4 est également beaucoup plus flexible que ses prédécesseurs. Le modèle peut « changer de cap » au milieu d’une réponse pour mieux aligner le résultat sur vos besoins, sans avoir à saisir de prompts de suivi. Le modèle Thinking est doté de meilleures capacités de recherche et conserve mieux le contexte lors de problématiques complexes. Les erreurs factuelles dans les réponses ont diminué de dix-huit pour cent.
Une meilleure vision
GPT-5.3 n’est pas seulement un meilleur penseur, le modèle voit aussi davantage grâce à une vision par ordinateur améliorée. La vision par ordinateur est la capacité d’un algorithme à extraire et analyser des données significatives à partir d’images. Cela vous permet de soumettre au modèle des images à une très haute résolution, jusqu’à 10 millions de pixels, sans avoir à les compresser. Ainsi, les détails ne sont pas perdus et le modèle peut extraire des informations plus précises de l’image.
Selon OpenAI, cela profite également à d’autres compétences. Sur le benchmark OSWorldVerified, une simulation qui teste la capacité à interagir avec des applications, GPT-5.4 obtient un score de 75 pour cent, ce qui est supérieur au score obtenu par l’humain moyen à ce test (72,4 pour cent). Le modèle obtient 87,3 pour cent en analyse de feuilles de calcul : huit pour cent de plus que GPT-5.2. La nouvelle version gère également mieux les présentations et la navigation sur Internet.
Moins gourmand en tokens
L’amélioration des capacités s’accompagne souvent d’un coût plus élevé, car les grands modèles absorbent les tokens plus rapidement. En conséquence, en tant qu’utilisateur, vous atteignez parfois votre limite d’abonnement en un rien de temps. Cela ne devrait pas être le cas avec GPT-5.4 : selon OpenAI, le modèle consomme jusqu’à soixante-dix pour cent de tokens en moins pour des prompts similaires par rapport à GPT-5.2.
En contrepartie, on note une légère augmentation du prix par token. Le prix d’entrée passe de 1,75 dollar par million de tokens à 2,5 dollars, et le prix de sortie à 15 dollars par million de tokens. Pour la version Pro, il s’élève à trente dollars (entrée) et 180 dollars (sortie) par million de tokens.
Manœuvre de diversion
Le moment choisi pour le lancement de GPT-5.4 ne pouvait pas être mieux choisi pour OpenAI. L’entreprise fait l’objet de nombreuses critiques pour avoir soufflé le contrat du Pentagone à Anthropic. OpenAI est accusée d’opportunisme pur et simple et de communication désordonnée, et a même vu des utilisateurs passer chez son rival. Avec un nouveau modèle d’IA, OpenAI espère que l’attention se portera à nouveau sur sa technologie.
lire aussi
