OpenAI introduit avec o1-pro une version plus puissante du populaire modèle o1.
OpenAI a lancé le modèle o1-pro, qui devrait fournir « des réponses systématiquement meilleures » que le modèle o1 original. Cela est dû à une utilisation accrue de la puissance de calcul et au fait que les modèles de raisonnement prennent le temps de réfléchir à leur réponse à la requête de l’utilisateur.
Prix élevé
Pour le moment, le modèle n’est disponible que pour les développeurs ayant dépensé au moins cinq dollars pour les services API d’OpenAI. Le prix est fixé à 150 dollars par million de tokens. Cela équivaut à 750 000 mots saisis et 600 dollars par million de tokens générés. Cela fait de o1-pro le modèle le plus coûteux à ce jour.
OpenAI double le prix de GPT-4.5 (75 dollars par million de tokens) pour o1-pro, et il est dix fois plus cher que le modèle o1 standard (15 dollars par million de tokens). La seule chose que l’on obtient pour ce prix est une meilleure puissance de calcul et donc de meilleures réponses. Les spécifications sont similaires à celles de o1.
Les développeurs déjà enthousiastes
OpenAI pense que les développeurs sont prêts à payer ce prix plus élevé. « O1-pro dans l’API est une version de o1 qui utilise plus de puissance de calcul pour réfléchir plus intensément et donner des réponses encore meilleures aux problèmes les plus difficiles », explique un porte-parole de l’entreprise à TechCrunch. « Après avoir reçu de nombreuses demandes de notre communauté de développeurs, nous sommes enthousiastes de l’intégrer à l’API pour fournir des réponses encore plus fiables. »
Reste à savoir si les utilisateurs ordinaires seront aussi enthousiastes. En décembre, o1-pro avait déjà été proposé aux abonnés de ChatGPT Pro, mais le modèle n’avait pas reçu un accueil extraordinaire. Selon les utilisateurs, il était encore loin d’être parfait.