Claude obtient une fenêtre contextuelle d’un million de tokens pour des prompts plus longs

claude

Anthropic double la fenêtre contextuelle pour faire face à la concurrence de GPT-5.

Anthropic permet désormais à ses clients professionnels d’envoyer des prompts textuels beaucoup plus longs en une seule fois à son modèle d’IA Claude Sonnet 4. La fenêtre contextuelle dispose maintenant d’un million de tokens, soit l’équivalent d’environ 750 000 mots ou 75 000 lignes de code.

Une mémoire multipliée par cinq

Selon Brad Abrams, dirigeant d’Anthropic, dans TechCrunch, les grandes fenêtres contextuelles sont particulièrement utiles pour les tâches de programmation longues et complexes qui peuvent durer des heures.

La limite de Sonnet 4 est désormais cinq fois plus importante, et sa fenêtre contextuelle est deux fois plus grande que celle de GPT-5, qui offre 400 000 tokens. Cela rend Claude plus performant dans les tâches de codage agentiques : le modèle d’IA peut travailler de manière autonome sur un problème pendant des heures sans perdre de contexte important.

Concurrence avec GPT-5

GPT-5 reste un concurrent solide avec des prix compétitifs et de fortes performances. Néanmoins, Anthropic souligne que leur modèle ne peut pas seulement gérer plus de tokens, mais les comprend aussi efficacement. Pour les demandes dépassant 200 000 tokens, le tarif API augmente : 6 dollars par million de tokens d’entrée et 22,50 dollars par million de tokens de sortie.

La mise à niveau est disponible via l’API d’Anthropic et via des partenaires cloud comme Amazon Bedrock et Google Vertex AI. Les plateformes de développement comme GitHub Copilot, Windsurf et Cursor utilisent particulièrement Claude de manière intensive.