GPT-4.1

Nous lançons aujourd’hui une nouvelle série de modèles GPT qui offrent des améliorations majeures en codage, en suivi d’instructions et en gestion de contexte long — ainsi que notre tout premier modèle.

Trois nouveaux modèles sont désormais disponibles dans l’API : GPT-4.1, GPT-4.1 mini et GPT-4.1 nano. Ces modèles surpassent GPT-4o et GPT-4o mini sur tous les plans, avec des avancées notables en codage et en suivi d’instructions. Ils disposent également de fenêtres de contexte étendues, pouvant aller jusqu’à 1 million de jetons, avec une meilleure compréhension des contextes longs. Leur connaissance est actualisée jusqu’en juin 2024.

Performances de GPT-4.1 :

  • Codage : GPT-4.1 obtient 54,6% sur SWE-bench Verified, soit une amélioration de 21,4 points par rapport à GPT-4o et de 26,6 points par rapport à GPT-4.5, ce qui en fait un modèle de référence pour le codage.

  • Suivi d’instructions : Sur le benchmark MultiChallenge de Scale, GPT-4.1 atteint 38,3%, soit une amélioration de 10,5 points par rapport à GPT-4o.

  • Contexte long : Sur Video-MME, GPT-4.1 établit un nouveau record avec un score de 72,0% sur la catégorie longue sans sous-titres, une hausse de 6,7 points par rapport à GPT-4o.

Bien que les benchmarks offrent des indications précieuses, nous avons formé ces modèles pour maximiser leur utilité en conditions réelles, en collaboration étroite avec la communauté de développeurs.

La famille GPT-4.1 propose ainsi des performances exceptionnelles à un coût réduit et améliore les performances sur toute la courbe de latence.

Modèles mini et nano :

  • GPT-4.1 mini dépasse GPT-4o dans de nombreux tests, avec une latence réduite de moitié et un coût inférieur de 83%.

  • GPT-4.1 nano est notre modèle le plus rapide et économique, idéal pour des tâches telles que la classification ou l’auto-complétion, avec une fenêtre de contexte de 1 million de jetons.

Ces modèles sont également plus efficaces pour alimenter des agents capables de mener à bien des tâches de manière autonome.

Disponibilité :

GPT-4.1 est uniquement disponible via l’API. Dans ChatGPT, certaines améliorations ont été intégrées progressivement à la dernière version de GPT-4o.

Par ailleurs, la version Preview de GPT-4.5 sera retirée dans trois mois, le 14 juillet 2025, pour laisser place à GPT-4.1, qui offre de meilleures performances à moindre coût et latence.

Détail des performances :

  • Codage : GPT-4.1 excelle en résolution de tâches de codage, en édition de fichiers et en respect des formats de diff, tout en produisant moins de modifications inutiles.

  • Exemples concrets : Windsurf a observé une amélioration de 60% sur leur benchmark interne ; Qodo a constaté que GPT-4.1 générait de meilleures suggestions de revue de code dans 55% des cas.

  • Suivi d’instructions : GPT-4.1 est plus fiable pour suivre des formats spécifiques, éviter certaines instructions, suivre des ordres donnés, intégrer des exigences de contenu, trier des résultats, ou reconnaître ses propres limites (« je ne sais pas »).

  • Exemples : Blue J a constaté une amélioration de 53% dans l’interprétation de cas fiscaux complexes ; Hex a noté une fiabilité accrue dans l’analyse de bases de données SQL complexes.

  • Gestion du contexte long : GPT-4.1, mini et nano traitent jusqu’à 1 million de jetons et sont capables d’extraire efficacement des informations pertinentes.

  • Exemples : Thomson Reuters a amélioré de 17% la précision de leur assistant juridique CoCounsel ; Carlyle a constaté une amélioration de 50% dans l’extraction de données financières complexes.

Vision :

La famille GPT-4.1 est également performante en compréhension d’images. GPT-4.1 mini surpasse souvent GPT-4o sur les benchmarks visuels. En multimodalité (par exemple, pour l’analyse de longues vidéos sans sous-titres), GPT-4.1 atteint des performances records.

Tarification :

Grâce aux optimisations de nos systèmes d’inférence, GPT-4.1 est 26% moins cher que GPT-4o pour les requêtes médianes. GPT-4.1 nano est notre modèle le plus économique. De plus, nous augmentons la remise pour la mise en cache de contexte à 75% et n’appliquons pas de frais supplémentaires pour l’utilisation d’un contexte long.

Conclusion :

GPT-4.1 représente une avancée significative dans l’application pratique de l’IA. En répondant aux besoins réels des développeurs — en codage, suivi d’instructions et compréhension de contexte long —, ces modèles ouvrent de nouvelles perspectives pour la création de systèmes intelligents et d’agents autonomes. Nous sommes impatients de voir ce que vous réaliserez avec GPT-4.1.

GPT-4.1

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut