Temps de lecture : 2mn

Hello,

OpenAI met le feu aux poudres avec GPT-5.
Sauf qu’ils nous ont réservé une surprise : des modèles open-source.

Théo

OpenAI sort GPT-5, son modèle le plus puissant à ce jour.
Sauf que l’entreprise a aussi publié deux modèles open-weight téléchargeables.

L’essentiel :

  • GPT-5 aligne une fenêtre de contexte jusqu’à 256 000 mots, de meilleurs scores en code (74,9 % sur SWE-bench Verified), science (89,4 % sur GPQA Diamond) et une planification en plusieurs étapes sur les tâches complexes.

  • Le modèle décide quand réfléchir plus longtemps pour améliorer le raisonnement, avec un contrôle de la durée de réflexion pour les pros.

  • Tarifs pour les développeurs : 1,25 $/M tokens en entrée et 10 $/M en sortie (versions mini/nano moins chères).

  • Sauf qu’OpenAI publie aussi gpt-oss-120b et gpt-oss-20b-two, des modèles ouverts destinés à créer des agents.
    Ils sont personnalisables et gratuits, ce qui rogne sur le terrain de Meta et de DeepSeek.

  • En pratique, ces modèles “ouverts” sont performants sur le raisonnement, mais restent moins fiables que GPT-5 et ne sont pas open-source au sens strict.

    Un modèle open-weight met à disposition une version basique de son code pour l’exécuter et le personnaliser, mais sans ouvrir ni les données ingérées, ni une licence réellement libre et redistribuable.

Bref, GPT-5 plus mûr et très tourné vers l’automatisation.

En parallèle, leurs modèles open-weight témoignent d’un virage dans la stratégie de la boîte.

Google déploie Deep Think, une variante de Gemini 2.5 pour ses abonnés AI Ultra, qui étend le temps de réflexion et multiplie les pistes de solution en parallèle.

L’essentiel :

  • Un temps de réflexion prolongé et une intégration de raisonnement parallèle.
    En gros, le modèle explore plusieurs hypothèses en même temps, les combine, puis tranche.

  • Il obtient un niveau médaille de bronze aux Olympiades internationales de math 2025, et sa variante recherche décroche l’or.

    Avec en plus des progrès en code (LiveCodeBench), en sciences et en planification.

  • La fonctionnalité est disponible dans l’app Gemini via le bouton “Deep Think”

  • Problème : des refus “par prudence” sur des demandes bénignes, une latence supérieure quand on pousse la réflexion, et un accès restreint.

Google arrive tard sur le “raisonnement profond”, mais leur performance est solide.

Ils devront convaincre que la lenteur du modèle permet de meilleures réponses sur les tâches ardues.

Reste à voir si le modèle fera le poids face au tsunami OpenAI.

Tim Cook prononce des aveux : l’IA est “aussi importante, voire plus” que le web ou le smartphone.

Sauf qu’Apple a raté son départ.

L’essentiel :

Apple doit y aller. Apple va y aller.

  • Le CEO assume le retard et promet d’accélérer, y compris via des acquisitions ciblées.

  • La mise à jour majeure de Siri a été retardée après un changement d’approche.

    L’hybride dopé à l’IA n’a pas atteint le niveau de qualité interne : l’équipe reconstruit sur de nouvelles bases.

  • En plus, Apple a multiplié les correctifs mineurs quand la concurrence poussait le raisonnement long, le contexte géant et l’agentique.

    Ses utilisateurs n’attendent plus de fonctionnalités majeures et ont déjà basculé sur ChatGPT et ses concurrents.

L’aveu est sain, mais il faut qu’Apple passe à l’action avec un Siri vraiment intelligent.

Comment était cet article ?

Aidez-moi à améliorer le format de la newsletter en me disant ce que vous avez pensé de cet article !

Login or Subscribe to participate

Focus : le souci avec GPT-5

GPT-5 n’est pas une simple mise à jour : c’est un calibrage sur la productivité concrète.

Coder proprement, comprendre des documents immenses, orchestrer des séquences complexes avec des outils…

Et OpenAI a décidé d’accompagner le modèle de deux cousins ouverts.
Pourquoi ce changement de stratégie brutal ?

À suivre :

  • Ce que GPT-5 change vraiment,

  • Pourquoi il a déçu certains ?

  • La nouvelle stratégie d’OpenAI.

Ce que GPT-5 change vraiment

Avec 256 000 tokens (mots) de contexte, on peut avaler un dépôt Git entier, pointer les régressions et proposer un plan de refonte.

En juridique, charger un dossier multi-pièces, faire ressortir les points de rupture, rédiger un mémo sourcé.

En data, laisser le modèle itérer sur un pipeline, exécuter du code, tester, corriger, recommencer.

Cette puissance de contexte permet de réduire le nombre d’étapes entre notre prompt et le résultat attendu, désormais presque instantané.

Mais ce n’est pas la seule manière via laquelle ChatGPT est devenu plus performant.
GPT-5 sait quand il doit réfléchir longtemps.

Sur une demande triviale, il répond vite.

Sur un problème épineux, il étire sa chaîne de raisonnement, appelle des outils (exécution, navigation, fonctions), puis consolide son rendu.

Ce faisant, il gagne en autonomie.
Côté fiabilité, OpenAI annonce une forte baisse des erreurs sur des sujets sensibles.

Exemple : en santé, 1,6 % d’hallucinations mesurées sur leur protocole interne, contre 13–16 % auparavant.

Les cas d’usages deviennent de plus en plus concrets, même s’ils nécessitent toujours un contrôle humain.

Sauf que ça n’a pas plus à tout le monde.

Le problème avec GPT-5

Techniquement, GPT-5 n’est pas qu’un “gros modèle”.

C’est un empilement d’optimisations (un peu comme DeepSeek, à croire qu’OpenAI aurait pu s’en inspirer ?)

  • Une fenêtre de contexte élargie.

  • L’autonomie de déployer plus ou moins de capacité de calcul selon la difficulté.

  • Un entraînement qui combine de grands jeux de données, la résolution de tâches complexes, et du renforcement pour apprendre à l’IA à calibrer sa puissance.

  • Un pilotage explicite du “temps de réflexion” dans les plans Pro : vous pouvez demander plus d’exploration avant la réponse.

GPT-5 n’est pas juste plus fort, il sait économiser sa force et la concentrer au bon moment.
Sauf que le modèle ne plaît pas à tout le monde.

D’abord, l’unification et le routage automatique brouillent la lisibilité.

Selon la question, vous obtenez tantôt le meilleur modèle, tantôt un plus léger, parfois au sein d’une même conversation.

Pour certains utilisateurs, la qualité est perçue comme irrégulière.

Mais il y a un autre souci.

Certains regrettent 4o au point d’annoncer résiliations et retours à des modèles plus prévisibles.

La raison ?
Ils trouvent GPT-5 trop direct et pas assez complaisant.

Donc une puissance en hausse, mais un fiasco pour une partie des utilisateurs qui réclament du contrôle, de la stabilité et de la transparence.

Et comme s’ils avaient anticipé ces plaintes, OpenAI a accompagné GPT-5 de modèles ouverts.

Des modèles “ouverts” ?

Deux modèles “open-weight” arrivent en parallèle, présentés comme taillés pour des workflows agentiques.

Téléchargeables, personnalisables, gratuits d’usage, mais pas open-source au sens strict.

À première vue, ils rivalisent avec de très bons modèles ouverts en raisonnement, tout en restant derrière GPT-5 sur la sûreté et la robustesse.

Mais est-ce un vrai retour vers l’ouverture, ou un vernis pour occuper le terrain médiatique face à Meta/DeepSeek ?

Surtout qu’OpenAI garde une partie du contrôle sur ces modèles.
Est-ce que c’est juste pour sauver les apparences après des années de modèles fermés ?

En tout cas, l’entreprise trace une ligne claire.
D’un côté, un modèle fermé, généraliste, très fiable pour les usages critiques.

De l’autre, des modèles ouverts suffisants pour expérimenter localement et monter des agents.

Ce compromis conserve la rente du haut de gamme et coupe l’herbe sous le pied des communautés qui réclamaient de l’ouverture.

Sauf que maintenant, même les utilisateurs du modèle fermé se plaignent du manque de personnalisation.

Selon moi, c’est parce que GPT-5 marque une bascule : moins d’effet d’annonce, plus d’impact mesurable dans les flux de travail.

En annonçant vouloir démocratiser l’accès à l’IA, l’entreprise est plutôt en train de renforcer sa position B2B.

Faut-il croire au virage “ouvert” d’OpenAI ?

Login or Subscribe to participate

Comment était la newsletter d'aujourd'hui ?

Login or Subscribe to participate

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.

Reply

or to participate

Keep Reading

No posts found