Temps de lecture : 3mn30

Hello,

Trois lancements majeurs OpenAI en huit jours : Codex desktop le 16 avril, Images 2.0 le 21, GPT-5.5 le 23.

On vous raconte ce que ça change dans notre Focus.

Théo & Nathanaël

Jeudi, OpenAI a sorti un nouveau modèle. Six semaines après le précédent. Sans fuite, sans roadmap annoncée, sans teaser.

L'essentiel :

  • GPT-5.5 est un modèle entièrement reentraîné, pas un patch. Il passe de 75 % à 82,7 % sur Terminal-Bench 2.0 et atteint 84,9 % sur GDPval, le benchmark de tâches professionnelles rémunérées. Il est annoncé comme "plus intelligent à coût de latence équivalent" par rapport à GPT-5.4.

  • Disponible dès jeudi pour Plus, Pro, Business, Enterprise. GPT-5.5 Pro pour Pro, Business, Enterprise. Côté API, les tarifs suivent le modèle par token de GPT-5.4.

  • Mark Chen, chief research officer d'OpenAI, met l'accent sur l'agentique et la recherche scientifique : le modèle est plus efficace pour les workflows multi-étapes, l'usage d'outils et l'exploration technique.

Six semaines entre deux modèles, c'est la fin du cycle "une sortie par semestre".

À Google Cloud Next 2026, Sundar Pichai a annoncé que la 8e génération de TPU ne serait pas juste une puce. Ce seront deux architectures distinctes.

L'essentiel :

  • TPU 8t pour l'entraînement. Topologie 3D torus, optimisé pour les pré-entraînements massifs et les embeddings. Google annonce 2,7 fois le rapport performance-par-dollar de l'ancien Ironwood sur les charges d'entraînement à grande échelle.

  • TPU 8i pour l'inférence. Conçue pour faire tourner "des millions d'agents en même temps". 80 % de performance-par-dollar en plus vs génération précédente sur l'inférence.

  • La 7e génération (Ironwood) était une puce unique pour tout. Google admet implicitement que l'ère agentique ne tient pas avec une seule architecture. La pression vient des clients qui veulent servir des agents en temps réel à des millions d'utilisateurs en parallèle.

Nvidia a passé dix ans à vendre un GPU qui fait tout. Google vient de montrer publiquement que cette hypothèse ne tient plus.

Anthropic a officialisé début avril l'extension de son deal Google Cloud, reprise au keynote Cloud Next mercredi 22 avril.

L'essentiel :

  • Jusqu'à 3,5 gigawatts de capacité TPU de nouvelle génération. Jusqu'à 1 million de puces cumulées. Capacité livrée à partir de 2027, près de 1 GW fin 2026. Les TPU sont conçus par Google, fabriqués et fournis via Broadcom.

  • Le nombre de clients qui dépensent plus d'$1 million par an chez Anthropic est de plus de 1 000. Ce chiffre a doublé en deux mois.

  • Anthropic conserve une stratégie diversifiée sur trois plateformes de puces : Google TPU, Amazon Trainium et Nvidia GPU. Mais la masse bascule côté Google.

Et dire qu’il y a six mois, la question était "Anthropic va-t-il tenir la cadence face à OpenAI ?".

Lundi 21 avril, OpenAI a publié ChatGPT Images 2.0 (modèle gpt-image-2).

Premier modèle d'image avec capacités de raisonnement intégrées. Disponible immédiatement pour tous les users ChatGPT et Codex.

L'essentiel :

  • +242 points sur Image Arena en moins de 12h après la sortie. Plus gros écart jamais enregistré sur ce leaderboard. Le modèle "pense" avant de générer : recherche web temps réel, multi-images depuis un même prompt, auto-vérification des sorties.

  • Jusqu'à 8 images générées d'un coup, résolution 2K, rendu de texte quasi-parfait dans les visuels (charts, schémas scientifiques, infographies). Remplace DALL-E 3 et le modèle intermédiaire GPT Image 1.5.

  • Disponible immédiatement à TOUS les users ChatGPT et Codex (mode "thinking" réservé Plus, Pro et Business). Pas d'attente, pas de waitlist. La distribution agressive devient la marque de fabrique d'OpenAI ce mois-ci.

Trois lancements majeurs en huit jours : Codex desktop le 16, Images 2.0 le 21, GPT-5.5 le 23. Le rythme dont on parle dans le Focus n'est pas une figure de style. C'est un calendrier.

Comment était cet article ?

Aidez-moi à améliorer le format de la newsletter en me disant ce que vous avez pensé de cet article !

Login or Subscribe to participate

Focus : Le nouveau rythme de l'IA

Jeudi 23 avril. OpenAI publie GPT-5.5. Six semaines après GPT-5.4. Six semaines après le modèle qui avait été annoncé comme "le plus intelligent jamais entraîné" par la même entreprise.

Sauf que le marché n'a pas réagi comme d'habitude.

Pas de présentation Apple-style, pas de démo de trois heures, pas d'acteur qui compare le modèle à Einstein.

Un blog post, un communiqué de presse, une mise en ligne.

Et un message implicite : à partir de maintenant, le cycle change.

À suivre :

  • Ce que GPT-5.5 change vraiment.

  • Pourquoi OpenAI accélère.

  • Ce que Claude a déjà fait en face.

  • Comment choisir un partenaire IA à six mois.

Ce que GPT-5.5 change vraiment

Le vrai saut n'est pas sur les benchmarks abstraits.
C'est sur les tâches longues.

GPT-5.5 passe de 75 % à 82,7 % sur Terminal-Bench 2.0, la référence qui simule un poste de travail dev complet : lire du code, déboguer, exécuter des commandes en chaîne, comprendre un retour d'erreur, recommencer.

Sur GDPval, qui évalue la capacité à effectuer des tâches professionnelles rémunérées (analyste junior, rédacteur technique, coordinateur projet), le modèle atteint 84,9 %.

C'est le score le plus élevé jamais rapporté par OpenAI sur ce benchmark.
Sauf que ce score ne veut pas dire remplacement.

Le modèle fait 84,9 % sur des tâches bien cadrées, délimitées, évaluables.

Dans la vraie vie d'un cabinet comme Oliver Wyman ou BCG, 40 % du travail est déjà à 100 % humain par simple politique client, pas par limitation du modèle.

Mark Chen, chief research officer d'OpenAI, insiste sur un autre angle : GPT-5.5 serait meilleur pour la recherche scientifique.

OpenAI cite des tests internes sur des workflows labs, sans donner de chiffre public.

Pourquoi OpenAI accélère

Le rythme public d'OpenAI jusqu'à l'été 2025 était "une release majeure par an".

GPT-4 en 2023, GPT-4o en 2024, GPT-5 en 2025. Puis GPT-5.4 en mars 2026. Puis GPT-5.5 aujourd'hui.

Le cycle s'est compressé d'un facteur huit.

Et ce n'est pas que les LLM. Codex desktop control le 16 avril, ChatGPT Images 2.0 le 21, GPT-5.5 le 23.

Trois sorties majeures en huit jours. Image, code, langage : la cadence touche tous les fronts en même temps.

OpenAI ne décrit pas publiquement le détail de son pipeline d'entraînement.

Mais le fait observable est là : la même équipe qui sortait un modèle par an il y a 18 mois en sort un toutes les six semaines. Quelque chose a changé en interne.

Probablement un mix d’accélération sur l'entraînement, d'industrialisation des évaluations de sécurité, et de pression marché.

Parce qu'il y a aussi une raison moins technique. OpenAI n'a plus le luxe d'attendre.

Anthropic a sorti Claude Mythos en avril et capté l'attention sécurité. Google a inondé le marché avec Gemini dans Workspace. Meta a repositionné Llama en Muse Spark.

Chaque semaine où OpenAI ne sort rien, un concurrent gagne un pan du marché.

Et la position interne d'OpenAI confirme la lecture stratégique.

La transition vers un "super-app" et une plateforme intégrée (ChatGPT + Codex + Atlas) est annoncée publiquement par la direction.

Le passage au rythme continu est une décision de positionnement, pas un accident.

Ce que Claude a déjà fait en face

Spoiler : Anthropic a anticipé ce scénario.

Entre janvier et mars, ils ont publié Claude Sonnet 4.5, Opus 4.6, puis Opus 4.7.

Début avril, ils ont annoncé Claude Mythos Preview, le modèle qu'ils refusent de vendre parce qu'il trouve trop de vulnérabilités.

Cette semaine, ils ont sécurisé jusqu'à 1 million de TPU pour trois ans.

Claude Mythos reste inaccessible au public, mais le signal est clair : Anthropic peut sortir un modèle au niveau de GPT-5.5 "n'importe quand".

Et le choix d'Anthropic n'est pas de suivre le rythme d'OpenAI. C'est de peser sur la conversation quand ils le décident.

Sauf que ce luxe tactique a un coût.

Anthropic ne lance pas de produit grand public tous les mois. Pas de "ChatGPT Friday 17h", pas de feature virale qui fait la une LinkedIn.

La distribution reste le point faible.

Et si le rythme OpenAI tient un an, la question qui se pose est : combien de fondateurs vont basculer par défaut vers l'écosystème qui bouge le plus vite ?

Comment choisir un partenaire IA à six mois

Quand un modèle de pointe changeait une fois par an, on pouvait ancrer un produit dessus.

Construire, itérer, publier, facturer. Le prochain modèle arriverait dans 12 mois, le temps d'amortir.

À six semaines, le calcul change. Le modèle n'est plus l'actif. Ce qui est stable, c'est l'infrastructure, la donnée propriétaire, l'API contract, la relation avec l’entreprise.

Pour nous, trois critères comptent désormais :

D'abord, l'horizon de stabilité annoncé par le lab. Anthropic publie une feuille de route à 12 mois sur les changements majeurs de Claude Code.

Ensuite, la transparence des sorties. Quand un modèle remplace un modèle, est-ce qu'on sait ce qui change ?

Enfin, l'alignement philosophique.

Un fondateur qui choisit Anthropic achète aussi ce système de valeurs. Un fondateur qui choisit OpenAI achète un autre pari : que la vitesse de release fera la différence.

Sauf qu'il y a une vérité plus brutale.

Dans six mois, les deux labs auront probablement des capacités si proches que le choix ne se fera plus sur le benchmark. Il se fera sur le partenaire.

Et un partenaire ne se change pas tous les six mois.

Ces ads sont issues du réseau d’ad de Beehiiv, la plateforme qu’on utilise pour gérer FreeA. Malheureusement, elles ne sont pas modifiables, et sont donc en anglais.
Par contre, elles rémunèrent au nombre de clicks, donc un moyen simple de nous soutenir est d’aller voir si le sujet vous intéresse !
On ne choisit que des partenaires qu’on utilise déjà ou pourrait utiliser :)

How Jennifer Aniston’s LolaVie brand grew sales 40% with CTV ads

The DTC beauty category is crowded. To break through, Jennifer Aniston’s brand LolaVie, worked with Roku Ads Manager to easily set up, test, and optimize CTV ad creatives. The campaign helped drive a big lift in sales and customer growth, helping LolaVie break through in the crowded beauty category.

The IT strategy every team needs for 2026

2026 will redefine IT as a strategic driver of global growth. Automation, AI-driven support, unified platforms, and zero-trust security are becoming standard, especially for distributed teams. This toolkit helps IT and HR leaders assess readiness, define goals, and build a scalable, audit-ready IT strategy for the year ahead. Learn what’s changing and how to prepare.

Comment était la newsletter aujourd'hui ?

Login or Subscribe to participate

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.

Reply

Avatar

or to participate

Keep Reading