
Temps de lecture : 2mn45
Hello,
Anthropic a fuité son prochain modèle par accident, OpenAI ferme Sora après 6 mois et Google compresse l'IA x6 sans perte.
En Focus, on décrypte la fuite Mythos et ce qu'elle révèle sur le futur de l'IA.
Théo & Nathanaël


Une erreur de configuration a exposé 3 000 fichiers internes. Dedans : un modèle que personne n'était censé voir.
L'essentiel :
Un brouillon de blog interne décrit "Claude Mythos" (nom de code : Capybara). Un nouveau tier au-dessus d'Opus, le modèle le plus puissant d'Anthropic à ce jour.
Scores "dramatiquement supérieurs" en coding, raisonnement académique et cybersécurité.
Anthropic avertit : le modèle pose des "risques cybersécurité sans précédent". Il peut trouver et exploiter des failles plus vite que les défenseurs.
La fuite vient d'une erreur humaine dans le CMS. Anthropic a confirmé tester le modèle avec un groupe restreint de clients early access.
On décrypte tout dans notre Focus.

OpenAI ferme tout : l'application iOS, l'API et Sora.com. Même Disney a tourné les talons.
L'essentiel :
Les coûts d'inférence vidéo étaient estimés à $15 millions par jour, soit $5 milliards par an.
Les téléchargements avaient chuté de 3,3 millions (novembre) à 1,1 million (février).
Le deal avec Disney est annulé. Le studio avait prévu d'investir $1 milliard et d'ouvrir 200+ personnages à la génération IA.
L'équipe Sora se recentre sur la simulation du monde et la robotique.
Première mort d'un produit IA grand public. Le coût de l'inférence reste le juge de paix.

Internet a fait le rapprochement immédiatement. Google vient de publier la compression qui n'existait que dans une série HBO.
L'essentiel :
TurboQuant réduit la mémoire de travail des LLM d'au moins x6 et accélère l'inférence jusqu'à x8. Sans perte de précision. Sans réentraînement.
Un développeur a déjà implémenté le paper dans llama.cpp avec des kernels Metal pour Apple Silicon.
Présentation prévue à la conférence ICLR 2026.
Si ça scale au-delà du labo, faire tourner des modèles puissants sur un Mac ou un téléphone devient réaliste.


Focus : La fuite qui révèle le futur de l'IA
Le 26 mars, deux chercheurs en sécurité ont découvert un fichier qui n'aurait jamais dû être public.
Un brouillon de blog, stocké dans un CMS mal configuré, décrivait le prochain modèle d'Anthropic dans un niveau de détail inédit.
Son nom : Claude Mythos. Son niveau : un cran au-dessus de tout ce qui existe.
Anthropic a confirmé. Le modèle est réel.
Et il les inquiète eux-mêmes.
À suivre :
La fuite : 3 000 fichiers exposés
Ce qu'on sait de Mythos
Le risque cyber qui change la donne
Ce que ça signifie pour nous

La fuite : 3 000 fichiers exposés
Roy Paz, chercheur chez LayerX Security, et Alexandre Pauwels, de l'Université de Cambridge, ont découvert que le système de gestion de contenu d'Anthropic contenait environ 3 000 fichiers non publiés, accessibles publiquement.
Parmi eux : un brouillon de billet de blog détaillant les capacités d'un modèle en cours de test.
L'erreur est banale.
Un CMS mal configuré, un fichier indexable qui n'aurait pas dû l'être.
Le genre de faille que n'importe quelle entreprise tech peut avoir.
Sauf qu'ici, le contenu exposé décrit ce qui pourrait être le modèle d'IA le plus avancé au monde.
Anthropic a réagi en confirmant "une erreur humaine dans la configuration de notre système de gestion de contenu".
La fuite n'a pas exposé de données utilisateurs ni de code source du modèle.
Mais le mal est fait : le monde sait maintenant ce qu'Anthropic prépare.
Ce qu'on sait de Mythos
Le document interne décrit Mythos sous un second nom de code : Capybara.
Ce n'est pas une mise à jour d'Opus. C'est un nouveau tier.
Le brouillon le présente comme "plus grand et plus intelligent que nos modèles Opus, qui étaient jusqu'ici nos plus puissants".
Les benchmarks internes montrent des scores "dramatiquement supérieurs" à Claude Opus 4.6 sur trois axes : le coding, le raisonnement académique et la cybersécurité.
Le terme employé dans le document est "step change" : un saut qualitatif, pas une amélioration incrémentale.
Anthropic teste le modèle avec un groupe restreint de clients early access.
Un porte-parole a déclaré à Fortune : "Nous développons un modèle à usage général avec des avancées significatives en raisonnement, coding et cybersécurité."
Le timing est significatif.
Anthropic vient de lancer 74 produits et mises à jour en 52 jours.
Computer Use permet à Claude de contrôler un Mac entier.
La vélocité d'Anthropic atteint un rythme que même OpenAI ne tient pas.
Et maintenant, on apprend que le prochain modèle n'est pas une v4.7, mais un changement de catégorie.
Le risque cyber qui change la donne
C'est la partie la plus troublante de la fuite.
Le document interne avertit que Mythos est "actuellement très en avance sur tout autre modèle IA en capacités cyber".
Plus précisément : le modèle peut identifier et exploiter des vulnérabilités logicielles à une vitesse qui dépasse les efforts des défenseurs.
Anthropic emploie un langage inhabituellement direct : "Il annonce une vague imminente de modèles capables d'exploiter des failles d'une manière qui dépasse largement les efforts des défenseurs."
En clair : l'attaque va plus vite que la défense. Et le gap va se creuser.
Un paradoxe classique de la sécurité informatique, mais amplifié par l'IA.
Les mêmes capacités qui permettent à un modèle de trouver des bugs dans du code pour les corriger lui permettent de trouver des bugs pour les exploiter.
La différence tient à l'intention de l'utilisateur.
Le cours du Bitcoin a reculé après la publication de l'article de CoinDesk sur le sujet.
Les marchés commencent à pricer le risque cyber IA comme un facteur systémique.
Bref, cette fuite confirme trois choses.
D’abord, la course aux modèles n'est pas terminée.
On parlait de "plateau" il y a six mois.
Mythos prouve que les sauts qualitatifs sont encore possibles. GPT-5.4, Gemini 3.1, Grok 4.20 : les modèles de mars 2026 sont déjà en passe d'être dépassés.
Ensuite, la cybersécurité devient le front principal.
Pas la créativité, pas la productivité, pas le code.
Le premier domaine où l'IA surpasse massivement les humains est celui où les conséquences sont les plus graves.
Les entreprises qui ne mettent pas à jour leurs défenses vont le payer.
Enfin, la transparence reste fragile.
Il a fallu une fuite pour que le public apprenne l'existence de Mythos.
Anthropic prône la "responsible scaling".
Mais sans cette erreur de CMS, personne n'aurait su que le modèle le plus puissant de l'histoire était déjà en test chez des clients.

Ces ads sont issues du réseau d’ad de Beehiiv, la plateforme qu’on utilise pour gérer FreeA. Malheureusement, elles ne sont pas modifiables, et sont donc en anglais.
Par contre, elles rémunèrent au nombre de clicks, donc un moyen simple de nous soutenir est d’aller voir si le sujet vous intéresse !
On ne choisit que des partenaires qu’on utilise déjà ou pourrait utiliser :)
PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.

