
Temps de lecture : 2mn45
Hello,
Pendant qu'OpenAI sortait GPT-5.5, Jeff Bezos est allé chercher $10 milliards pour construire une IA qui comprend le monde physique.
$38 milliards de valorisation. Avant même le premier produit.
On vous raconte la bataille dans notre Focus.
Théo & Nathanaël


Project Prometheus, le lab "physical AI" co-fondé par Jeff Bezos et Vik Bajaj (ex-Google X, professeur Stanford), est en passe de boucler une levée de $10 milliards.
La valorisation annoncée est de $38 milliards. JPMorgan et BlackRock participent au tour.
L'essentiel :
Project Prometheus entraîne ses modèles sur des données réelles : capteurs, interactions robotiques, workflows d'ingénierie.
Verticales cibles : manufacturing, aérospatial, automobile, robotique. Bezos a lui-même piloté cette logique chez Amazon pendant 25 ans.
La valorisation $38 milliards arrive avant le premier produit. Le capital se déploie sur la thèse, pas sur la traction. Les investisseurs parient que la prochaine couche d'IA ne sera pas un chatbot. Ce sera une boucle de contrôle robotique qui tourne 24h/24 dans une usine.
L’IA passe dans la 3e dimension, encore plus vite que prévu.

OpenAI a publié le 16 avril une mise à jour majeure de Codex.
Elle ajoute trois capacités qui visent directement Claude Code.
L'essentiel :
Desktop Control : Codex peut désormais piloter n'importe quelle application macOS. Il voit l'écran, déplace le curseur, clique, tape dans Figma, Xcode, Slack, le navigateur. Pendant que l'utilisateur travaille dans d'autres fenêtres.
Multi-Agent : plusieurs agents peuvent tourner en parallèle. Un écrit des tests Python, un autre génère les composants React, un troisième gère la config CI/CD. Avec mémoire persistante entre sessions : les conventions de nommage apprises lundi s'appliquent vendredi.
Plusieurs observateurs (Slashdot, DevOps.com) parlent de "direct shot at Claude Code". La semaine précédente, OpenAI avait durci sa politique d'abonnement pour couper l'accès d'outils tiers à l'API Claude. Le message est limpide.
La guerre des agents se joue sur l'exclusivité des écosystèmes.

OpenAI a publié GPT-Rosalind, un modèle dédié à la recherche en sciences du vivant.
Nommé d'après Rosalind Franklin, dont les clichés aux rayons X ont révélé la structure de l'ADN.
L'essentiel :
Le modèle est optimisé pour le raisonnement sur molécules, protéines, gènes. Il sait utiliser les bases de données scientifiques en chaîne.
OpenAI filtre les partenaires, pas seulement les tokens.
Partenaires lancement : Amgen, Moderna, Allen Institute, Thermo Fisher Scientific.
Pour la première fois, OpenAI sort un modèle conçu pour la biologie.


Focus : La ruée des milliardaires vers l'IA physique
Avril 2026, San Francisco.
Jeff Bezos lève $10 milliards pour Project Prometheus à $38 milliards de valorisation.
Ex-DeepMind, Physical Intelligence discute $1 milliard à plus de $11 milliards de valorisation. Yann LeCun a levé $1,03 milliard seed pour AMI Labs en mars, record européen.
Eclipse Ventures a clôturé un fonds de $1,3 milliard dédié au physical AI le 7 avril.
Quatre vagues de capital. Toutes sur le même thème.
À suivre :
Ce qu'est vraiment le "physical AI".
Project Prometheus et le pari de Bezos.
La carte du marché qui se dessine.
Ce que ça dit des limites des LLM.

Ce qu'est vraiment le physical AI
Le physical AI n'est pas un robot humanoïde qui marche. C'est plus large et plus abstrait.
L'idée de départ : les modèles actuels (GPT, Claude, Gemini) sont entraînés sur du texte et, depuis peu, des images et des vidéos.
Ce corpus décrit le monde mais ne le contient pas.
Un modèle qui a lu 10 000 livres de génie mécanique ne sait pas "pourquoi" un pont tient. Il sait répéter les formules.
Sauf que l'IA physique, elle, apprend sur des données répétitives.
Un bras robotique qui essaie 400 fois de saisir une pièce, qui rate 250 fois, qui ajuste sa prise 150 fois, finit par savoir comment ça fonctionne.
Un capteur de pression qui enregistre la résistance d'un matériau sous 800 impulsions.
Un système de vision qui reconnaît une anomalie de soudure à l'œil et enregistre la correction humaine.
Le point commun à ces données : elles n'existent pas sur Internet.
Elles existent dans les usines, les labos, les hôpitaux, les véhicules.
Ce qui veut dire qu'elles sont propriétaires, chères à produire, et qu'elles se dévaluent vite.
Le pari du physical AI est que celui qui signe le plus de contrats d'accès à ces données gagne les prochaines catégories.
Project Prometheus et le pari de Bezos
Bezos a 62 ans.
Il n'a plus besoin de prouver quoi que ce soit.
Et pourtant il remonte sur la ligne de front technique, cette fois aux côtés de Vik Bajaj, ex-cadre de Google X et professeur à Stanford.
Project Prometheus est structuré autour de plusieurs verticales : manufacturing, aérospatial, automobile, robotique, drug discovery.
Les trois secteurs où Bezos a accumulé le plus d'intuitions comme opérateur.
Amazon a passé 20 ans à optimiser des entrepôts robotisés.
Blue Origin a passé 15 ans à concevoir des fusées réutilisables.
Ces décennies ne se voient pas dans un pitch deck. Elles se voient dans le choix des verticales.
La valorisation $38 milliards avant le premier produit est instructive.
Elle implique que les investisseurs paient pour la thèse et l'équipe, pas pour la traction.
C'est un pattern connu de l'IA : OpenAI avait levé à $30 milliards avant ChatGPT grand public, Anthropic à $15 milliards avant Claude 3.
La règle "valoriser la capacité à construire, pas ce qui est construit" tient toujours.
Sauf que la capacité à construire du physical AI n'est pas la même que la capacité à construire un LLM.
Il faut des contrats d'accès à des usines, des partenariats avec Boeing, Ford, TSMC, des instruments de mesure coûteux.
Bezos dispose d'un réseau que peu de fondateurs peuvent reproduire.
Il y a un angle plus cynique.
Amazon est un des plus gros acheteurs potentiels de physical AI, avec ses entrepôts et sa flotte de drones.
Project Prometheus peut se structurer comme le fournisseur interne d'Amazon, payé en royalties, puis s'ouvrir à d'autres industriels.
Bezos revient là où il est le plus efficace : en pré-positionnement.
La carte du marché qui se dessine
Quatre acteurs tenables cette semaine, sur quatre angles différents.
Project Prometheus (Bezos, $38 milliards) attaque les process industriels par l'apprentissage machine. Donnée source : capteurs, robots, CAD, historiques d'usine. Verticales : manufacturing avancé.
Physical Intelligence (ex-DeepMind, $11 milliards) attaque la robotique humanoïde et la manipulation fine. Donnée source : démonstrations humaines filmées, téléopération, reinforcement learning. Verticales : logistique, services, maison.
AMI Labs (Yann LeCun, $3,5 milliards) attaque les world models. L'architecture s'appelle JEPA (Joint Embedding Predictive Architecture). Le pari théorique : les LLM ne peuvent pas produire d'intelligence générale, il faut un modèle qui apprend la physique du monde, pas sa description textuelle. Verticales : industriel, robotique, santé.
Eclipse Ventures (fonds $1,3 milliard) finance les briques autour : capteurs, jumeaux numériques, systèmes d'exploitation de robots. Verticales : manufacturing + défense.
Sauf qu'aucune de ces quatre entités n'a encore livré un produit commercial à l'échelle.
La thèse est massive, le capital aussi. La validation est devant.
Et pour l'Europe, une question embarrassante émerge.
AMI Labs a fait le plus gros seed de l'histoire du continent. Mais sur trois autres acteurs majeurs, zéro Européen.
La régulation IA a peut-être protégé les consommateurs.
Elle n'a pas produit de fondateurs capables de lever $10 milliards.
Ce que ça dit des limites des LLM
La ruée vers le physical AI est un aveu indirect.
Les LLM, aussi impressionnants soient-ils, ont des limites visibles.
D'abord, une limite de données.
Le corpus texte mondial a été quasiment consommé.
Les prochaines améliorations viendront des données non-texte — vidéo, audio, capteurs, interactions physiques.
GPT-5.5 sorti la semaine dernière progresse sur la recherche scientifique justement parce qu'il a intégré des bases de données structurées, pas du blog post.
Ensuite, une limite d'usage.
Un chatbot est utile pour 20 minutes par jour par utilisateur.
Un bras robotique qui optimise une chaîne d'assemblage tourne 24 heures.
Les gains économiques de l'IA plafonnent.
existent dans le monde physique.
Sauf que la transition vers le physical AI n'est pas gratuite.
Un data center pour entraîner GPT-5.5 coûte cher. Un réseau de capteurs qui couvre trois chaînes d'assemblage TSMC coûte plus cher.
C'est ce que Bezos et Amazon savent faire. C'est ce qu'aucun fondateur qui se limite au monde virtuel ne sait faire.

Ces ads sont issues du réseau d’ad de Beehiiv, la plateforme qu’on utilise pour gérer FreeA. Malheureusement, elles ne sont pas modifiables, et sont donc en anglais.
Par contre, elles rémunèrent au nombre de clicks, donc un moyen simple de nous soutenir est d’aller voir si le sujet vous intéresse !
On ne choisit que des partenaires qu’on utilise déjà ou pourrait utiliser :)
Claude is not just a chatbot anymore. Is your security team ready?
Claude.ai is one thing. Claude Cowork with MCP connections, running agentic workflows, taking actions across your data with ungoverned skills? That is a different conversation entirely, and most security teams are not equipped to govern it.
Harmonic Security is built to secure everything Claude offers. Full browser controls for Claude.ai, deep governance over agentic MCP workflows, and real-time visibility into what Claude is doing across your organization. So your CISO can say yes to the tools your business is already demanding.
Ghost: Free Postgres For Agents
Agents are desperate for ephemeral databases.
They spin up projects, fork environments, test ideas, and tear them down. Over and over. But every database on the market was designed for humans who provision once and stick around. Agents don't work that way.
Ghost is a database built for agents. Unlimited databases, unlimited forks, 1 TB of storage, and 100 compute hours per month. All free. Try it here.
PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.



