Temps de lecture : 2mn10
Hello,
OpenAI fait une acquisition secrète pour transformer la manière dont nous abordons le monde virtuel.
Mais pendant ce temps, Anthropic sort Claude 4 et Google dévoile une flopée de mises à jour, de fonctionnalités, et même de matériaux connectés à l’IA.
Preuve que le futur sera fait de ce mélange entre intelligence et machine.
On vous en parle dans cet article long.
Théo
OpenAI vient de s’offrir io, la jeune pousse codirigée par Sam Altman et le mythique designer Jony Ive pour $6,5 milliards.
Objectif : passer du logiciel au « compagnon » physique piloté par ChatGPT.
L’essentiel :
Il s’agit de la plus grosse opération d’OpenAI, réglée 100 % en actions pour intégrer io et ses 55 talents, dont plusieurs ex-Apple, dans l’entreprise.
Jony Ive notamment connu pour l’iPhone et l’Apple Watch prend la direction du design de tous les futurs produits OpenAI.
Premier appareil annoncé pour 2026 : format de poche, sans écran, capable de « sentir » son environnement.
Altman le présente comme le futur troisième objet de base après le smartphone et l’ordinateur portable.
OpenAI cherche à devenir un rival direct d’Apple sur la conception d’appareils grand public alimentés nativement par ChatGPT.
En misant sur le tandem Ive-Altman, OpenAI espère transformer l’IA en expérience tangible et discrète.
Si le pari réussit, nos futurs assistants ne seront plus dans nos écrans, mais au creux de la main.
Anthropic frappe fort avec la série Claude 4 incluant Opus 4 et Sonnet 4.
Les deux modèles veulent transformer le rôle de l’IA : passer du simple co-équipier au vrai collègue de travail.
L’essentiel :
Des réponses quasi instantanées pour les petites questions, et un mode « extended thinking » qui lance des sous-agents capables de chercher, coder ou appeler des API en parallèle pendant des heures.
Chez Rakuten, Opus 4 a refactoré un projet open-source pendant 7 h d’affilée sans supervision — l’équivalent d’une journée de travail continue.
Tout ça grâce à des capacités exceptionnelles en code : 72,5 % sur le benchmark SWE-bench contre 54,6 % pour GPT-4.1.
Anthropic parle de « meilleurs modèles de programmation du marché ».
En plus avec les memory files, le modèle crée sa propre base de connaissances locale pour garder le fil sur plusieurs jours de développement.
Les démos sont justes folles : un jeu jouable codé en 20 min, une scène 3D générée en un prompt, un calcul d’orbite de Mercure à 0,4° près, signes d’un bond en raisonnement et en créativité.
Claude 4 installe un nouveau standard : une IA qui code, cherche et réfléchit toute seule des heures durant.
Comment était cet article ?Aidez-moi à améliorer le format de la newsletter en me disant ce que vous avez pensé de cet article ! |
Google a transformé son rendez-vous en démonstration de force.
Résultat : l’IA s’invite dans les montres et les lunettes.
L’essentiel :
Gemini Ultra – nouvel abonnement à 249 €/mois donnant accès à la totalité des modèles premium : Veo 3 pour la vidéo, Imagen 4 pour l’image et le mode Deep Think de Gemini 2.5 Pro.
Veo 3 & Imagen 4 – génération de clips 1080p avec son, plus des images 2 K dix fois plus vite qu’avant. Fonctionnent de concert dans Flow, l’éditeur vidéo IA maison.
Gemini Live – chat en temps réel : l’IA voit votre écran ou la caméra, répond en contexte, et sert déjà plus de 400 millions d’utilisateurs mensuels.
Sauf qu’en plus de tout ça, Google est revenu à la charge avec ses agents :
Project Mariner – agent web qui automatise vos tâches en ligne.
Project Astra – moteur multimodal très performant désormais injecté dans Search, Gemini et une paire de lunettes XR « Aura ».
Stitch & Jules – pour les devs : UI par prompt (HTML/CSS) et agent autonome qui clone un repo, corrige les bugs, pousse les pull-requests.
Wear OS 6 – la montre de Google bénéficie de Gemini directement au poignet pour des commandes plus naturelles.
Gemma 3n – modèle compact (2 Go RAM) qui tourne hors-ligne sur smartphone, 446 tokens/s et top 2 sur Chatbot Arena.
Google mise sur un trio gagnant : abonnement premium, agents autonomes et IA multimodales intégrées partout.
Avec Gemini qui s’invite du navigateur aux lunettes, la firme verrouille tout l’écosystème.
What if your AI assistant could see the world from your perspective and offer hands-free help? 👓 Here’s a first look at @Android XR for glasses. Learn more → goo.gle/3Hf1ZyC#GoogleIO
— Google (@Google)
5:27 PM • May 22, 2025
Chaque matin, on allume son ordinateur pour travailler.
Mais dans cinq ans, ce « PC » ne sera peut-être plus l’objet rectangulaire posé sur le bureau : il sera aussi dans vos lunettes, vos clés de voiture, votre frigo et votre montre.
Le nombre d’objets connectés dans le monde atteint déjà 18,8 milliards et devrait frôler les 40 milliards en 2030.
Plongée dans ce futur qui se construit sous nos yeux.
À suivre :
L’IA dans votre poche,
La fin des ordinateurs déjà préparée par OpenAI ?
Ma maison intelligente me parle.
Démarque-toi en moins de 10 minutes par semaine.
Déjà un(e) abonné(e) payant(e) ? Se connecter.
Reply