
Temps de lecture : 1mn30
Hello,
Google double OpenAI pour s’offrir les équipes de Windsurf, et un acteur un peu discret de l’IA investit $3 milliards en Europe.
Ensuite, il fallait qu’on vous parle d’une innovation de Sakana AI.
Ils viennent de donner une mémoire temporelle à une IA, et le résultat est fou.
Théo


google dropping "don't be evil" was at least honest
they just paid $2.4B to poach windsurf's CEO & key ai team members without buying the company
this is the new talent acquisition playbook. why deal with startup baggage when you can just vacuum up the people who built the
— #Martin 🏹 (#@Martinoleary)
12:08 PM • Jul 13, 2025
OpenAI pensait tenir le prochain joyau du code : Windsurf.
Sauf qu’en coulisses, Google DeepMind a décidé de passer devant, prenant l’équipe dirigeante et la licence technologique sans racheter la start‑up.
L’essentiel :
Après trois mois de négociations, l’offre à $3 milliards d’OpenAI capote. Le blocage vient des clauses Microsoft, qui exigerait l’accès IP à toute acquisition d’OpenAI.
DeepMind dépense $2,4 milliards pour une licence non-exclusive de la technologie Windsurf et embauche le CEO Varun Mohan, son co‑fondateur et une poignée de chercheurs clé.
Windsurf reste une entité indépendante avec ses 250 employés et $100 millions de revenus annuels.
Google évite les enquêtes par l’Autorité de la Concurrence, sécurise le talent, la tech, et laisse des parts aux investisseurs de Windsurf.
Google s’offre le cerveau et le brevet, laissant OpenAI et Microsoft avec leur alliance, dépourvus puor l’instant de logiciel de code assité par l’IA performant.

Oracle to invest $3 billion in AI, cloud expansion in Germany, Netherlands
— #Reuters (#@Reuters)
4:05 PM • Jul 15, 2025
Oracle, le géant des bases de données, s’est mué en fournisseur cloud de premier plan ces dernières années.
Après s’être glissé dans le consortium Stargate pour alimenter en calcul OpenAI, le groupe passe à l’offensive en Europe.
L’essentiel :
$2 milliards pour deux nouvelles régions cloud en Allemagne, $1 milliard pour un campus aux Pays‑Bas.
Objectif : héberger IA et données au plus près des clients européens.
En plus, des centres situés dans l’UE impliquent un respect du RGPD et une latence réduite.
Un argument massue pour les secteurs régulés comme la finance, l’automobile, l’administration…La division « AI & Cloud » d’Oracle a déjà été multipliée par 50 depuis 2021 pour atteindre $948 millions de revenus.
Les nouvelles régions visent un carnet de commandes IA de $40 milliards.
En misant gros sur l’Allemagne et les Pays‑Bas, Oracle s’achète un bouclier réglementaire et un pied solide sur le marché continental de l’IA.


Learning where to look, learning what to see.
Work on Continuous Thought Machines continues to be exciting! As a teaser, take a look at our approach to "Foveated Active Vision". Check it out 👇
(details in the thread)
pub.sakana.ai/ctm
— #Luke Darlow (#@LearningLukeD)
4:12 AM • Jun 27, 2025
Et si la pièce manquante de l’intelligence artificielle n’était pas un octet de données supplémentaires, mais simplement une seconde ?
C’est l’idée portée par Sakana AI dans son article Continuous Thought Machines.
Pour penser comme un cerveau, une machine doit d’abord ressentir le passage du temps.
À suivre :
Quand l’IA se souvient,
LA CTM résout des labyrinthes seule,
Pourquoi c’est plus qu’une curiosité.

Quand chaque neurone se souvient
Depuis dix ans, les réseaux de neurones artificiels que nous utilisons se contentent d’un schéma quasi figé : une entrée, un calcul, une sortie.
On empile les couches, on augmente le nombre de variables, puis on relance l’entraînement.
Or, les neurosciences montrent que le cerveau ne se limite pas à cette causalité instantanée.
Un neurone “sait” quand il a déjà déchargé, ajuste sa cadence, attend ses voisins, puis repart.
Et Sakana AI intègre cette dimension manquante.
Dans une Continuous Thought Machine (CTM), chaque neurone conserve une mémoire courte de son activité passée.
Cette trace temporelle circule dans le réseau et sert de deuxième canal d’information.
L’important n’est donc plus seulement la valeur transmise, mais le moment précis où elle l’est.
La synchronisation entre ces réseaux devient le message.
Les chercheurs parlent d’ondes d’activation qui se mettent au diapason, un peu comme des lucioles qui clignotent jusqu’à battre la même mesure.
Concrètement, cela suppose un changement radical de méthode de calcul.
On remplace les “couches” successives par une dynamique continue où l’état des neurones évolue à chaque instant.
Résultat : plus besoin de distinguer entrée statique et séquence temporelle.
Le modèle traite une photo ou une vidéo exactement de la même façon, en « réfléchissant » jusqu’à sentir qu’il a assez d’indices pour répondre.
Un labyrinthe en temps réel
Pour tester la théorie, l’équipe a confronté la CTM à deux terrains de jeu.
Premier défi : des labyrinthes 2D, découverts par le modèle pour la première fois.
Là où un réseau classique projette d’un coup la sortie, la CTM avance case après case.
Ses cartes d’attention dessinent littéralement la trajectoire, comme un doigt qui suit le chemin sur papier.
En laissant plus de durée de réflexion que prévu, les chercheurs ont constaté que le modèle continuait jusqu’à l’arrivée, signe qu’il avait compris la règle générale tout seul.
Donc ils lui ont donné un deuxième défi : la reconnaissance d’images.
Là encore, les résultats les ont surpris.
Plutôt que de reconnaître l’image en un seul passage, la CTM balaie la photo : d’abord le contour global, puis les détails distinctifs, puis les textures fines.
Chaque oscillation de neurones déplace la zone d’intérêt du modèle.
Et ça fonctionne.
La précision grimpe même quand on lui accorde quelques millisecondes de réflexion supplémentaire, jusqu’à 3 % sur des images complexes.
Le tout, sans ajouter de puissance de calcul supplémentaire.
Le réseau “regarde” le gorille de haut en bas avant de trancher, ou “suit” les couloirs du labyrinthe.
C’est juste fou, parce que ça pourrait aussi nous aider à résoudre une des grosses problématiques de l’IA : la boîte noire.
La boîte noire désigne une IA dont on voit uniquement l’entrée (la question) et la sortie (la réponse.)
Tout ce qui se passe à l’intérieur, calculs, raisonnement et critères, reste opaque.
Mais grâce au fonctionnement « pas à pas » de la Continuous Thought Machine (CTM,) on peut observer le cheminement interne de l’algorithme.
Quels indices il regarde d’abord, lesquels il juge importants ensuite, comment il construit progressivement sa décision.
On gagne ainsi une fenêtre sur la boîte noire, ce qui manquait cruellement aux grands modèles actuels.
Plus qu’une curiosité
Ce nouveau type de modèles laisse entrevoir plein de nouvelles avancées pour l’IA.
La première : l’efficacité.
Les auteurs annoncent jusqu’à 30 % d’économie de calcul pour des tâches simples, car le modèle s’arrête de penser dès qu’il estime avoir compris.
Sur un smartphone, cette économie pourrait relancer l’idée d’une IA réellement embarquée, sans cloud.
Ensuite, une innovation nommée l’explicabilité.
Dans beaucoup de secteurs régulés (santé, finance, justice), montrer comment la décision évolue pas à pas est devenu crucial.
Ici, chaque étape de réflexion du modèle possède un motif d’attention qu’on peut afficher, annoter, auditer.
La conformité ne se jouera plus seulement sur des garde‑fous, mais au cœur de la réflexion.
Mais ça va encore plus loin.
Ces modèles se rapprochent toujours plus de la biologie humaine, parce que les oscillations détectées dans les CTM rappellent celles de l’hippocampe humain.
Sans copier le cerveau à la lettre, on obtient une correspondance plus riche qu’avec un modèle classique, ouvrant un dialogue inédit entre neuroscientifiques et ingénieurs IA.
Enfin, il y a la perspective des agents.
Une machine capable de planifier en “temps interne” plutôt qu’en appels de fonction successifs s’adapte mieux à tous les types d’environnements continus.
Robotique, pilotage de réseaux énergétiques, jeux vidéo persistants…
Au lieu de recalculer un plan entier à chaque nouveau capteur, la CTM ajuste juste sa réflexion et poursuit le raisonnement.
Bref, Sakana AI rappelle que l’innovation ne passe pas toujours par des milliards de paramètres supplémentaires.
La question est de savoir si ces idées franchiront l’épreuve de l’échelle : former une CTM géante sur du langage humain reste un défi logistique.

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.