
Temps de lecture : 2mn15
Hello,
Aujourd’hui, on vous présente un chercheur de l’ombre.
Il est rentré en Chine pour accomplir son rêve, on vous explique pourquoi.
Ensuite, on parle de la sortie de Grok 4 Fast et des révélations sur les gadgets OpenAI.
Théo


Dr. Song-Chun Zhu
🔸A prominent computer scientist at UCLA.
🔸He returned to China to lead the Institute for Artificial Intelligence at Peking University.
🔸His case underscores China's ability to attract top talent with career-defining opportunities.
— #NewRulesGeopolitics (#@NewRulesGeo)
1:01 PM • Mar 25, 2025
Entre Harvard, Stanford et UCLA, Song-Chun Zhu a posé les briques de la vision par ordinateur avant de tourner le dos à la philosophie américaine du “toujours plus”.
En 2020, il rentre en Chine pour développer une autre voie vers l’AGI : moins de calcul, plus de bon sens.
L’essentiel :
Pour lui, l’intelligence consiste à réussir de grandes tâches avec peu de données.
Pour prouver sa théorie, il crée une IA : TongTong.
Elle vise des capacités d’enfant entre 5 et 6 ans : planifier, coopérer, bricoler des solutions dans des environnements simulés.
Pourquoi être rentré en Chine ?
D’après lui, le pays offre une vision plus compatible avec un effort coordonné et national.
Zhu bouscule les certitudes de la Silicon Valley.
On plonge dans sa philosophie dans le Focus.

Grok 4 Fast lands at #2 on the OpenRouter Leaderboard, hitting close to 100B tokens a day
Both Grok Code Fast 1 and Grok 4 Fast are at the top, dominating the leaderboard together
— #X Freeze (#@amXFreeze)
6:30 AM • Sep 22, 2025
xAI dévoile Grok 4 Fast, un modèle de raisonnement multimodal pensé pour aller vite et réduire les coûts.
Sauf qu’il ne perd rien en performance.
L’essentiel :
40 % de jetons de réflexion en moins, pour des résultats comparables à Grok 4.
Les coûts peuvent être réduits jusqu’à 98 % pour les développeurs.Tout ça, sans baisser dans les benchmarks : 85,7 % sur GPQA Diamond (sciences), 92 % sur AIME 2025 (maths), et #1 sur l’arène de recherche LMArena.
Prix API (ordre de grandeur) : 0,20 $ / 1 M jetons en entrée, 0,50 $ / 1 M en sortie.
Grâce à ces versions minies des modèles, l’accès à l’IA s’élargit toujours plus.
Et Grok prouve encore une fois qu’il peut rivaliser avec ChatGPT.

Tim Cook after seeing OpenAI acquire Jony Ive’s startup io for $6.4B in an all-stock deal to make a family of AI devices with a team of Apple alumni while Siri is still unable to set a simple 9am alarm wake-up call.
— #Trung Phan (#@TrungTPhan)
5:52 PM • May 21, 2025
OpenAI et l’équipe de Jony Ive, ancien designer d’Apple, planchent sur une famille d’objets IA.
Première fenêtre de lancement évoquée : fin 2026 / début 2027.
L’essentiel :
Le premier appareil ressemblerait à une enceinte intelligente sans écran, un peu comme un Google Home ou une Alexa.
Seraient aussi envisagés des lunettes, un enregistreur vocal et un pin pour emporter l’IA partout.En gros, des objets portables, sans écran, pour que l’IA nous assiste en continu par commande vocale.
OpenAI a recours à des fournisseurs d’Apple, et continue même à piocher dans le vivier des employés de la pomme.
Le but de tout ça ? Rendre l’IA proactive, toujours disponible, sans la friction d’un ordinateur ou d’un téléphone.
Créer Jarvis, pour de vrai.


Focus : L’IA est-elle vraiment intelligente ?
Chinese media is buzzing: two AI heavyweights — UCLA’s Song-Chun Zhu and #IBM/#Microsoft’s Guo-Jun Qi — just left the US, touted as proof of #China’s tech takeover. With a new report showing China outpacing the US in research and patents, it looks like they’re winning the #AI
— #International Intrigue 🌐 (#@intintrigue)
6:17 PM • Sep 17, 2025
À six ans, Song-Chun Zhu feuillette un registre généalogique.
Il y voit des dates de naissance et de mort qui se succèdent.
Mais rien sur la vie des personnes citées.
Intrigué, il demande pourquoi.
“Ils étaient paysans, il n’y a rien à dire sur leur vécu”, lui répond-on.
Il prend brutalement conscience de sa mortalité.
Et il a très peur d’être réduit à une date de naissance et une date de décès.
Alors il décide de dédier sa vie à une quête.
Cartographier l’intelligence comme un astrophysicien cartographie le cosmos.
À suivre :
De la Chine aux Etats-Unis,
Des Etats-Unis à la Chine.
Un nouveau pilier de l’IA chinoise.

Des collines de l’Hubei aux couloirs de Harvard
En 1992, Harvard lui ouvre ses portes grâce à David Mumford, médaillé Fields et chercheur.
Ce dernier est captivé par ce jeune Chinois qui annonce une théorie unifiée pour expliquer et prédire toutes les capacités d’un esprit.
La légende raconte même que lors d’un examen d’une heure, Zhu laisse une question sans réponse, parce qu’elle lui paraît trop facile.
Il réussit le reste à la perfection.
Résultat : Mumford lui obtient une bourse complète et devient son directeur de thèse.
Quelques années plus tard, à UCLA, Zhu devient l’un des chercheurs qui apprennent aux machines à voir.
La vision par ordinateur, c’est reconnaître un chat sur une photo, estimer la profondeur d’une scène, suivre un objet en mouvement.
Mais Zhu ne pense pas qu’il faille empiler les processeurs pour augmenter la force brute des modèles.
Il défend très tôt une autre approche, fondée sur les statistiques :
D’une part, l’inférence bayésienne, qui consiste à partir d’une hypothèse et à la mettre à jour au fur et à mesure, comme un médecin qui affine son diagnostic à mesure que les symptômes arrivent.
D’autre part, les champs de Markov, une manière élégante de faire émerger des formes cohérentes dans l’image.
Et pour nourrir ces modèles, il crée, au milieu des années 2000, une équipe qui annote massivement des images en Chine.
À l’époque, c’est visionnaire : il fabrique les premiers jeux de données dont l’IA a besoin pour apprendre.
Et ça fonctionne.
Tout l’écosystème adopte sa méthode d’accumulation du plus de données possibles.
Sauf que là, Zhu commence à douter.
Parce que la donnée brute ne dit ni dans quel contexte, ni pourquoi on agit.
L’IA doit savoir raisonner vers un but, pas seulement associer des pixels à des mots.
Le chercheur en tire une conviction : il faut dépasser le “gros volume de données pour de petites tâches” et faire un virage à 180°.
Il se fixe un nouvel objectif : créer des systèmes capables de raisonner avec peu d’exemples sur des tâches ambitieuses.
Retour à la case départ.
Il ferme son institut en 2010.
Mais ce tournant le mènera vers une architecture cognitive plus complète, plutôt que de miser uniquement sur l’échelle des données.
Aller simple pour Pékin
Au cœur de la décennie “deep learning”, Zhu se sent étranger à un marché de l’IA qui met en avant la performance avant tout.
Et puis, il y a de l’orage dans l’air.
Les tensions sino-américaines créent de la méfiance envers les chercheurs chinois.
Alors en 2020, il part.
Il dénonce la paresse conceptuelle des scientifiques américains, permise par l’abondance de moyens.
Vu de l’Ouest, un geste politique.
Mais pour lui, un moyen de poursuivre sa quête.
À Pékin, il cumule des chaires à Beida et à Tsinghua, deux universités prestigieuses.
Puis, il lance le Beijing Institute for General Artificial Intelligence (BigAI), avec pour mission de bâtir des systèmes qui raisonnent, planifient et s’adaptent.
Une structure autonome, financée à raison de plusieurs centaines de millions de dollars, adossée à la municipalité de Pékin
Parce que pour Zhu, l’AGI ne sera pas le prolongement linéaire des LLM.
L’intelligence générale se reconnaît à des qualités difficilement quantifiables comme :
La débrouillardise,
Le raisonnement causal,
L’intuition physique et sociale,
La capacité à planifier sous contrainte.
Bref, une compréhension véritable du contexte et de ses enjeux, pas simplement un choix de mots calculé en fonctions de paramètres.
Et ça abouti à un premier projet de BigAI : TongTong.
TongTong est présenté pour la première fois en 2024
Chinese scientists have introduced what they call the world's first AI child. This AI, named Tong Tong, was created by the Beijing Institute for General Artificial Intelligence (BIGAI).
#AI #child #Chinese #skills #emotions #clean
— #Startup Pakistan (#@PakStartup)
8:57 AM • Feb 10, 2024
Au lieu d’empiler des points sur des tests académiques, il vise des compétences de tous les jours.
Comprendre l’espace, anticiper les rapports de cause à effet, coopérer avec un autre agent.
“Je suis trop petit ? Je monte sur un coussin”.
“La télécommande n’est pas visible ? Elle est probablement dans la pièce voisine”.
The World’s First AI Child
Researchers from the Beijing Institute for General Artificial Intelligence (BIGAI) have introduced Tong Tong, the world's first AI child that acts just like a three-year-old kid.
— #power.ai⚡️ (#@powerai_)
11:41 AM • Apr 18, 2024
Sauf que la méthode tranche avec les modèles massifs qui avalent des océans de données.
TongTong progresse avec peu d’exemples et beaucoup d’interaction : il perçoit, mémorise, planifie et exécute des séquences d’actions pour un but donné.
C’est cette économie d’expérience, cette capacité à faire beaucoup avec peu, que Zhu veut ériger en alternative crédible aux approches géantes et gourmandes.
Ça ne vous rappelle rien ?
Pourquoi cette vision colle mieux à la Chine ?
La vision de Zhu valorise la méthode plus que la profusion de GPU.
Dans un contexte de contrôle des exportations, réduire la dépendance au calcul est stratégique.
Et une autre IA chinoise a déjà employé la même philosophie pour prendre le marché de court : DeepSeek, un pionnier des modèles linguistiques frugaux.
On optimise l’entraînement et surtout l’inférence pour obtenir de très bons scores avec une puissance de calcul comprimée.
De son côté, TongTong optimise l’intelligence requise pour effectuer une action.
En plus, l’écosystème chinois est déjà prêt pour l’IA embarquée.
Ses industries de la robotique, des véhicules et de la domotique en a même besoin.
Mais il reste encore deux défis pour réaliser le rêve de Zhu.
L’incarnation, quand TongTong s’intégrera dans des robots.
La preuve que cette stratégie est supérieure en montrant qu’avec peu d’essais, un TongTong apprend mieux qu’un LLM.
S’il réussit, la course à l’IAG deviendra un concours de méthode.
S’il échoue, l’histoire dira que la puissance de calcul prime.
Pensez-vous que l'IA "classique" gagnera ou que la version de Zhu a ses chances ?

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.