Temps de lecture : 2mn15

Hello,

Aujourd’hui, on vous présente un chercheur de l’ombre.
Il est rentré en Chine pour accomplir son rêve, on vous explique pourquoi.

Ensuite, on parle de la sortie de Grok 4 Fast et des révélations sur les gadgets OpenAI.

Théo

Entre Harvard, Stanford et UCLA, Song-Chun Zhu a posé les briques de la vision par ordinateur avant de tourner le dos à la philosophie américaine du “toujours plus”.

En 2020, il rentre en Chine pour développer une autre voie vers l’AGI : moins de calcul, plus de bon sens.

L’essentiel :

  • Pour lui, l’intelligence consiste à réussir de grandes tâches avec peu de données.

  • Pour prouver sa théorie, il crée une IA : TongTong.

    Elle vise des capacités d’enfant entre 5 et 6 ans : planifier, coopérer, bricoler des solutions dans des environnements simulés.

  • Pourquoi être rentré en Chine ?

    D’après lui, le pays offre une vision plus compatible avec un effort coordonné et national.

Zhu bouscule les certitudes de la Silicon Valley.
On plonge dans sa philosophie dans le Focus.

xAI dévoile Grok 4 Fast, un modèle de raisonnement multimodal pensé pour aller vite et réduire les coûts.

Sauf qu’il ne perd rien en performance.

L’essentiel :

  • 40 % de jetons de réflexion en moins, pour des résultats comparables à Grok 4.
    Les coûts peuvent être réduits jusqu’à 98 % pour les développeurs.

  • Tout ça, sans baisser dans les benchmarks : 85,7 % sur GPQA Diamond (sciences), 92 % sur AIME 2025 (maths), et #1 sur l’arène de recherche LMArena.

  • Prix API (ordre de grandeur) : 0,20 $ / 1 M jetons en entrée, 0,50 $ / 1 M en sortie.

Grâce à ces versions minies des modèles, l’accès à l’IA s’élargit toujours plus.
Et Grok prouve encore une fois qu’il peut rivaliser avec ChatGPT.

OpenAI et l’équipe de Jony Ive, ancien designer d’Apple, planchent sur une famille d’objets IA.

Première fenêtre de lancement évoquée : fin 2026 / début 2027.

L’essentiel :

  • Le premier appareil ressemblerait à une enceinte intelligente sans écran, un peu comme un Google Home ou une Alexa.
    Seraient aussi envisagés des lunettes, un enregistreur vocal et un pin pour emporter l’IA partout.

  • En gros, des objets portables, sans écran, pour que l’IA nous assiste en continu par commande vocale.

  • OpenAI a recours à des fournisseurs d’Apple, et continue même à piocher dans le vivier des employés de la pomme.

Le but de tout ça ? Rendre l’IA proactive, toujours disponible, sans la friction d’un ordinateur ou d’un téléphone.

Créer Jarvis, pour de vrai.

Comment était cet article ?

Aidez-moi à améliorer le format de la newsletter en me disant ce que vous avez pensé de cet article !

Login or Subscribe to participate

Focus : L’IA est-elle vraiment intelligente ?

À six ans, Song-Chun Zhu feuillette un registre généalogique.

Il y voit des dates de naissance et de mort qui se succèdent.
Mais rien sur la vie des personnes citées.

Intrigué, il demande pourquoi.
“Ils étaient paysans, il n’y a rien à dire sur leur vécu”, lui répond-on.

Il prend brutalement conscience de sa mortalité.
Et il a très peur d’être réduit à une date de naissance et une date de décès.

Alors il décide de dédier sa vie à une quête.
Cartographier l’intelligence comme un astrophysicien cartographie le cosmos.

À suivre :

  • De la Chine aux Etats-Unis,

  • Des Etats-Unis à la Chine.

  • Un nouveau pilier de l’IA chinoise.

Des collines de l’Hubei aux couloirs de Harvard

En 1992, Harvard lui ouvre ses portes grâce à David Mumford, médaillé Fields et chercheur.

Ce dernier est captivé par ce jeune Chinois qui annonce une théorie unifiée pour expliquer et prédire toutes les capacités d’un esprit.

La légende raconte même que lors d’un examen d’une heure, Zhu laisse une question sans réponse, parce qu’elle lui paraît trop facile.

Il réussit le reste à la perfection.
Résultat : Mumford lui obtient une bourse complète et devient son directeur de thèse.

Quelques années plus tard, à UCLA, Zhu devient l’un des chercheurs qui apprennent aux machines à voir.

La vision par ordinateur, c’est reconnaître un chat sur une photo, estimer la profondeur d’une scène, suivre un objet en mouvement.

Mais Zhu ne pense pas qu’il faille empiler les processeurs pour augmenter la force brute des modèles.

Il défend très tôt une autre approche, fondée sur les statistiques :

  • D’une part, l’inférence bayésienne, qui consiste à partir d’une hypothèse et à la mettre à jour au fur et à mesure, comme un médecin qui affine son diagnostic à mesure que les symptômes arrivent.

  • D’autre part, les champs de Markov, une manière élégante de faire émerger des formes cohérentes dans l’image.

Et pour nourrir ces modèles, il crée, au milieu des années 2000, une équipe qui annote massivement des images en Chine.

À l’époque, c’est visionnaire : il fabrique les premiers jeux de données dont l’IA a besoin pour apprendre.

Et ça fonctionne.
Tout l’écosystème adopte sa méthode d’accumulation du plus de données possibles.

Sauf que là, Zhu commence à douter.
Parce que la donnée brute ne dit ni dans quel contexte, ni pourquoi on agit.

L’IA doit savoir raisonner vers un but, pas seulement associer des pixels à des mots.

Le chercheur en tire une conviction : il faut dépasser le “gros volume de données pour de petites tâches” et faire un virage à 180°.

Il se fixe un nouvel objectif : créer des systèmes capables de raisonner avec peu d’exemples sur des tâches ambitieuses.

Retour à la case départ.
Il ferme son institut en 2010.

Mais ce tournant le mènera vers une architecture cognitive plus complète, plutôt que de miser uniquement sur l’échelle des données.

Aller simple pour Pékin

Au cœur de la décennie “deep learning”, Zhu se sent étranger à un marché de l’IA qui met en avant la performance avant tout.

Et puis, il y a de l’orage dans l’air.
Les tensions sino-américaines créent de la méfiance envers les chercheurs chinois.

Alors en 2020, il part.

Il dénonce la paresse conceptuelle des scientifiques américains, permise par l’abondance de moyens.

Vu de l’Ouest, un geste politique.
Mais pour lui, un moyen de poursuivre sa quête.

À Pékin, il cumule des chaires à Beida et à Tsinghua, deux universités prestigieuses.

Puis, il lance le Beijing Institute for General Artificial Intelligence (BigAI), avec pour mission de bâtir des systèmes qui raisonnent, planifient et s’adaptent.

Une structure autonome, financée à raison de plusieurs centaines de millions de dollars, adossée à la municipalité de Pékin

Parce que pour Zhu, l’AGI ne sera pas le prolongement linéaire des LLM.
L’intelligence générale se reconnaît à des qualités difficilement quantifiables comme :

  • La débrouillardise,

  • Le raisonnement causal,

  • L’intuition physique et sociale,

  • La capacité à planifier sous contrainte.

Bref, une compréhension véritable du contexte et de ses enjeux, pas simplement un choix de mots calculé en fonctions de paramètres.

Et ça abouti à un premier projet de BigAI : TongTong.
TongTong est présenté pour la première fois en 2024

Au lieu d’empiler des points sur des tests académiques, il vise des compétences de tous les jours.

Comprendre l’espace, anticiper les rapports de cause à effet, coopérer avec un autre agent.

“Je suis trop petit ? Je monte sur un coussin”.
“La télécommande n’est pas visible ? Elle est probablement dans la pièce voisine”.

Sauf que la méthode tranche avec les modèles massifs qui avalent des océans de données.

TongTong progresse avec peu d’exemples et beaucoup d’interaction : il perçoit, mémorise, planifie et exécute des séquences d’actions pour un but donné.

C’est cette économie d’expérience, cette capacité à faire beaucoup avec peu, que Zhu veut ériger en alternative crédible aux approches géantes et gourmandes.

Ça ne vous rappelle rien ?

Pourquoi cette vision colle mieux à la Chine ?

La vision de Zhu valorise la méthode plus que la profusion de GPU.

Dans un contexte de contrôle des exportations, réduire la dépendance au calcul est stratégique.

Et une autre IA chinoise a déjà employé la même philosophie pour prendre le marché de court : DeepSeek, un pionnier des modèles linguistiques frugaux.

On optimise l’entraînement et surtout l’inférence pour obtenir de très bons scores avec une puissance de calcul comprimée.

De son côté, TongTong optimise l’intelligence requise pour effectuer une action.

En plus, l’écosystème chinois est déjà prêt pour l’IA embarquée.
Ses industries de la robotique, des véhicules et de la domotique en a même besoin.

Mais il reste encore deux défis pour réaliser le rêve de Zhu.

  • L’incarnation, quand TongTong s’intégrera dans des robots.

  • La preuve que cette stratégie est supérieure en montrant qu’avec peu d’essais, un TongTong apprend mieux qu’un LLM.

S’il réussit, la course à l’IAG deviendra un concours de méthode.
S’il échoue, l’histoire dira que la puissance de calcul prime.

Pensez-vous que l'IA "classique" gagnera ou que la version de Zhu a ses chances ?

Login or Subscribe to participate

Comment était la newsletter d'aujourd'hui ?

Login or Subscribe to participate

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.

Reply

or to participate

Keep Reading

No posts found