In partnership with

Temps de lecture : 2mn45

Hello,

Samsung investit $73 milliards dans les puces IA, l'IA pourrait manquer d'électricité d'ici 2028 et Nvidia annonce une plateforme d'agents open-source pour les entreprises.

En Focus, on décrypte le GTC 2026 de Nvidia : $1 000 milliards de commandes, la puce Vera Rubin, et pourquoi Jensen Huang parie tout sur l'ère agentique.

Théo & Nathanaël

Record d'investissement du coréen pour rattraper son concurrent SK Hynix dans la course à la mémoire HBM.

L'essentiel :

  • Samsung Electronics annonce 110 000 milliards de wons ($73,3 milliards) d'investissement en 2026. Un record absolu.

    Objectif : reprendre la tête sur la mémoire HBM pour l'IA, dominée par SK Hynix.

  • Le budget couvre la mémoire HBM4, les processeurs 2nm et de nouvelles usines. C'est 22% de plus qu'en 2025.

  • Nouveau partenariat avec AMD : Samsung fournira la mémoire HBM4 et DDR5 des futurs accélérateurs IA d'AMD.

  • Au GTC 2026, Jensen Huang a publiquement salué les puces HBM4E de Samsung sur scène. Un adoubement rare.

Samsung dépasse le capex de TSMC ($50 milliards). La course aux puces IA ne concerne plus seulement les GPU.

Morgan Stanley alerte : les États-Unis pourraient faire face à un déficit de 49 GW d'ici 2028.

L'essentiel :

  • Morgan Stanley estime que la demande des data centers IA pourrait atteindre 74 GW d'ici 2028 aux États-Unis. Le réseau actuel ne peut en fournir que 25 GW supplémentaires.

  • PJM, le plus grand opérateur de réseau US (65 millions de personnes, 13 États), prévoit un déficit de 6 GW dès 2027. Son président : "On n'a jamais été aussi court."

  • Les prix de l'électricité ont déjà augmenté de 42% depuis 2019. Les prévisions 2026 : +4% supplémentaires.

  • Bernie Sanders et Ron DeSantis, aux antipodes politiques, s'accordent pour critiquer l'impact des centres de données sur les factures d'énergie des citoyens.

L'énergie pourrait devenir le goulot d'étranglement n°1 de l'industrie IA.

NemoClaw combine OpenClaw avec des garde-fous de sécurité et de confidentialité.

L'essentiel :

  • NemoClaw est un partenariat open-source entre OpenClaw et Nvidia. Il ajoute des contrôles de confidentialité et de sécurité au framework d'agents d'OpenClaw.

  • C'est la réponse "entreprise" à la course aux agents autonomes. Les start-ups utilisent OpenClaw brut. Les grandes entreprises avaient besoin de garde-fous.

  • Annoncé au GTC 2026, NemoClaw fait partie de la plateforme Nvidia Agent Toolkit, qui inclut aussi des outils de déploiement, d'observabilité et de gestion des agents.

Jensen Huang a déclaré que chaque entreprise a besoin d'une "stratégie OpenClaw". NemoClaw est le pont entre l'innovation sauvage des agents et la réalité des DSI.

Comment était cet article ?

Aidez-moi à améliorer le format de la newsletter en me disant ce que vous avez pensé de cet article !

Login or Subscribe to participate

Focus : Nvidia GTC 2026

Jensen Huang est monté sur scène au SAP Center de San Jose le 16 mars.

2h30 de keynote, et un message : l'IA est un marché de $1 000 milliards, et Nvidia est en position pour en récupérer une bonne partie.

Ce n'est pas un GTC comme les autres.
Nvidia est passé de "fabricant de GPU" à "fournisseur d'usines IA".

À suivre :

  • Ce que Vera Rubin change concrètement.

  • Les annonces qui comptent au-delà des puces.

  • Ce que $1 000 milliards disent du marché.

Vera Rubin

Jusqu'ici, les puces Nvidia servaient surtout à entraîner les modèles IA.

C'est la phase où l'IA "apprend" : on lui donne des milliards de données, elle les digère pendant des semaines, et à la fin on obtient un modèle comme Claude ou ChatGPT.

C’est là que Vera Rubin change la donne.

La nouvelle plateforme de Nvidia est conçue pour l'étape d'après : faire tourner ces modèles en continu, à grande échelle, pour répondre à des milliards de requêtes en temps réel.

C'est ce qu'on appelle l'inférence.
Et c'est là que la demande explose.

Vera Rubin n'est pas une simple puce, mais un supercalculateur complet : 7 types de composants dans 5 emplacements qui fonctionnent ensemble comme un seul cerveau.

Processeurs, mémoire, réseau, accélérateurs.
Tout est intégré.

La pièce maîtresse : le Groq 3 LPU, un processeur spécialisé dans la vitesse de réponse de l'IA.

Résultat : Vera Rubin consomme 10x moins d'énergie que la génération précédente (Blackwell) pour la même puissance.

Et dans les scénarios où l'IA enchaîne plusieurs actions d'affilée (les fameux agents), le débit est multiplié par 35.

Au-delà des puces

Le GTC n'a pas été que du hardware. Jensen Huang a enchaîné les annonces dans trois domaines qui touchent le quotidien.

Véhicules autonomes

Uber va déployer une flotte de véhicules autonomes propulsés par Nvidia Drive AV dans 28 villes sur 4 continents d'ici 2028.

Début : Los Angeles et San Francisco en 2027. Nissan, BYD, Geely, Isuzu et Hyundai développent des véhicules niveau 4 sur le programme Drive Hyperion de Nvidia.

Robotique

Disney a fait monter Olaf sur scène.
Pas un personnage animé.

Un vrai robot autonome qui marche, parle et interagit avec Jensen Huang en temps réel.

Derrière ses mouvements : du deep reinforcement learning entraîné sur Kamino, un simulateur physique GPU-accéléré.

Des milliers de simulations parallèles sur un seul GPU permettent à Olaf d'apprendre à marcher en quelques heures au lieu de mois.

DLSS 5

Quand vous jouez à un jeu vidéo, votre carte graphique calcule chaque pixel à l'écran. La lumière sur un mur, le reflet dans une flaque, l'ombre sous une table. Tout.

Le problème : plus c'est réaliste, plus ça demande de puissance. Et à un moment, même les meilleures cartes atteignent leurs limites.

C'est là que le DLSS entre en jeu.
DLSS, c'est une techno Nvidia qui existe depuis 2018.

Au lieu de calculer chaque pixel en haute résolution, la carte calcule une image en basse résolution, et l'IA "reconstruit" les détails manquants.

Résultat : une image quasi identique, mais beaucoup plus rapide à afficher.

Les versions précédentes (DLSS 1 à 4) amélioraient surtout la fluidité.
DLSS 5 change d'approche.

Cette fois, l'IA ne se contente pas de reconstruire des pixels.
Elle améliore ce que le jeu affiche.

Elle analyse chaque scène et génère en temps réel un éclairage plus réaliste que ce que le moteur du jeu pouvait produire seul.

Nvidia appelle ça du "neural rendering", du rendu par réseau de neurones.

$1 000 milliards

Jensen Huang voit au moins $1 000 milliards de commandes d'infrastructure IA d'ici 2027. Il y a un an, il estimait ce chiffre à $500 milliards.

Son estimation a doublé en 12 mois.
Et ce n'est pas un chiffre marketing.

Ce sont des bons de commande réels de Microsoft, Google, Amazon, Meta, Tesla et des gouvernements du monde entier.

Nvidia fournit les puces.
Samsung fournit la mémoire.

Les opérateurs de réseau fournissent l'électricité.
Le message est clair.

L'IA n'est pas un cycle technologique de plus.

C'est une transformation d'infrastructure comparable à l'électrification ou à Internet.
Et comme pour l'électrification, le goulot n'est pas la technologie.

C'est l'énergie.

Le GTC 2026 était la démonstration qu'un seul homme contrôle la courroie de transmission de l'économie mondiale de l'IA.

Ces ads sont issues du réseau d’ad de Beehiiv, la plateforme qu’on utilise pour gérer FreeA. Malheureusement, elles ne sont pas modifiables, et sont donc en anglais.
Par contre, elles rémunèrent au nombre de clicks, donc un moyen simple de nous soutenir est d’aller voir si le sujet vous intéresse !
On ne choisit que des partenaires qu’on utilise déjà ou pourrait utiliser :)

The fastest-growing repo on GitHub is a one person team!

OpenClaw went from 9K to 185K GitHub stars in 60 days — the fastest-growing repo in history.

Their docs? One person, plus Claude. They scaled to the top 1% of all Mintlify sites, shipping 24 documentation updates a day.

Viktor Ships While You Sleep

This is Viktor, an AI coworker with its own computer. It lives in Slack, connects to 3,000+ tools, and does all the work: writes the code, handles the API calls, and deploys a live app. One message. Real output.

Stop typing prompts. Start talking.

You think 4x faster than you type. So why are you typing prompts?

Wispr Flow turns your voice into ready-to-paste text inside any AI tool. Speak naturally - include "um"s, tangents, half-finished thoughts - and Flow cleans everything up. You get polished, detailed prompts without touching a keyboard.

Developers use Flow to give coding agents the context they actually need. Researchers use it to describe experiments in full detail. Everyone uses it to stop bottlenecking their AI workflows.

89% of messages sent with zero edits. Millions of users worldwide. Available on Mac, Windows, iPhone, and now Android (free and unlimited on Android during launch).

Comment était la newsletter aujourd'hui ?

Login or Subscribe to participate

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.

Reply

Avatar

or to participate

Keep Reading