
Temps de lecture : 3mn30
Hello,
L’armée américaine a sorti son IA, utilisée par plusieurs millions de personnes au quotidien.
Alors en Focus, on vous livre une enquête sur les dernières applications militaires de l’IA.
En parallèle, Google transforme Workspace en usine d’agents automatisés, et ChatGPT envahit les bureaux du monde entier.
Théo & Nathanaël

Ce dimanche, mon ami Simon Lorenzo organise avec Kyutai, Pyannote, Pareto, Gradium, Fomo et Unaite un énorme hackaton à Paris
J’y serai présent, et si vous vous intéressez à l’IA et à la création de projets, vous devriez vous inscrire !
Théo

L’armée américaine vient de lancer GenAI.mil, une plateforme d’IA basée sur Gemini de Google pour ses 3 millions de militaires et civils.
L’essentiel :
Le Pentagone a choisi Gemini for Government comme premier modèle pour construire GenAI.mil, hébergé dans l’infrastructure du Département de la Défense.
Le système est certifié pour traiter des données “sensibles mais non classifiées” et est strictement réservé aux détenteurs d’identifiants militaires.
Les premiers usages sont administratifs : recherche, synthèse de rapports, rédaction de notes, analyse d’images et de vidéos, préparation de briefings.
Google promet que les données ne serviront pas à entraîner ses modèles publics, et que les réponses s’appuieront sur Internet pour limiter les hallucinations.
GenAI.mil n’est pas encore un Terminator, mais c’est le chaînon manquant entre l’IA et l’appareil militaire.
On vous explique comment l’IA impacte nos champs de bataille dans le Focus.

Google vient de lancer Workspace Studio, un outil pour créer des agents capables d’automatiser des tâches dans Gmail, Docs, Sheets, Drive sans écrire une ligne de code.
L’essentiel :
Workspace Studio permet de décrire une mission en langage naturel (“classe mes mails clients, mets à jour le suivi dans Sheets, prépare un compte-rendu”) et de la transformer en agent réutilisable.
Ces agents peuvent lire vos mails, fouiller vos documents, remplir des tableaux, déclencher des actions, et même appeler des outils externes (exemple : un CRM).
Google insiste sur un point : la réutilisation.
Une fois créé, un agent se partage et peut être déployé à l’échelle d’une équipe ou d’une entreprise.
Selon Google, les 1ers clients ont déjà exécuté plus de 20 millions de tâches automatiques en un mois.
Stratégiquement, Google joue sa carte maîtresse : il connaît déjà vos mails, vos docs, vos réunions.
Là où ChatGPT a commencé par la conversation, Google essaie de devenir l'intelligence silencieuse qui fait tourner votre intendance en arrière-plan.

OpenAI a publié son rapport “State of Enterprise AI”.
Résultat : ChatGPT est en train de devenir leader pour les entreprises.
L’essentiel :
Le volume de messages sur ChatGPT Enterprise a été multiplié par 8 en un an.
OpenAI estime qu’il permet d’économiser 40 à 60 minutes de travail par jour.
L’usage du raisonnement pour les tâches complexes a été multiplié par 320 en un an, signe que l’on confie désormais de vrais sujets lourds à l’IA.
Les entreprises créent leurs propres assistants internes : les projets et GPT personnalisés ont été multipliés par 19, et représentent déjà près de 20 % des messages en environnement pro.
La banque BBVA, par exemple, utilise plus de 4 000 GPT différents.
Selon un indice cité par OpenAI, environ 36 % des entreprises américaines équipées en IA choisissent ChatGPT Enterprise, contre 14 % pour Anthropic.
ChatGPT est en train de devenir rapidement un incontournable en entreprise.


Focus : Terminator, c’est pour maintenant
Quand on pense “IA militaire”, on imagine souvent des robots bipèdes avec des fusils et des yeux rouges.
La réalité est beaucoup plus discrète. Plus insidieuse.
Des drones pilotés par l’IA survolent l’Ukraine ou Gaza, des algorithmes classent des cibles en quelques secondes, des systèmes influencent froidement les décisions.
Plot twist : Terminator n’est pas un robot de métal.
C’est un tissu de logiciels qui se glisse dans chaque étape de la guerre.
À suivre :
Le ChatGPT du Pentagone.
L’IA sur le champs de bataille.
La guerre des données.

Le ChatGPT du Pentagone
GenAI.mil est construit sur Gemini for Government, une version de Gemini adaptée aux contraintes de sécurité de l’armée.
Le modèle sert à tout ce qu’on confiait jusqu’ici à une administration surchargée.
Synthétiser des rapports, mettre en forme des ordres, analyser des images ou des vidéos, préparer des éléments de langage…
Le tout dans une enclave technique sous contrôle, homologuée pour traiter des données sensibles.
Sauf que ce n’est pas la première fois que le Pentagone tente ce genre d’expérience avec Google.
Spoiler : la dernière fois, ça a mal tourné.
En 2017, le gouvernement américain dévoile le Project Maven.
Objectif ?
Utiliser l’IA pour analyser automatiquement les images et vidéos de drones (détection de véhicules, de personnes, de mouvements suspects, etc.).
Google décroche un contrat pour fournir la technologie.
Pour la première fois, l’IA va intervenir dans la chaîne de décision militaire.
Mais ça ne plaît pas aux employés, qui rédigent une lettre ouverte signée par plusieurs milliers de collaborateurs.
Dans la foulée, plusieurs ingénieurs et chercheurs démissionnent.
Google est forcé de se retirer du contrat Maven (le projet a depuis été repris par Palantir.)
La boîte publie en 2018 des Principes éthiques de l’IA, avec une promesse clé : ne pas développer d’IA pour des armes ou des usages dont l’objectif principal est de nuire.
Et avec GenAI.mil aujourd’hui, on sent le traumatisme Maven partout dans leur communication.
Google insiste sur le fait que l’outil sert à des tâches non classifiées et martèle que les données ne serviront pas à entraîner les modèles publics.
Sur le papier, on parle donc de tâches “administratives”.
Sauf que ces tâches-là irriguent toute la machine militaire.
Quand une IA rédige un compte-rendu, reformule une directive ou propose une synthèse opérationnelle, elle influence déjà la préparation des décisions.
Même si elle ne presse pas la détente.
Ce qui est déjà le cas sur certains champs de bataille.
L’IA sur le champs de bataille
Là où l’IA sort vraiment de l’écran, c’est en Ukraine.
Depuis deux ans, le front est devenu un laboratoire à ciel ouvert.
Entre drones équipés de caméras, logiciels de reconnaissance visuelle, et systèmes qui suggèrent en temps réel où tirer, quand se déplacer, quelles cibles prioriser.
Sauf qu’un drone à 1 000 € capable de neutraliser un char à plusieurs millions change mécaniquement l’économie de la guerre.
Aujourd’hui, les stratégies de guerrilla et de harcèlement permises par ces nouvelles armes sont relativement peu chères.
Les chiffres donnent le vertige : l’Ukraine a fabriqué des millions de drones en 2024 et vise encore plus haut pour 2025.
Des acteurs comme Palantir ou Anduril fournissent des technologies complètes pour structurer ce nouvel arsenal.
Certains modèles utilisent déjà des fonctions d’autopilotage guidé par IA pour repérer des véhicules, suivre une cible, adapter leur trajectoire si le signal GPS est brouillé.
À l’autre bout de la chaîne, des plateformes comme TITAN pour l’armée américaine ou Delta côté ukrainien agrègent les données du terrain pour assister la prise de décision.
L’IA ne remplace pas nos généraux, mais elle prépare son travail en triant les données, en hiérarchisant les menaces, en proposant des points de frappe possibles.
Parce que oui, la décision de tuer est en train d’être de plus en plus influencée par l’IA.
Dans la bande de Gaza, une autre facette de l’IA de guerre a émergé.
Des systèmes de ciblage algorithmique comme “Lavender” ou “Habsora”.
Ces logiciels croisent des informations de renseignement, des habitudes de déplacement et d’autres données.
Objectif : attribuer à chaque individu une probabilité d’appartenance à un groupe armé.
Le résultat est une liste priorisée de personnes ou de lieux à frapper.
Sauf que ça va encore plus loin.
Sur les nouveaux avions de l’US Navy, une IA réécrit toute seule ses algorithmes de brouillage quand elle croise un radar russe ou chinois qu’elle n’a jamais vu qu’une fois.
Pas de cloud, pas de latence : elle apprend et contre-attaque en quelques millisecondes.
Et en Chine comme aux États-Unis, l’IA simule des guerres entières pour trouver les stratégies que même les généraux n’imaginent pas.
L’algorithme modifie le rythme et l’échelle des frappes possibles, tout en perfectionnant les stratégies.
La guerre des données
La guerre devient en grande partie une affaire d’ingénieurs.
Celui qui sait fabriquer des drones bon marché, entraîner des modèles robustes et maintenir une infrastructure numérique résiliente gagne un avantage décisif.
GenAI.mil suit la même logique : réduire les frictions, accélérer la décision, compresser le temps entre l’information et l’action.
La même technologie qui aide un officier à résumer un rapport pourra, demain, aider à prioriser des cibles dans un centre d’opérations.
Des ONG, des chercheurs, des États plaident déjà pour une “Convention de Genève de l’IA”, qui fixerait des lignes rouges sur l’autonomie létale.
Mais même sans être létale, l’IA peut faire de gros dégâts.
En 2025, les armées israéliennes et ukrainiennes utilisent la tech pour générer en quelques secondes des vidéos hyper-réalistes de bombardements et faire douter l’ennemi.
La technologie avance à la vitesse des déploiements.
Mais la régulation, elle, traîne.
Qui est responsable quand un algorithme se trompe ?
Comment auditer un modèle entraîné sur des données classifiées ?
Quel niveau d’autonomie est acceptable avant de parler de “robot tueur” ?
Quel que soit notre avis, une chose est sûre : l’IA est entrée en guerre, et il sera difficile, voire impossible de la retirer du champ de bataille.

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.

