
Temps de lecture : 2mn45
Hello,
Grok est impliqué dans un scandale de deepfakes.
Malgré tout, le Pentagone lui donne accès à ses données les plus confidentielles.
L’IA est-elle vraiment prête à être intégrée au plus haut niveau ?
On verra aussi comment Anthropic renforce ses garde-fous et pourquoi un patron de l’IA envisage d’équiper ses futurs enfants de puces Neuralink.
Théo & Nathanaël


L’IA d’Elon Musk fait scandale après la création de contenus sexualisés réalistes impliquant des femmes et même des mineurs.
L’essentiel :
Grok a été utilisé pour générer des images et vidéos montrant des personnes dénudées dans des poses sexualisées sans leur consentement.
Réaction immédiate des autorités : la Malaisie et l’Indonésie ont bloqué l’accès à Grok.
Au Royaume-Uni, le régulateur Ofcom a ouvert une enquête et le gouvernement parle d’un contenu « illégal et révoltant ».
Un ministre britannique s’est dit « écoeuré » après avoir vu la photo d’une femme juive détournée en bikini devant Auschwitz.
X a dû réagir en restreignant la fonctionnalité de génération et d’édition d’images aux seuls utilisateurs payants.
Les autorités anglaises menacent X de sanctions sévères, voire d’un blocage du service sur le sol britannique.
Mais Grok n’est pas la seule IA avec laquelle il est possible de générer ce type de contenu.
En revanche, elle fait désormais partie de l’administration américaine.

Anthropic vient de resserrer les vis sur l’utilisation de son IA.
L’essentiel :
Anthropic a déployé de nouveaux garde-fous pour bloquer les outils tiers (comme OpenCode) qui se connectaient à Claude de manière détournée.
Ces applications imitaient le client officiel afin de contourner les limitations d’usage et de coût.
Objectif : empêcher ces solutions pirates qui pilotaient Claude provoquant des bugs, des usages imprévus et des surcharges difficiles à diagnostiquer.
Anthropic a également coupé l’accès de ses modèles à certains concurrents, notamment xAI, qui utilisait Claude pour entraîner ses propres IA.
Une pratique en violation des conditions d’utilisation d’Anthropic, qui interdisent d’utiliser Claude pour développer un système concurrent.
Anthropic veut assurer un usage plus contrôlé de son IA, quitte à frustrer une partie de sa communauté.

Un dirigeant de l’IA a fait une déclaration choc sur l’avenir de sa famille.
L’essentiel :
Alexandr Wang, fondateur de Scale AI, aujourd’hui responsable de l’IA chez Meta, a annoncé qu’il allait attendre avant d’avoir des enfants.
Il souhaite que les interfaces cerveau-ordinateur (du type Neuralink) soient suffisamment avancées pour en équiper ses futurs bébés dès leur plus jeune âge.
Selon lui, les cerveaux des enfants de moins de 7 ans sont extrêmement malléables. Ils pourraient donc apprendre à utiliser une puce implantée comme si c’était une partie naturelle de leur cerveau, profitant ainsi d’un potentiel accru.
Son objectif : donner à ses enfants un avantage cognitif dans un monde dominé par l’IA, en leur permettant d’interagir avec des systèmes ultra-puissants.
Une vision qui soulève des débats éthiques sur la frontière de plus en plus floue entre l’humain et la machine.


Focus : L’IA est-elle propulsée trop vite au sommet ?
Le récent dérapage de Grok nous rappelle à quel point la sécurité de l’IA est un enjeu critique.
Pourtant, malgré la polémique, cela n’empêche visiblement pas les plus hautes sphères de lui faire confiance.
À suivre :
Des IA vraiment sûres ?
États-Unis vs France

Des IA vraiment sûres ?
Le scandale Grok est symptomatique des dangers des IA génératives actuelles.
Pourtant, le Pentagone s’apprête à déployer Grok dans ses réseaux internes.
Autrement dit, malgré un risque sur le plan éthique, l’outil de Musk va côtoyer les données sensibles de la première armée mondiale.
Pete Hegseth, secrétaire d'État Américain à la Guerre, a expliqué vouloir alimenter les IA avec un maximum de données du terrain militaire pour booster leurs performances.
Il promet que tout sera fait de manière « responsable », mais il a aussi clairement indiqué qu’il ne voulait aucune “contrainte idéologique” sur les IA du Pentagone.
Efficacité opérationnelle et neutralité avant tout, quitte à bousculer les limites éthiques.
Pour Trump, prendre du retard sur l’IA serait plus dangereux que de foncer tête baissée, notamment vis-à-vis de la Chine, perçue comme un rival existentiel.
Mais rester premiers, à quel prix ?
Le cas Grok n’est qu’une illustration parmi d’autres des défis de sécurité de l’IA en 2026.
Aujourd’hui, aucun des grands modèles n’offre de garanties parfaites.
OpenAI, Google, Anthropic et consorts investissent des fortunes pour entraîner leurs IA à être utiles sans être nuisibles, mais les exemples de dérapages sont nombreux.
Un utilisateur peut souvent pousser une IA dans ses retranchements, obtenir d’elle des réponses qu’elle devrait refuser.
On colmate une brèche, il s’en ouvre dix nouvelles le lendemain partagées sur les réseaux.
Même sans mauvaise intention de l’utilisateur, il y a aussi le risque que l’IA dévie de son objectif initial à cause d’une mauvaise conception ou d’un apprentissage incomplet.
Sans aller jusque-là, on voit déjà concrètement que les IA actuelles peuvent causer des torts bien réels si leur usage n’est pas maîtrisé.
OpenAI a fait évoluer ChatGPT vers un modèle à but lucratif, comme l’illustre son futur mode mature.
À voir s’il entraînera d’autres dérives.
Anthropic, de son côté, a bâti toute son image sur la sécurité avec sa méthode de l’IA constitutionnelle : Claude est censé respecter une charte de principes éthiques.
La récente décision de verrouiller l’accès à son modèle Claude vise justement à éviter les usages incontrôlés qui pourraient nuire à la fiabilité ou à l’image de son IA.
Et puis il y a Grok : Musk a choisi d’en faire un chatbot moins censuré, plus libre, avec le revers de la médaille que l’on vient de constater.
xAI et d’autres misent sur un minimum de filtrage, arguant qu’il ne faut pas « brider l’IA ».
Certains acteurs privilégient donc la prudence, d’autres la performance brute.
C’est ce qui crée le point de bascule actuel.
États-Unis vs France
Même les gouvernements hésitent entre accélérer et tempérer.
Là encore, l’actualité offre un contraste saisissant.
D’un côté, les États-Unis foncent à toute allure.
En ce début 2026, l’administration Trump intègre l’IA partout où c’est possible, y compris dans des domaines sensibles comme l’armée.
De l’autre, la France adopte une approche bien plus prudente, quitte à prendre du retard.
Paris a tenté de déployer sa propre IA administrative souveraine, Albert, courant 2024, pour assister les fonctionnaires.
Mais le projet a vite rencontré des écueils.
Des résultats parfois moins pertinents qu’une simple recherche Google, agents peu formés et méfiants, promesse d’alléger la charge de travail non tenue…
Résultat : Albert patine et son déploiement à grande échelle a été mis en sourdine.
Là où Washington intègre Grok dans l’appareil d’État sans trop se poser de questions, Paris a appuyé sur le frein.
Excès de prudence ou sagesse nécessaire ?
La France risque-t-elle de manquer le coche en temporisant, ou fait-elle preuve de responsabilité en attendant que la technologie mûrisse ?
Ce qui est certain, c’est qu’intégrer l’IA dès maintenant peut apporter un avantage compétitif, mais chaque scandale rappelle le coût potentiel d’une adoption précipitée.
Il en va de la sécurité des citoyens face aux abus, sécurité des systèmes face aux bugs ou aux hackers exploitant les IA, et même désormais sécurité nationale.
Le défi pour 2026 et les années à venir sera de trouver le juste équilibre entre l’enthousiasme et la nécessité d’encadrer pour éviter des catastrophes.
Le gouvernement français devrait-il intégrer l’IA dans son administration ?

We’re running a super short survey to see if our newsletter ads are being noticed. It takes about 20 seconds and there's just a few easy questions.
Your feedback helps us make smarter, better ads.
PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.

