
Temps de lecture : 1mn45
Hello,
Meta veut devenir votre agence de pub accessible en 2 clics, et Anthropic est poursuivie 2 fois en justice.
Mais une autre actualité a marqué les dernières semaines.
Le coup porté au visage d’Emmanuel Macron par la première dame.
Problème : l’Elysée a d’abord crié au deepfake russe, avant de confirmer que la vidéo est authentique.
Dans un monde où la vérité est manipulée même au niveau de l’Etat, nous ne pouvons compter que sur nous-mêmes. Alors comment s’armer contre ces vidéos ?
Théo


🇫🇷🇻🇳 L’Élysée a d’abord contesté l’authenticité des images, les attribuant à une possible vidéo générée par IA et diffusée par des comptes pro-russes, avant de se raviser et d’en confirmer la véracité.
— #AlertesInfos (#@AlertesInfos)
6:53 AM • May 26, 2025
Une séquence filmée par la presse à l’arrivée de la délégation française à Hanoï montre Brigitte Macron porter la main au visage de son mari.
Problème : l’Élysée a d’abord crié au « deepfake russe » avant de reconnaître, vingt-quatre heures plus tard, que la vidéo était parfaitement authentique.
L’essentiel :
D’abord, un communiqué officiel lundi matin : « montage généré par IA et diffusé par des comptes liés au Kremlin ». Le soir même, l’entourage présidentiel admet la véracité des images, parlant d’« échange taquin ».
La vidéo comptabilise plus de 12 millions de vues en dix heures sur X, et des centaines de reprises TikTok sont publiées avant la réaction gouvernementale.
Problème : quand le pouvoir utilise l’argument “deepfake” pour masquer une polémique, il banalise l’idée que tout peut être faux.
À deux ans de la présidentielle, chaque crise d’image devient un test grandeur nature : saura-t-on encore distinguer fausse information, satire et réalité ?
Les rédactions ont dû passer la vidéo au peigne fin (métadonnées AP, analyse d’ombre, angle multi-caméras) avant de trancher. Une enquête que l’Élysée aurait pu éviter en disant la vérité d’emblée.
En prétendant d’abord à une manipulation étrangère, l’exécutif a offert un cadeau à tous ceux qui utilisent l’IA pour propager de fausses informations.

"Meta AI ads will take over by 2026"
The AI 👇
— #Joel Padron (#@joelpadronn)
3:39 PM • Jun 3, 2025
Meta veut transformer Facebook et Instagram en régies 100 % automatisées.
Dès 2026, une entreprise glisse la photo d’un produit, fixe son budget, puis l’IA se charge de tout le reste.
L’essentiel :
L’écosystème Meta compte 3,43 milliards d’utilisateurs uniques. Le laboratoire idéal pour entraîner des algorithmes publicitaires ultra-personnalisés alors que 97 % des revenus 2024 de Meta viennent déjà de la pub.
La recette est simple : à partir de l’image, de l’objectif et du budget, l’IA génère visuel, texte, vidéo et choisit elle-même la cible et l’enchère optimale.
Les publicités s’adaptent en temps réel. Paysage enneigé pour l’utilisateur alpin, virée urbaine pour le citadin, selon la géolocalisation et l’historique de navigation
Il s’agit également d’un coup de pouce aux petites marques.
Plus besoin d’agence, l’IA produit des campagnes « clé en main » en quelques clics, accessible même avec un micro-budget.
Meta rêve de devenir votre agence pub automatique : vous indiquez vos objectifs, et leur IA déploie la campagne en quelques secondes.

Anthropic poursuivi en justice (2 fois)
With less than five days of notice, Anthropic decided to cut off nearly all of our first-party capacity to all Claude 3.x models. Given the short notice, we may see some short-term Claude 3.x model availability issues as we have very quickly ramped up capacity on other inference
— #Varun Mohan (#@_mohansolo)
10:52 PM • Jun 3, 2025
Les ennuis s’accumulent pour l’éditeur de Claude.
Windsurf l’attaque pour rupture brutale d’accès à ses modèles.
Sauf que ce n’est pas tout : Reddit lui colle une assignation pour avoir aspiré des millions de posts sans licence.
L’essentiel :
Windsurf, un logiciel pour les développeurs et une start-up à $100 millions de CA annuel affirme qu’Anthropic a coupé, en cinq jours, 90 % de sa capacité sur Claude 3, puis refusé l’accès direct à Claude 4.
Le motif officieux ? Windsurf est en passe d’être racheté par OpenAI.
Conséquence immédiate : développeurs en panne et coûts multipliés. Des milliers d’utilisateurs migrent déjà vers leur concurrence, comme Cursor ou GitHub Copilot.
Quant à Reddit, ils déposent plainte en Californie : Anthropic aurait aspiré les posts de 100 millions d’abonnés pour entraîner Claude, sans le moindre accord commercial, alors que la plateforme a signé des deals payants avec Google et OpenAI.
Reddit Sues Anthropic on Unauthorized Use of Site’s Data
Reddit says Anthropic accessed its site more than 100,000 times after saying it had stopped.
— #Freedom (#@FreedomTechHQ)
6:51 PM • Jun 6, 2025
Reddit dénonce un « parasitisme » et réclame des dommages et intérêts.
Deux fronts juridiques en une semaine : pour la licorne valorisée à $61,5 milliards, la route vers la rentabilité va se jouer sur le front juridique en plus du front technologique.


Focus : Comment s’armer contre les deepfakes ?
En France, Brigitte Macron “gifle” le président dans une vidéo relayée des millions de fois, avant que l’Élysée ne dénonce un deepfake.
Problème : la vidéo était bien réelle.
Aux États-Unis, un faux appel automatisé imitant la voix de Joe Biden a incité des électeurs du New Hampshire à rester chez eux la veille des primaires.
Sur X, plus de 47 millions d’utilisateurs ont été exposés à des images pornographiques d’une Taylor Swift qui n’a jamais posé.
Jamais la frontière entre le vrai et le fabriqué n’a semblé aussi poreuse.
Mais il existe encore des solutions pour ne pas faire partie de ceux qui relayent ces fausses informations.
À suivre :
Les conséquence de la prolifération des fausses vidéos.
Une production de plus en plus facile.
Les méthodes pour les détecter (à l’oeil nu.)
La réponse technologique en préparation.

Cet article pouvant servir à tout le monde pour se prémunir face à la montée de la désinformation, nous avons décidé de vous l’offrir.
Si vous voulez lire l’entièreté de nos prochaines publications et nous soutenir, cliquez sur ce bouton :
Une épidémie visuelle qui coûte cher
Les chiffres donnent le vertige : en 2024, une entreprise sur deux dans le monde a subi au moins une tentative d’arnaque par deepfake, pour une perte moyenne de $450 000.
Des chercheurs ont même comptabilisé un quadruplement des deepfakes détectés en ligne entre 2023 et 2024.
Le danger est partout.
Une simple vidéo WhatsApp d’un directeur financier cloné suffit désormais à faire virer des fonds.
Plus l’imitation se démocratise, plus le soupçon s’installe.
Devons-nous commencer à douter de tout ?
Pourquoi c’est devenu (trop) facile
Trois briques techniques alimentent ce déferlement.
D’abord, les modèles de diffusion savent recréer chaque micro-expression avec quelques photos haute résolution.
Le détourage de visage, autrefois laborieux, se fait en deux clics.
Côté audio, le clonage vocal ne demande plus que trente secondes d’enregistrement pour reproduire un timbre avec les bonnes intonations.
Des logiciels gratuits alignent les phonèmes, corrigent le souffle et calent la prosodie sur n’importe quel texte.
Enfin, un algorithme de synchronisation labiale vient ajuster les mouvements des lèvres à la piste sonore, éliminant l’effet “marionnette” qui trahissait les premiers deepfakes.
En clair, un PC de gaming et un tutoriel YouTube suffisent aujourd’hui pour créer ces vidéos, là où il fallait un studio spécialisé il y a cinq ans.
Reconnaître l’illusion : les réflexes
La bonne nouvelle, c’est que le deepfake trahit encore des indices si l’on prend le temps de chercher.
Commencez par la source : une vidéo uploadée en 360 p sur un compte anonyme mérite instantanément vérification.
Pour l’audio, Une voix trop lisse, sans bruit de fond, mérite d’être recoupée.
Ensuite, observez la physique.
Une lumière incohérente sur la peau, des clignements d’yeux trop réguliers, des bijoux qui traversent la chemise sont autant de bugs que les algorithmes corrigent encore mal.
Ces gestes ne demandent ni logiciel complexe ni diplôme d’informatique.
En quinze secondes d’observation, vous pouvez avoir une première idée de la vérité.
Mais votre arme la plus efficace reste le croisement.
Rentrez une capture d’écran dans un moteur de recherche.
Si le même visage apparaît avec des vêtements différents ou une autre coupe de cheveux dans le même décor, méfiance.
Vous pouvez vous entraîner à détecter les deepfakes avec cette vidéo :
Vous pouvez aussi vérifier si des médias reconnus relaient l’extrait.
Dans l’affaire Brigitte Macron, la bascule a eu lieu quand plusieurs rédactions ont obtenu la version longue, filmée sous deux angles indépendants.
L’argument du “deepfake russe” n’a pas tenu face à la pluralité des preuves.
De la même façon, le faux appel pro-Biden a été démasqué quand les opérateurs téléphoniques ont isolé un enregistrement absent des bases de messages officiels.
Et au-delà de notre propre jugement, une réponse technologique est en train d’émerger.
Et après ?
YouTube, Meta et TikTok intègrent progressivement des détecteurs automatiques basés sur l’analyse des micro-textures et du signal audio “infrason.”
Instagram annonce même la création d’un label IA embarqué dans chaque export vidéo
Il existe aussi des extensions comme InVID, JPEGsnoop ou Reality Defender capables de pointer les incohérences visuelles.
Attention cependant : aucun filtre n’atteint aujourd’hui 100 % de fiabilité.
Un résultat “authentique” n’est pas un blanc-seing. Il signifie seulement que la machine n’a pas trouvé d’anomalie flagrante.
Votre jugement reste la couche de sécurité finale.
Nous vivons une période où le deepfake est devenu la copie carbone de notre réalité, et où la vidéo perd sa présomption d’innocence.
Dans ce paysage, notre esprit critique prévaut.

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.