Temps de lecture : 1mn45

Hello,

Mais une autre actualité a marqué les dernières semaines.
Le coup porté au visage d’Emmanuel Macron par la première dame.

Problème : l’Elysée a d’abord crié au deepfake russe, avant de confirmer que la vidéo est authentique.

Dans un monde où la vérité est manipulée même au niveau de l’Etat, nous ne pouvons compter que sur nous-mêmes. Alors comment s’armer contre ces vidéos ?

Théo

Une séquence filmée par la presse à l’arrivée de la délégation française à Hanoï montre Brigitte Macron porter la main au visage de son mari.

Problème : l’Élysée a d’abord crié au « deepfake russe » avant de reconnaître, vingt-quatre heures plus tard, que la vidéo était parfaitement authentique.

L’essentiel :

  • D’abord, un communiqué officiel lundi matin : « montage généré par IA et diffusé par des comptes liés au Kremlin ». Le soir même, l’entourage présidentiel admet la véracité des images, parlant d’« échange taquin ».

  • La vidéo comptabilise plus de 12 millions de vues en dix heures sur X, et des centaines de reprises TikTok sont publiées avant la réaction gouvernementale.

  • Problème : quand le pouvoir utilise l’argument “deepfake” pour masquer une polémique, il banalise l’idée que tout peut être faux.

  • À deux ans de la présidentielle, chaque crise d’image devient un test grandeur nature : saura-t-on encore distinguer fausse information, satire et réalité ?

  • Les rédactions ont dû passer la vidéo au peigne fin (métadonnées AP, analyse d’ombre, angle multi-caméras) avant de trancher. Une enquête que l’Élysée aurait pu éviter en disant la vérité d’emblée.

En prétendant d’abord à une manipulation étrangère, l’exécutif a offert un cadeau à tous ceux qui utilisent l’IA pour propager de fausses informations.

Meta veut transformer Facebook et Instagram en régies 100 % automatisées.

Dès 2026, une entreprise glisse la photo d’un produit, fixe son budget, puis l’IA se charge de tout le reste.

L’essentiel :

  • L’écosystème Meta compte 3,43 milliards d’utilisateurs uniques. Le laboratoire idéal pour entraîner des algorithmes publicitaires ultra-personnalisés alors que 97 % des revenus 2024 de Meta viennent déjà de la pub.

  • La recette est simple : à partir de l’image, de l’objectif et du budget, l’IA génère visuel, texte, vidéo et choisit elle-même la cible et l’enchère optimale.

  • Les publicités s’adaptent en temps réel. Paysage enneigé pour l’utilisateur alpin, virée urbaine pour le citadin, selon la géolocalisation et l’historique de navigation

  • Il s’agit également d’un coup de pouce aux petites marques.

    Plus besoin d’agence, l’IA produit des campagnes « clé en main » en quelques clics, accessible même avec un micro-budget.

Meta rêve de devenir votre agence pub automatique : vous indiquez vos objectifs, et leur IA déploie la campagne en quelques secondes.

Anthropic poursuivi en justice (2 fois)

Les ennuis s’accumulent pour l’éditeur de Claude.
Windsurf l’attaque pour rupture brutale d’accès à ses modèles.

Sauf que ce n’est pas tout : Reddit lui colle une assignation pour avoir aspiré des millions de posts sans licence.

L’essentiel :

  • Windsurf, un logiciel pour les développeurs et une start-up à $100 millions de CA annuel affirme qu’Anthropic a coupé, en cinq jours, 90 % de sa capacité sur Claude 3, puis refusé l’accès direct à Claude 4.

    Le motif officieux ? Windsurf est en passe d’être racheté par OpenAI.

  • Conséquence immédiate : développeurs en panne et coûts multipliés. Des milliers d’utilisateurs migrent déjà vers leur concurrence, comme Cursor ou GitHub Copilot.

  • Quant à Reddit, ils déposent plainte en Californie : Anthropic aurait aspiré les posts de 100 millions d’abonnés pour entraîner Claude, sans le moindre accord commercial, alors que la plateforme a signé des deals payants avec Google et OpenAI.

  • Reddit dénonce un « parasitisme » et réclame des dommages et intérêts.

Deux fronts juridiques en une semaine : pour la licorne valorisée à $61,5 milliards, la route vers la rentabilité va se jouer sur le front juridique en plus du front technologique.

Comment était cet article ?

Aidez-moi à améliorer le format de la newsletter en me disant ce que vous avez pensé de cet article !

Login or Subscribe to participate

Focus : Comment s’armer contre les deepfakes ?

En France, Brigitte Macron “gifle” le président dans une vidéo relayée des millions de fois, avant que l’Élysée ne dénonce un deepfake.

Problème : la vidéo était bien réelle.

Aux États-Unis, un faux appel automatisé imitant la voix de Joe Biden a incité des électeurs du New Hampshire à rester chez eux la veille des primaires.

Sur X, plus de 47 millions d’utilisateurs ont été exposés à des images pornographiques d’une Taylor Swift qui n’a jamais posé.

Jamais la frontière entre le vrai et le fabriqué n’a semblé aussi poreuse.

Mais il existe encore des solutions pour ne pas faire partie de ceux qui relayent ces fausses informations.

À suivre :

  • Les conséquence de la prolifération des fausses vidéos.

  • Une production de plus en plus facile.

  • Les méthodes pour les détecter (à l’oeil nu.)

  • La réponse technologique en préparation.

Cet article pouvant servir à tout le monde pour se prémunir face à la montée de la désinformation, nous avons décidé de vous l’offrir.

Si vous voulez lire l’entièreté de nos prochaines publications et nous soutenir, cliquez sur ce bouton :

Une épidémie visuelle qui coûte cher

Les chiffres donnent le vertige : en 2024, une entreprise sur deux dans le monde a subi au moins une tentative d’arnaque par deepfake, pour une perte moyenne de $450 000.

Des chercheurs ont même comptabilisé un quadruplement des deepfakes détectés en ligne entre 2023 et 2024.

Le danger est partout.

Une simple vidéo WhatsApp d’un directeur financier cloné suffit désormais à faire virer des fonds.

Plus l’imitation se démocratise, plus le soupçon s’installe.
Devons-nous commencer à douter de tout ?

Pourquoi c’est devenu (trop) facile

Trois briques techniques alimentent ce déferlement.

D’abord, les modèles de diffusion savent recréer chaque micro-expression avec quelques photos haute résolution.

Le détourage de visage, autrefois laborieux, se fait en deux clics.

Côté audio, le clonage vocal ne demande plus que trente secondes d’enregistrement pour reproduire un timbre avec les bonnes intonations.

Des logiciels gratuits alignent les phonèmes, corrigent le souffle et calent la prosodie sur n’importe quel texte.

Enfin, un algorithme de synchronisation labiale vient ajuster les mouvements des lèvres à la piste sonore, éliminant l’effet “marionnette” qui trahissait les premiers deepfakes.

En clair, un PC de gaming et un tutoriel YouTube suffisent aujourd’hui pour créer ces vidéos, là où il fallait un studio spécialisé il y a cinq ans.

Reconnaître l’illusion : les réflexes

La bonne nouvelle, c’est que le deepfake trahit encore des indices si l’on prend le temps de chercher.

Commencez par la source : une vidéo uploadée en 360 p sur un compte anonyme mérite instantanément vérification.

Pour l’audio, Une voix trop lisse, sans bruit de fond, mérite d’être recoupée.
Ensuite, observez la physique.

Une lumière incohérente sur la peau, des clignements d’yeux trop réguliers, des bijoux qui traversent la chemise sont autant de bugs que les algorithmes corrigent encore mal.

Ces gestes ne demandent ni logiciel complexe ni diplôme d’informatique.
En quinze secondes d’observation, vous pouvez avoir une première idée de la vérité.

Mais votre arme la plus efficace reste le croisement.
Rentrez une capture d’écran dans un moteur de recherche.

Si le même visage apparaît avec des vêtements différents ou une autre coupe de cheveux dans le même décor, méfiance.

Vous pouvez vous entraîner à détecter les deepfakes avec cette vidéo :

Vous pouvez aussi vérifier si des médias reconnus relaient l’extrait.

Dans l’affaire Brigitte Macron, la bascule a eu lieu quand plusieurs rédactions ont obtenu la version longue, filmée sous deux angles indépendants.

L’argument du “deepfake russe” n’a pas tenu face à la pluralité des preuves.

De la même façon, le faux appel pro-Biden a été démasqué quand les opérateurs téléphoniques ont isolé un enregistrement absent des bases de messages officiels.

Et au-delà de notre propre jugement, une réponse technologique est en train d’émerger.

Et après ?

YouTube, Meta et TikTok intègrent progressivement des détecteurs automatiques basés sur l’analyse des micro-textures et du signal audio “infrason.”

Instagram annonce même la création d’un label IA embarqué dans chaque export vidéo

Il existe aussi des extensions comme InVID, JPEGsnoop ou Reality Defender capables de pointer les incohérences visuelles.

Attention cependant : aucun filtre n’atteint aujourd’hui 100 % de fiabilité.

Un résultat “authentique” n’est pas un blanc-seing. Il signifie seulement que la machine n’a pas trouvé d’anomalie flagrante.

Votre jugement reste la couche de sécurité finale.

Nous vivons une période où le deepfake est devenu la copie carbone de notre réalité, et où la vidéo perd sa présomption d’innocence.

Dans ce paysage, notre esprit critique prévaut.

Comment était la newsletter d'aujourd'hui ?

Login or Subscribe to participate

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.

Reply

or to participate

Keep Reading

No posts found