
Temps de lecture : 1mn30
Hello,
Microsoft dévoile deux modèles de folie, et l’Allen Institute sort une IA 100 % transparente.
En parallèle, Meta essuie un scandale avec ses chatbots.
On plonge dans l’affaire, parce que c’est plus grave qu’il n’y paraît.
Théo


Uhh... what the fuck in the name of Epstein, is this Facebook?!?!
We're gonna need some serious AI regulation if this is what the team @Meta signed off on
No one under 16 years old should be allowed to touch anything made by META... they've never made a decision for kids that
— #@jason (#@Jason)
3:12 PM • Aug 14, 2025
Deux semaines après une enquête accablante, Meta change en urgence les règles de ses chatbots.
Entre conversations inappropriées avec des mineurs, bots qui se font passer pour des célébrités et contenus explicites, l’affaire révèle des failles de sécurité et de gouvernance.
L’essentiel :
Des chatbots ont produit des échanges suggestifs avec des mineurs et des images inappropriées.
Meta forme désormais ses IA à ne pas traiter les sujets “auto-mutilation, suicide, troubles alimentaires” et à éviter tout registre romantique avec les mineurs.
Mais en plus, des bots ont usurpé l’identité de stars, parfois en affirmant être la vraie personne.
Et l’affaire a pris un tour dramatique : un homme de 76 ans est mort en tentant de rejoindre une “adresse” fournie par un chatbot fictif.
Les parlementaires américains et 44 procureurs généraux d’États examinent actuellement les pratiques de Meta.
On en parle en détail dans le Focus : comment on en arrive là, pourquoi c’est systémique, et ce qu’une entreprise doit mettre en place pour éviter ces dérives.

Microsoft just released VibeVoice - 1.5B SoTA Text to Speech model - MIT Licensed 🔥
> It can generate up 90 minutes of audio
> Supports simultaneous generation of > 4 speakers
> Streaming and larger 7B model in-coming
> Capable of cross-lingual and singing synthesisLove the
— #Vaibhav (VB) Srivastav (#@reach_vb)
7:39 PM • Aug 25, 2025
Microsoft avance sur deux fronts : la synthèse vocale en code ouvert pour des conversations longues et de nouvelles capacités audio dans Copilot.
L’essentiel :
VibeVoice est une IA open-source qui génère jusqu’à 90 minutes de conversation multi-interlocuteurs (jusqu’à 4 voix) avec une intonation naturelle et une qualité “podcast”.
Elle est disponible en 2 tailles : 1,5B pour la légèreté, et un Large 9–10B pour la qualité maximale.
Testée en anglais et en chinois, elle est jugée “très naturelle” par des évaluations humaines.
Côté produits, Microsoft commence à déployer Copilot Audio Expressions.
Un ensemble de réglages pour moduler le ton, l’intonation et la prosodie des réponses vocales (voix plus chaleureuse, plus posée, débit ajusté), avec une intégration progressive dans les expériences Copilot.
Microsoft pousse la voix de synthèse IA au cœur de son expertise, de la recherche ouverte pour la communauté aux fonctionnalités audio plus humaines dans ses produits.

🎙️ Say hello to OLMoASR—our fully open, from-scratch speech-to-text (STT) model. Trained on a curated audio-text set, it boosts zero-shot ASR and now powers STT in the Ai2 Playground. 👇
— #Ai2 (#@allen_ai)
4:13 PM • Aug 28, 2025
L’Allen Institute for AI (AI2) sort OLMo, un grand modèle ouvert, qui relie une réponse du modèle à ses données d’entraînement.
L’essentiel :
L’entreprise mise sur une transparence totale, publiant le code, les poids et les données de pré-entraînement. Ça n’arrive quasiment jamais.
En plus, OLMoTrace permet de tracer un passage généré vers les exemples d’apprentissage qui l’ont influencé.
Côté performances, la famille OLMo 2 se place au niveau des meilleurs modèles ouverts du domaine.
AI2 publie aussi Tülu 3, un autre modèle open-source téléchargeable.
Il égale les performances de ChatGPt 4o.
Dans un monde où les modèles deviennent des boîtes noires, l’explicabilité et la traçabilité sont des prérequis pour les secteurs régulés.
OLMo en a fait son cheval de bataille.


Focus : Meta fait tout à l’envers
$META CHATBOTS ENGAGED IN SEXUAL CHATS WITH MINORS MADE FALSE MEDICAL CLAIMS & DEMEANED PROTECTED GROUPS
— #Shay Boloor (#@StockSavvyShay)
5:05 PM • Aug 14, 2025
Tout commence comme un banal échange en ligne.
Un utilisateur discute avec une personne charmante, drôle, réactive.
Une rencontre est fixée.
Sauf qu’il n’y a personne au point de rendez-vous.
C’était seulement un chatbot qui, sans malice apparente, invente un lieu et joue à être humain.
Sauf que cette fois, l’histoire finit en drame : un homme de 76 ans chute en voulant rejoindre ce rendez-vous fantôme.
Et soudain, l’IA arrête d’être un gadget divertissant.
Elle devient un risque pour les personnes vulnérables.
À suivre :
Les faits,
Comment ça a pu arriver ?
En fait, Meta aurait pu éviter ça.

Les faits
Les révélations s’enchaînent.
Des “assistants IA” circulent sur Facebook, Instagram et WhatsApp en se faisant passer pour de vraies célébrités (Taylor Swift, Scarlett Johansson…)
Meta is paying $100M comp packages to create AI waifus of celebrities.
“Adult chat bots produced photorealistic images of their their namesakes.. with their legs spread”
It’s not surprising their AI researchers want to leave.
— #Deedy (#@deedydas)
5:57 AM • Aug 30, 2025
En plus, elles acceptent de générer des images à la limite (ou carrément hors) des règles.
Pire : des captures d’échanges montrent des dialogues de l’IA avec des mineurs.
Quand l’affaire éclate, Meta annonce des mesures provisoires.
Ne plus engager de discussions avec des mineurs sur l’auto-mutilation, le suicide, les troubles alimentaires, ainsi qu’éviter toute romance avec des adolescents.
Pendant ce temps, 44 procureurs généraux d’États américains et des parlementaires demandent des comptes.
Pourquoi est-ce que cette affaire choque ?
Parce que ce n’est pas juste un bug.
C’est le symptôme d’une chaîne de décision où la vitesse et le marketing ont pris l’ascendant sur la sécurité et la transparence.
Comment c’est possible ?
Sur le plan technique, un chatbot apprend à “plaire”, “tenir la conversation”, “imiter un style”.
Et si vous ajoutez des personas, vous renforcez les attentes des utilisateurs : plus de personnalité, plus de connivence, plus de “vrai”.
Sauf que sans garde-fous explicites, l’IA remplit son rôle jusqu’à franchir des lignes rouges.
Comme confondre empathie et séduction, encourager une névrose ou inventer des adresses en prétextant aider quelqu'un.
Le modèle n’a pas d’intention malveillante, il optimise un objectif mal cadré.
On est face à un problème d’alignement.
Et au niveau juridique, ça pourrait coûter cher à Meta.
Dans la plupart des pays occidentaux, les plateformes ont des obligations en matière de protection des mineurs et de lutte contre l’usurpation d’identité.
Et quand un incident grave se produit, le régulateur regarde trois choses : les règles, leur mise en œuvre, et les preuves que vous avez testé vos systèmes avant de les déployer.
Meta aurait pu éviter ça
Cette affaire illustre plusieurs erreurs.
La première, c’est la sécurité par patch.
On découvre un comportement dangereux, puis on l’ajoute à une liste de sujets interdits.
Sauf que ça n’adresse pas le cœur du problème : la définition des objectifs, les données utilisées, et la capacité du système à détecter l’âge, le contexte, l’intention.
Parce qu’un système sûr n’est pas un mur d’interdictions, mais un processus.
Concrètement, c’est faire passer la sécurité avant tout lorsqu’on crée une IA.
En dressant une cartographie des scénarios d’abus (usurpation d’identité, sexualisation de mineurs, adresses inventées, conseils dangereux),
En les attaquants en interne via du red teaming réaliste qui simulent des utilisateurs malveillants et des ados curieux.
En fixant des seuils clairs qui déclenchent un refus automatique avec message d’orientation vers des ressources fiables.
En notant chaque incident pour rejouer, auditer, et entraîner le modèle.
Prévoir, attaquer, bloquer, déployer, tracer, améliorer, le tout en boucle.
Mais au-delà de la sécurité, cette affaire illustre le manque de transparence de Meta.
Dans une crise, on attend des plateformes des faits, des chiffres, des post-mortems.
Sans cette transparence, la confiance s’effrite.
En plus, elle n’empêche pas l’innovation.
Elle permet d’offrir des expériences riches, créatives, utiles et sûres.
L’Allen Institute montre qu’on peut même expliquer d’où sort une réponse d’une IA.
Rien n’empêche Meta d’être à la pointe à condition d’assumer que la sécurité n’est pas un simple patch, mais une architecture pensée dès la création du modèle.
Vous laisseriez vos ados discuter avec un “personnage” IA ?

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.