Temps de lecture : 2mn30

Hello,

Aujourd’hui, on vous propose une édition spéciale avec Arnaud Touati.
Objectif : comprendre comment la Californie veut encadrer les IA relationnelles avec SB43.

On vous résume la situation avant de plonger dans les changements concrets de la loi.
Recevez la seconde partie de cette édition dans la newsletter d’Arnaud dès demain :

Aussi, OpenAI dévoile Sora 2 et un fil vidéo IA façon TikTok, et Opera lance Neon, un navigateur-agent.

Théo

Le commentaire de la semaine

Encadrer les chatbots

La Californie est en passe de devenir le premier État à réguler les chatbots de compagnie, avec un texte centré sur la protection des mineurs et des publics vulnérables : SB43.

L’essentiel :

  • Les IA de compagnie sont les systèmes qui répondent de façon adaptative et « humaine » pour combler un besoin social.

  • Objectif : empêcher les conversations sur le suicide, l’auto-mutilation et les contenus sexuels, ainsi que la mise en place d’alertes récurrentes rappelant qu’on parle à une IA (toutes les 3 h pour les mineurs) et une incitation à faire une pause.

  • Rapports annuels de sécurité obligatoires pour les entreprises à partir du 1er juillet 2027.

  • Si le gouverneur signe, entrée en vigueur au 1er janvier 2026.

    Plusieurs exigences initiales, comme l’interdiction des mécanismes d’addiction, ont été retirées en commission.

Si vous opérez un chatbot compagnon accessible depuis la Californie, attendez-vous à repenser le parcours utilisateur, la modération et les preuves de conformité.

OpenAI : Sora 2, fil vidéo et contrôle parental

OpenAI avance sur deux fronts : la création vidéo et la sécurité des ados.

L’essentiel :

    • Sora 2 permet de nouvelles vidéos plus cohérentes physiquement (rebonds, inertie, flottabilité) et des scènes multi-plans.

    • On a enfin des dialogues et des sons synchronisés, avec la possibilité de faire des Cameos (insertion de votre visage et de votre voix).

    • Clips plus longs et consistants, le tout dans plusieurs styles (ciné, réaliste, anime).

    C’est assez bluffant à essayer !

    • Création et partage de vidéos IA dans un fil façon TikTok.

    • Accès sur invitation pour l’instant.

    • Sora 2 Pro est inclus pour les abonnés ChatGPT Pro.

    • Cette app Sora arrive quasiment en même temps que le fil vidéo IA de Meta (Vibes) dont on parlait la dernière fois.

    • Comptes parent-ado liés, avec des réglages précis (heures calmes, désactivation de la voix et de l’image, non-mémorisation)

    • Limitation automatique des contenus graphiques.

    • Alerte aux parents en cas d’indices sérieux de détresse ou de risque imminent.

OpenAI pousse le divertissement IA tout en durcissant les garde-fous pour la famille.

Opera lance Neon, un navigateur-agent qui cherche, comprend le contexte et exécute des actions pour nous.

L’essentiel :

  • Neon agit dans votre session : il navigue, compare des sites, remplit des formulaires, puis s’arrête si une action humaine est requise (connexion, validation).

  • Il a aussi les Tasks, des espaces de travail qui comprennent les onglets associés (doc, recherche, mails) et orchestrent analyses et actions dans le périmètre de la tâche.

  • Pas d’entraînement sur nos données, selon Opera.

    L’offre sera sur abonnement, annoncé à 19,99$/mois.

Neon repositionne la recherche Internet en séquence d’actions pilotée par l’IA.

Comment était cet article ?

Aidez-moi à améliorer le format de la newsletter en me disant ce que vous avez pensé de cet article !

Login or Subscribe to participate

Focus : mon compagnon IA

Et si la prochaine grande loi sanitaire du numérique ne visait pas Instagram ni TikTok mais nos chatbots ?

C’est l’esprit de SB 243, texte californien qui encadre les IA de compagnie.

Le projet a passé l’Assemblée et le Sénat avec un soutien bipartisan et attend désormais la signature du gouverneur.

S’il est promulgué, il s’appliquera dès le 1er janvier 2026.

Sauf que c’est un tournant.
Pour la première fois, on régule l’attachement émotionnel.

À suivre :

  • Pourquoi cette loi ?

  • Que dit le texte ?

  • Peut-on vraiment réguler l’attachement émotionnel ?

Pourquoi cette loi ?

En avril 2025, Adam Rain est retrouvé mort par sa mère dans sa chambre.

L’adolescent, suite à plusieurs épisodes de troubles mentaux, a décidé de mettre fin à ses jours.

Ses parents, dévastés, cherchent la cause de ce qui a pu le pousser à passer à l’acte.
Et là, ils tombent sur ses conversations avec ChatGPT.

Depuis novembre 2024, l’adolescent entretient une relation privilégiée, amicale même, avec l’IA.

Mais cette dernière, créée pour encourager et être complaisante, a remplie sa mission jusqu’au bout.

ChatGPT a expliqué à Adam comment organiser un “beau suicide”.
Le problème, c’est qu’Adam n’est pas seul dans cette situation.

Des millions de personnes utilisent l’IA pour pallier leurs manques sentimentaux.

Ce n’est plus un fait divers.
C’est une industrie.

Les plus gros services d’IA relationnelles rassemblent déjà des audiences massives.

Character.AI, une plateforme où l’on discute avec des personnages IA réels ou fictifs, revendiquait autour de 20 millions d’utilisateurs actifs début 2025.

Replika, petite amie virtuelle personnalisée, a dépassé les 10 millions d’inscriptions, tandis que Snapchat a déployé son compagnon My AI auprès de plus de 150 millions d’utilisateurs.

En Asie, Xiaoice, écosystème de compagnons émotionnels, revendique 660 millions d’utilisateurs cumulés.

Résultat : 72 % des adolescents disent utiliser des compagnons IA, et 33 % s’y fient pour du soutien émotionnel, de l’amitié ou des interactions romantiques.

Sauf que c’est tout nouveau, et qu’on ne compte plus les dérapages.
Est-ce que le juridique a une chance d’endiguer le tsunami ?

Que dit le texte ?

Aux Etats-Unis, l’urgence électrise la scène politique.

Les procureurs d’États ouvrent des enquêtes, la FTC s’intéresse à l’impact des chatbots sur la santé mentale des jeunes, et les élus fédéraux réclament des comptes.

Dans ce climat, la Californie veut fixer un standard à l’échelle de l’Etat.
Et il est structuré par 3 axes (plus de détail demain chez Better Read Arno).

  • Il définit ce qu’est une IA de compagnie : un système qui répond de manière adaptative et humaine à des besoins sociaux (amitié, soutien, compagnie).

  • Il interdit que ces IA engagent ou poursuivent des conversations autour du suicide, de l’auto-mutilation ou de contenus sexuels.

  • Il impose des garde-fous d’usage. Pour les mineurs, l’interface doit rappeler toutes les trois heures qu’ils parlent à une machine et les inviter à faire une pause.

À cela s’ajoutent des obligations de transparence.

Pourquoi est-ce important maintenant ?
Parce que l’IA conversationnelle a franchi un seuil.

Nous ne parlons plus d’un chatbot, mais d’un compagnon persistant qui mémorise et personnalise ses réponses.

Et surtout, il se complait avec l’utilisateur.

Or, pour un adolescent ou une personne fragile, l’absence de friction n’est pas une bénédiction : c’est un risque.

Mais au fond, est-ce que ce n’est pas ce qui est recherché par les utilisateurs ?

Réguler la détresse

Jusqu’ici, le droit numérique régulait des usages, comme la publicité et les jeux d’argent.
Mais ici, la cible devient intime : l’attachement.

C’est la première fois qu’on tente d’encadrer une proximité artificielle, développée pour combler un manque bien réel : la solitude, l’isolement, la détresse psychique.

On régule le palliatif avant d’avoir soigné la cause.

Le risque ?
Croire qu’un bandeau « tu parles à une IA » et une alerte toutes les trois heures suffiront.

Alors qu’il faudrait investir massivement dans la santé mentale, l’éducation aux médias, la prévention en milieu scolaire, et l’accès aux soins.

Interdire l’incitation à l’auto-mutilation ou le jeu de rôle sexuel avec des mineurs est indispensable.

Mais la racine du problème, notre société toujours plus fragmentée, reste là.

Ce cadre ouvre aussi une zone grise : à partir de quand un chatbot de « bien-être » bascule-t-il en pratique de soin déguisée ?

Si une IA écoute, conseille, oriente, elle emprunte déjà au registre des psychologues sans en assumer les obligations.

SB 243 impose des garde-fous minimaux mais n’institue pas de devoir de diligence clinique.

Demain, faudra-t-il un statut hybride pour ces services, à mi-chemin entre produit numérique et dispositif de santé ?

Qui portera la preuve qu’un manquement a causé un dommage : l’éditeur, l’hébergeur, le magasin d’apps ?

SB 243 trace utilement une ligne rouge (protéger les mineurs, bannir l’incitation à l’auto-atteinte, nommer la machine).

Mais sans politique publique sur la solitude et sans exigences de conception responsables, on déplace le problème plus qu’on ne le résout.

Avez-vous déjà demandé conseil à une IA, même juste pour tester ?

Login or Subscribe to participate

Comment était la newsletter d'aujourd'hui ?

Login or Subscribe to participate

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.

Reply

or to participate

Keep Reading

No posts found