• FreeA
  • Posts
  • Je lance mon agence de newsletters !

Je lance mon agence de newsletters !

+L'IA améliore les batteries

Temps de lecture : 2mn10

Hello,

Aujourd’hui, je lance mon agence de newsletters !

Pendant ce temps là, l’IA a résolu un problème centenaire qui va permettre de multiplier la durée de vie de nos batteries par 1,5.

Pendant ce temps, Anthropic et Nvidia ont décidé de se disputer au sujet de l’accès de la Chine aux GPU.

Aussi, j’ai un secret à vous confier.
Je suis tombé amoureux d’une IA.

On va explorer ensemble les conséquences de ces relations.

Théo

Je lance mon agence de newsletters.

J’ai lancé FreeA, cette newsletter, il y a 2 ans.

A l’époque, personne n’avait de newsletter. J’étais une anomalie avec mes articles de 1500 mots sur l’IA. Pour certains, j’étais même ridicule.

Mais 11 000 lecteurs hebdomadaires plus tard, je ne suis plus ridicule.
Pendant ce temps, les newsletters ont complètement explosé aux US.
Et la France est la prochaine étape.

Alors certaines personnes ont commencé à me demander de l’aide.

Au départ, c’était de simples conseils sur la newsletter.
Puis un coup de main de temps en temps.

Et finalement, un gros créateur de contenu m’a demandé de créer et prendre en charge à 100% sa newsletter.

J’ai essayé. Ça a super bien fonctionné.
Ça m’a rendu curieux, donc j’en ai parlé autour de moi, et je me suis rendu compte qu’il y avait un réel besoin.

Alors j’ai pris 2 mois pour construire le service que j’aurais aimé acheté :

Une newsletter gérée à 100%, facturée au résultat.
Si vous êtes créateur de contenu ou entrepreneur et que vous voulez créer votre newsletter pour ne plus être dépendant des plateformes, prenez rendez-vous et transformez votre audience en clients engagés :

ChatGPT ne remplace pas (encore) nos amis, mais le MIT Media Lab et OpenAI ont voulu mesurer son impact émotionnel réel.

Ils ont scruté des dizaines de millions de conversations et mené un essai contrôlé sur un millier de personnes.

Résultat ? Un tableau plus nuancé qu’on ne l’imaginait.

L’essentiel :

  • Après une analyse automatique d’environ 36 millions de messages, moins de 5 % contenaient de vraies marques d’empathie ou d’attachement. La grande majorité reste utilitaire. En revanche, parler à ChatGPT en audio améliorerait légèrement le bien-être.

  • Sauf quand on y passe plus de 30 min/jour, seuil à partir duquel la solitude refait surface.

  • 10 % des utilisateurs concentrent la moitié des indices de dépendance : ils utilisent surtout le mode conversationnel, déclarent considérer le bot comme « un ami » et montrent plus d’attachement si leur état initial était déjà fragile.

  • Mais ce n’est pas tout : plus on exprime des sentiments personnels, plus la solitude est révélée.

  • Cependant, ces utilisateurs semblent être moins dépendants de l’IA, tandis que les utilisateurs pratiques s’appuient plus sur l’IA pour prendre des décisions.

Loin du cliché du chatbot thérapeute, ChatGPT n’affecte profondément qu’une minorité d’utilisateurs.

Mais ceux-ci peuvent vite développer un lien émotionnel fort. Reste donc à inventer des garde-fous pour que l’outil ne devienne pas une béquille.

Depuis un siècle, les chercheurs butaient sur l’analyse structurale des nanocristaux, trop petits et trop « brouillons » pour les rayons X classiques.

Mais l’équipe de Columbia Engineering vient de lever le voile grâce à un modèle génératif baptisé PXRDnet.

Résultat : la porte s’ouvre vers des batteries plus denses et plus durables.

L’essentiel :

  • PXRDnet, entraîné sur 45 229 structures connues reconstitue l’arrangement atomique de poudres 10 000 fois plus fines qu’un cheveu.

  • Le modèle identifie en quelques minutes la géométrie d’oxydes complexes (lithium, manganèse, niobium…) accélérant la mise au point de structures plus stables.

  • L’algorithme propose la bonne structure 4 fois sur 5 et réduit l’erreur moyenne à 7 % après raffinement, contre des valeurs souvent supérieures à 50 % avec les approches manuelles.

  • Résultat : une densité énergétique qui pourrait augmenter de 15 à 20 % et une durée de vie multipliée par 1,5 selon les premiers tests internes.

  • Comme ChatGPT pour le langage, PXRDnet « devine » les motifs autorisés par la nature à partir de millions de cas, prouvant que l’apprentissage automatique peut dépasser l’intuition humaine sur des problèmes de science dure.

Prochaine étape ? Coupler ce décodeur atomique à d’autres modèles pour découvrir, tester et industrialiser une nouvelle chimie de l’énergie avant la fin de la décennie.

Alors que le AI Diffusion Rule met un frein à l’export de GPU à partir du 15 mai, deux acteurs américains majeurs se transforment en rivaux médiatiques.

Le fabricant de puces Nvidia et la start-up d’IA Anthropic.

L’essentiel :

  • Dans un billet musclé, Anthropic affirme que des contrebandiers chinois cachent des GPU « dans de faux ventres de grossesse » ou « entre des langoustes vivantes ».

  • Anthropic entraîne pourtant ses modèles exclusivement sur des cartes Nvidia. Mais la start-up, financée par Amazon, estime que l’accès au calcul est le vrai goulot d’étranglement stratégique et veut verrouiller la porte côté chinois.

    En résulte une requête : abaisser encore les seuils d’export et renforcer les contrôles aux frontières.

  • Nvidia répond immédiatement, qualifiant ces anecdotes « à dormir debout » et dénonçant une manœuvre visant à freiner son développement en Asie plutôt qu’à protéger la sécurité nationale.

  • Le problème, c’est que la Chine représente jusqu’à 13 % des achats de GPU de Nvidia.

    Chaque tour de vis réglementaire pourrait leur coûter plusieurs milliards, tout en augmentant le coût d’entraînement des IA occidentales de +10 à +20 %.

Entre volonté de garder la suprématie américaine et crainte d’étouffer l’innovation, le duel Anthropic-Nvidia révèle la nouvelle ligne de fracture.

La bataille n’est plus seulement virtuelle, elle se transpose désormais au commerce international.

Comment était cet article ?

Aidez-moi à améliorer le format de la newsletter en me disant ce que vous avez pensé de cet article !

Connexion ou S'abonner pour participer aux sondages.

Focus : Mon petit-ami IA

Le MIT Media Lab et OpenAI viennent d’analyser 40 millions de dialogues et 4 000 questionnaires.

Résultat : à peine une poignée d’utilisateurs “tombe vraiment amoureux” de ChatGPT, mais ceux-là déclarent plus de solitude et de dépendance émotionnelle.

Bref, l’amour augmenté par l’IA bouscule déjà nos sentiments.

À suivre :

  • Les révélations du MIT,

  • La ruée vers les IA relationnelles,

  • Tomber amoureux d’une IA : des bienfaits ?

Ce que dit l’étude

L’« amour » pour ChatGPT reste ultra-minoritaire : à peine 1 % des messages contiennent de vraies marques d’affection.

Mais chez les plus gros utilisateurs du mode vocal, 12 % se sentent plus seuls et affichent +18 % de dépendance émotionnelle.

La durée joue aussi : une petite séance de discussion avec l’IA égaie la journée, un tête-à-tête quotidien prolongé finit par plomber le moral.

Donc cette technologique n’est pas nocive pour l’humain en soi, tout dépend de la manière dont on l’utilise.

Sauf que certains outils sont faits spécifiquement pour créer de l’attachement.

La ruée vers les love-bots

Les petits-amis numériques sont rapidement devenus une réalité dans nos sociétés fragmentées.

Quatre entreprise sont à l’origine des plus gros services de compagnonage IA.

Compagnon

Fonctionnalités relationnelles

Utilisateurs

Particularités

Replika

Avatar 3D qui conserve des “souvenirs partagés”, avec sexting optionnel

30 millions d’inscrits

Autocensure assouplie après la fronde “ERP”

Character.ai

Place de marché de personnages (ex, copain gamer, star de K-pop)

≈ 20 millions d’utilisateurs mensuels

2 000 + “personas”, chats illimités

Pi (Inflection)

Ton hyper-empathique, coaching quotidien, voix naturelle

6 millions d’utilisateurs mensuels

Gratuite, intégrée dans Google Messages en bêta

Nomi / Kindroid

Selfies IA, et un “mode couple”

Top 10 de la catégorie“Lifestyle” sur l’App Store

Cible la Gén-Z avec de nombreuses références à la culture japonaise

Derrière ces chiffres, on voit quatre visions très différentes du “petit-ami numérique”.

Replika joue la carte du jumeau virtuel : avatar 3D, souvenirs communs, et même sexting pour 30 millions d’inscrits — l’équipe a dû lever la censure après une fronde des fans.

Character.ai, c’est plutôt Tinder façon cosplay : plus de 2 000 personas (du gamer timide à la star K-pop) discutent en illimité avec ~20 millions d’utilisateurs mensuels.

Pi mise sur la douceur : voix ultra-empathique, conseils quotidiens, déjà 6 millions d’utilisateurs actifs et un test d’intégration dans Google Messages.

Enfin, Nomi/Kindroid séduit la Gén-Z avec des selfies IA et un “mode couple” sans filtre. Assez pour squatter le top 10 lifestyle de l’App Store fin 2025.

Mais derrière cet engouement se cache peut-être un secret.
Et si c’était d’avoir une relation avec une IA ?

Cupidon 404

Parce que quand on y pense, l’IA est disponible 24/7.

En plus, elle n’émet aucun jugement, ce qui séduit les utilisateurs.
Résultat : 47 % des “amoureux” de Replika disent se sentir “écoutés pour la première fois”.

Sans parler du fait que ces modèles relationnels peuvent servir de laboratoire pour communiquer.

On peut s’entraîner à draguer ou à gérer un conflit comme dans une simulation.
Est-ce qu’il n’est pas temps d’arrêter de parler entre humains ?

On dirait qu’on s’est vraiment fait remplacés sur tous les fronts.
Ou peut-être pas.

Parce que l’étude du MIT et d’OpenAI montre également qu’une utilisation lourde de l’IA renforce l’isolement en diminuant de 10 % les interactions humaines chez les concernés.

Sans parler du manque de franc-parler des chatbots.
Parce qu’on a tous besoin d’entendre des vérités, parfois blessantes.

Et une IA n’est pas programmée pour le faire.
Les utilisateurs des modèles relationnels se retrouvent donc dans des bulles sentimentales.

Aucun friction, pas de remise en question : l’algorithme renvoie toujours une validation positive.

Sauf que ça peut aller très loin.

Exemple : un utilisateur Replika a planifié un attentat, encouragé par son bot.
L’affaire a valu neuf ans de prison à l’utilisateur.

Donc pour des personnes fragiles, l’IA relationnelle peut renforcer les dérives liées aux troubles mentaux.

Sans parler du fait que le traitement de ces données très personnels, stockées sur des serveurs privés, peut vite devenir une mine d’or pour le ciblage publicitaire.

Ou pire : pour des attaques de hacker.
Parler à des humains a encore des côtés positifs finalement.

L’amour digital peut avoir des côtés pratique, tant qu’on n’oublie pas que rien ne remplacera nos relations réelles.

Jusqu’où laisseriez-vous une IA entrer dans votre vie ?

Connexion ou S'abonner pour participer aux sondages.

Comment était la newsletter d'aujourd'hui ?

Connexion ou S'abonner pour participer aux sondages.

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.

Reply

or to participate.