
Temps de lecture : 1mn30
Hello,
Aujourd’hui, on parle d’un sujet qui touche tous ceux qui utilisent l’IA au quotidien : les hallucinations.
Pourquoi les modèles inventent des réponses, et comment OpenAI propose de changer la manière de les entraîner pour éviter que ça n’arrive.
Ensuite, on parle d’un accord qui pourrait ouvrir la voie des marchés à OpenAI, et d’Apple qui décide encore de boycotter l’IA.
Théo


New research explains why LLMs hallucinate, through a connection between supervised and self-supervised learning. We also describe a key obstacle that can be removed to reduce them. 🧵openai.com/index/why-lang…
— #Adam Tauman Kalai (#@adamfungi)
6:59 PM • Sep 5, 2025
Une IA hallucine quand elle donne avec assurance une réponse fausse au lieu d’admettre qu’elle n’a pas la connaissance nécessaire.
Jusqu’à maintenant, on pensait que plus de données équivalait à moins d’erreurs.
Sauf qu’OpenAI vient de prouver le contraire.
L’essentiel :
Déjà, la plupart des évaluations de modèles IA donnent 1 point à la bonne réponse et 0 à “je ne sais pas”.
Résultat : les modèles apprennent à tenter leur chance plutôt qu’à se taire quand ils doutent.
L’échelle élimine presque les fautes de grammaire/parenthèses, mais pas les “faits arbitraires” (date d’anniversaire, titre d’une thèse rare) qui n’ont pas de motif statique dans les données.
Sur une épreuve simple, un petit modèle qui s’abstient 52 % du temps a un taux d’erreur total bien plus bas qu’un modèle qui s’abstient 1 % du temps même si ce dernier affiche une “meilleure” exactitude brute.
Solution : pénaliser plus fort les erreurs énoncées sur un ton confiant, donner un crédit partiel au doute, et valoriser l’honnêteté.
Bref, les IA doivent parfois apprendre à se taire.

4 facts about our structure:
-OpenAI will continue to be controlled by the current nonprofit
-Our existing for-profit will become a Public Benefit Corporation
-Nonprofit will control & be a significant owner of the PBC
-Nonprofit & PBC will continue to have the same mission
— #OpenAI (#@OpenAI)
6:04 PM • May 5, 2025
OpenAI a signé un protocole d’accord avec Microsoft pour redéfinir leur partenariat, pendant que l’organisation se restructure.
L’essentiel :
OpenAI prépare une transition de son montage hybride à une « Public Benefit Corporation » (PBC).
Objectif : lever du capital plus facilement et clarifier la gouvernance pour une introduction en Bourse, finalisant sa conversion en organisation à but lucratif.
Microsoft conserve un accès préférentiel à la techno d’OpenAI, après des investissements cumulés estimés entre $11 et $13 milliards depuis 2019.
Cet accord porterait la valorisation d’OpenAI à $500 milliards dans certains scénarios, avec une part significative conservée par l’entité à but non lucratif censée “contrôler” la partie profitable.
La PBC légalise ce mix entre profits et intérêt général visé par OpenAI.
L’accord n’est pas finalisé, mais il ouvre le chemin : une structure plus classique, un partenaire ancré, une mission inscrite dans les statuts.
Si tout se concrétise, 2025 et 2026 pourraient être des années charnières pour l’IPO d’OpenAI.

Apple a zappé l’IA lors de son dernier keynote.
Le discours a parlé d’un iPhone plus fin, de meilleure autonomie, de capteurs santé, mais très peu de Apple Intelligence.
L’essentiel :
Après la polémique, Apple mise sur la prudence et met l’IA en coulisses.
Le prochain iPhone aura donc un design aminci à 5,6 mm et une nouvelle puce A19 Pro.
Il permettra aux modèles langage de tourner en local ainsi qu’une accélération pour des performances proches d’un MacBook Pro.
Mais peu d’effets d’annonces IA. Les fonctions Visual Intelligence et traduction en direct avaient déjà été montrées à la WWDC 2025.
Surtout que Google et Samsung les proposent depuis 2024.Une pression d’autant plus forte qu’au moins 10 chercheurs IA auraient quitté Apple récemment.
Apple choisit de faire profil bas pour mettre l’IA au service de petites améliorations d’usage.


Focus : Finis les hallucinations
Paper from OpenAI says hallucinations are less a problem with LLMs themselves & more an issue with training on tests that only reward right answers. That encourages guessing rather than saying “I don’t know”
If this is true, there is a straightforward path for more reliable AI.
— #Ethan Mollick (#@emollick)
3:19 PM • Sep 6, 2025
On a tous été dans cette situation.
On pose une question simple à ChatGPT, il répond avec certitude.
Sauf qu’en creusant, on se rend compte que sa réponse est fausse.
Et parfois, les conséquences sont graves.
En 2023, un avocat new-yorkais a été sanctionné de $5 000 pour avoir cité des arrêts inventés par un chatbot.
En 2024, Air Canada a dû indemniser un client parce que son assistant virtuel l’avait induit en erreur.
L’erreur d’un modèle sur une promo autour de James-Webb a fait s’évaporer des milliards de capitalisation en séance pour Alphabet.
Trois exemples, un même mécanisme : des réponses plausibles, données avec aplomb, mais parfaitement fausses.
À suivre :
C’est quoi une hallucination ?
Que dit (vraiment) l’étude ?
Comment bannir les hallucinations ?

C’est quoi une hallucination ?
Une hallucination, c’est une affirmation fausse mais crédible produite par un modèle.
On en distingue deux types.
Les intrinsèques, questions dans lesquelles le modèle devrait pouvoir donner la bonne réponse par simple application d’une règle déterministe, comme le calcul, mais échoue quand même (quand un modèle n’arrive pas à compter les lettres des mots ou à faire une addition.)
Et les extrinsèques, quand la réponse contient des faits du monde réel erronés ou de fausses dates.
Dans les deux cas, l’IA ne ment pas comme un humain.
Elle bricole des réponses avec les éléments à sa disposition.
AI Hallucination Examples and Why They Happen ✨
Here are some of the quirkiest examples of AI hallucinations and unexpected results we have found while working with AI-generated images and text.Read our recent blog post journal.everypixel.com/ai-hallucinati…
#digital #aiart #NeuralNetworks
— #Everypixel | Creative Technologies (#@Everypixelcom)
2:00 PM • May 18, 2024
D’où viennent vraiment ces erreurs ?
En fait, leur origine remonte à la création d’une IA.
Quand on entraîne un modèle de langage, on ne lui donne pas un atlas ou une liste de dates.
On lui apprend à prédire le mot suivant à partir de milliards de phrases.
Résultat : il devient excellent pour repérer des motifs fréquents (« Paris est la capitale de la France » apparaît des millions de fois au cours de son entraînement.)
En revanche, il est beaucoup moins assuré dès qu’on passe à des faits rares.
La date d’une soutenance obscure, l’anniversaire d’un chercheur peu médiatisé, le nom du troisième auteur d’un papier de 2009…
Ces informations existent, mais elles circulent peu.
Et quand il n’y a ni motif ni données suffisantes, l’IA improvise.
Imaginez un QCM de 100 questions dont 20 sont impossibles sans documents externes.
Si le modèle « ose » répondre à tout, il peut en réussir par hasard 4 sur ces 20 et se classer mieux qu’un modèle qui répond « je ne sais pas ».
Pourtant, il aura quand même commis 16 erreurs confiantes.
C’est là que la dernière recherche d’OpenAI apporte un éclairage décisif.
Que dit l’étude ?
Le problème n’est pas seulement technique, il est socio-technique.
Nos barèmes et nos classements privilégient encore une logique binaire exact/faux (0-1).
OpenAI has released a shocking paper that reveals
"why AI hallucinates, and its mechanism."
And it's free,
Here's are true reasons why hallucinations occur, as shown in the paper, along with 6 solutions🧵
— #Eyisha Zyer (#@eyishazyer)
11:03 AM • Sep 7, 2025
Comme à un QCM, laisser blanc équivaut à 0, mais tenter sa chance peut rapporter 1.
En optimisant pour ce score, on fabrique des modèles bons à passer des examens plutôt que des assistants fiables.
Nous récompensons le courage de répondre, pas la lucidité de s’abstenir.
Et même après alignement (la deuxième couche d’entraînement supervisé), la plupart des classement jouent sur la précision, pas l’honnêteté.
Un modèle A prudent, qui s’abstient quand il doute, sera battu par un modèle B qui « tente sa chance » plus souvent : B récolte plus de points, donc grimpe au classement.
Cette incitation structurelle explique pourquoi des hallucinations confiantes survivent, voire augmentent, à mesure qu’on optimise pour ces barèmes.
Alors comment y remédier ?
Cette découverte demande de revoir nos habitudes de mesure.
Il faut pénaliser plus fort les erreurs confiantes que l’abstention, et donner du crédit aux expressions d’incertitude appropriées.
Des formules comme « je ne sais pas », « sources insuffisantes », « information ambiguë ».
Concrètement, on introduit des seuils explicites de confiance dans les instructions des évaluations.
Réponds uniquement si tu es sûr à plus de 75 %,
Une erreur vaut –2,
Un “je ne sais pas” vaut 0.
Si l’on change les règles du jeu, on pousse les modèles à mieux calibrer leur confiance, à demander des précisions quand il faut, et à éviter les inventions.
how to force AI to tell the truth (remove most hallucinations):
— #Machina (#@EXM7777)
2:00 PM • Sep 13, 2025
En clair, moins de réponses au culot et plus de fiabilité là où ça compte.
Les hallucinations ne sont pas inévitables si on autorise l’IA à reconnaître ses limites.
Mais tant que les entreprises récompensent les modèles qui “devinent” mieux les réponses, les IA continueront justement à deviner.
Le chantier est donc autant méthodologique que technique.
Préféreriez-vous un assistant qui avoue parfois « je ne sais pas » mais se trompe moitié moins, ou un assistant qui répond toujours, quitte à halluciner plus souvent ?

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.