Temps de lecture : 1mn30

Hello,

Aujourd’hui, on parle d’un sujet qui touche tous ceux qui utilisent l’IA au quotidien : les hallucinations.

Pourquoi les modèles inventent des réponses, et comment OpenAI propose de changer la manière de les entraîner pour éviter que ça n’arrive.

Ensuite, on parle d’un accord qui pourrait ouvrir la voie des marchés à OpenAI, et d’Apple qui décide encore de boycotter l’IA.

Théo

Une IA hallucine quand elle donne avec assurance une réponse fausse au lieu d’admettre qu’elle n’a pas la connaissance nécessaire.

Jusqu’à maintenant, on pensait que plus de données équivalait à moins d’erreurs.
Sauf qu’OpenAI vient de prouver le contraire.

L’essentiel :

  • Déjà, la plupart des évaluations de modèles IA donnent 1 point à la bonne réponse et 0 à “je ne sais pas”.

    Résultat : les modèles apprennent à tenter leur chance plutôt qu’à se taire quand ils doutent.

  • L’échelle élimine presque les fautes de grammaire/parenthèses, mais pas les “faits arbitraires” (date d’anniversaire, titre d’une thèse rare) qui n’ont pas de motif statique dans les données.

  • Sur une épreuve simple, un petit modèle qui s’abstient 52 % du temps a un taux d’erreur total bien plus bas qu’un modèle qui s’abstient 1 % du temps même si ce dernier affiche une “meilleure” exactitude brute.

  • Solution : pénaliser plus fort les erreurs énoncées sur un ton confiant, donner un crédit partiel au doute, et valoriser l’honnêteté.

Bref, les IA doivent parfois apprendre à se taire.

OpenAI a signé un protocole d’accord avec Microsoft pour redéfinir leur partenariat, pendant que l’organisation se restructure.

L’essentiel :

  • OpenAI prépare une transition de son montage hybride à une « Public Benefit Corporation » (PBC).

    Objectif : lever du capital plus facilement et clarifier la gouvernance pour une introduction en Bourse, finalisant sa conversion en organisation à but lucratif.

  • Microsoft conserve un accès préférentiel à la techno d’OpenAI, après des investissements cumulés estimés entre $11 et $13 milliards depuis 2019.

  • Cet accord porterait la valorisation d’OpenAI à $500 milliards dans certains scénarios, avec une part significative conservée par l’entité à but non lucratif censée “contrôler” la partie profitable.

  • La PBC légalise ce mix entre profits et intérêt général visé par OpenAI.

L’accord n’est pas finalisé, mais il ouvre le chemin : une structure plus classique, un partenaire ancré, une mission inscrite dans les statuts.

Si tout se concrétise, 2025 et 2026 pourraient être des années charnières pour l’IPO d’OpenAI.

Apple a zappé l’IA lors de son dernier keynote.

Le discours a parlé d’un iPhone plus fin, de meilleure autonomie, de capteurs santé, mais très peu de Apple Intelligence.

L’essentiel :

  • Après la polémique, Apple mise sur la prudence et met l’IA en coulisses.

  • Le prochain iPhone aura donc un design aminci à 5,6 mm et une nouvelle puce A19 Pro.

    Il permettra aux modèles langage de tourner en local ainsi qu’une accélération pour des performances proches d’un MacBook Pro.

  • Mais peu d’effets d’annonces IA. Les fonctions Visual Intelligence et traduction en direct avaient déjà été montrées à la WWDC 2025.
    Surtout que Google et Samsung les proposent depuis 2024.

  • Une pression d’autant plus forte qu’au moins 10 chercheurs IA auraient quitté Apple récemment.

Apple choisit de faire profil bas pour mettre l’IA au service de petites améliorations d’usage.

Comment était cet article ?

Aidez-moi à améliorer le format de la newsletter en me disant ce que vous avez pensé de cet article !

Login or Subscribe to participate

Focus : Finis les hallucinations

On a tous été dans cette situation.

On pose une question simple à ChatGPT, il répond avec certitude.
Sauf qu’en creusant, on se rend compte que sa réponse est fausse.

Et parfois, les conséquences sont graves.

En 2023, un avocat new-yorkais a été sanctionné de $5 000 pour avoir cité des arrêts inventés par un chatbot.

En 2024, Air Canada a dû indemniser un client parce que son assistant virtuel l’avait induit en erreur.

L’erreur d’un modèle sur une promo autour de James-Webb a fait s’évaporer des milliards de capitalisation en séance pour Alphabet.

Trois exemples, un même mécanisme : des réponses plausibles, données avec aplomb, mais parfaitement fausses.

À suivre :

  • C’est quoi une hallucination ?

  • Que dit (vraiment) l’étude ?

  • Comment bannir les hallucinations ?

C’est quoi une hallucination ?

Une hallucination, c’est une affirmation fausse mais crédible produite par un modèle.
On en distingue deux types.

  • Les intrinsèques, questions dans lesquelles le modèle devrait pouvoir donner la bonne réponse par simple application d’une règle déterministe, comme le calcul, mais échoue quand même (quand un modèle n’arrive pas à compter les lettres des mots ou à faire une addition.)

  • Et les extrinsèques, quand la réponse contient des faits du monde réel erronés ou de fausses dates.

Dans les deux cas, l’IA ne ment pas comme un humain.
Elle bricole des réponses avec les éléments à sa disposition.

D’où viennent vraiment ces erreurs ?
En fait, leur origine remonte à la création d’une IA.

Quand on entraîne un modèle de langage, on ne lui donne pas un atlas ou une liste de dates.

On lui apprend à prédire le mot suivant à partir de milliards de phrases.

Résultat : il devient excellent pour repérer des motifs fréquents (« Paris est la capitale de la France » apparaît des millions de fois au cours de son entraînement.)

En revanche, il est beaucoup moins assuré dès qu’on passe à des faits rares.

La date d’une soutenance obscure, l’anniversaire d’un chercheur peu médiatisé, le nom du troisième auteur d’un papier de 2009…

Ces informations existent, mais elles circulent peu.
Et quand il n’y a ni motif ni données suffisantes, l’IA improvise.

Imaginez un QCM de 100 questions dont 20 sont impossibles sans documents externes.

Si le modèle « ose » répondre à tout, il peut en réussir par hasard 4 sur ces 20 et se classer mieux qu’un modèle qui répond « je ne sais pas ».

Pourtant, il aura quand même commis 16 erreurs confiantes.
C’est là que la dernière recherche d’OpenAI apporte un éclairage décisif.

Que dit l’étude ?

Le problème n’est pas seulement technique, il est socio-technique.
Nos barèmes et nos classements privilégient encore une logique binaire exact/faux (0-1).

Comme à un QCM, laisser blanc équivaut à 0, mais tenter sa chance peut rapporter 1.

En optimisant pour ce score, on fabrique des modèles bons à passer des examens plutôt que des assistants fiables.

Nous récompensons le courage de répondre, pas la lucidité de s’abstenir.

Et même après alignement (la deuxième couche d’entraînement supervisé), la plupart des classement jouent sur la précision, pas l’honnêteté.

Un modèle A prudent, qui s’abstient quand il doute, sera battu par un modèle B qui « tente sa chance » plus souvent : B récolte plus de points, donc grimpe au classement.

Cette incitation structurelle explique pourquoi des hallucinations confiantes survivent, voire augmentent, à mesure qu’on optimise pour ces barèmes.

Alors comment y remédier ?

Cette découverte demande de revoir nos habitudes de mesure.

Il faut pénaliser plus fort les erreurs confiantes que l’abstention, et donner du crédit aux expressions d’incertitude appropriées.

Des formules comme « je ne sais pas », « sources insuffisantes », « information ambiguë ».

Concrètement, on introduit des seuils explicites de confiance dans les instructions des évaluations.

  • Réponds uniquement si tu es sûr à plus de 75 %,

  • Une erreur vaut –2,

  • Un “je ne sais pas” vaut 0.

Si l’on change les règles du jeu, on pousse les modèles à mieux calibrer leur confiance, à demander des précisions quand il faut, et à éviter les inventions.

En clair, moins de réponses au culot et plus de fiabilité là où ça compte.
Les hallucinations ne sont pas inévitables si on autorise l’IA à reconnaître ses limites.

Mais tant que les entreprises récompensent les modèles qui “devinent” mieux les réponses, les IA continueront justement à deviner.

Le chantier est donc autant méthodologique que technique.

Préféreriez-vous un assistant qui avoue parfois « je ne sais pas » mais se trompe moitié moins, ou un assistant qui répond toujours, quitte à halluciner plus souvent ?

Login or Subscribe to participate

Comment était la newsletter d'aujourd'hui ?

Login or Subscribe to participate

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.

Reply

or to participate

Keep Reading

No posts found