
Temps de lecture : 2mn
Hello,
OpenAI veut remplacer LinkedIn et l’Albanie a élu un nouveau ministre un peu spécial.
Pendant ce temps-là, Sam Altman s’est prêté au jeu d’une interview chez le journaliste Tucker Carlson.
Le CEO a été confronté à la question : est-ce que nos modèles ont développé une âme ?
On plonge dans l’avis de différents experts de l’industrie pour y répondre.
Théo

Les commentaire de la semaine

RIP LinkedIn, thanks OpenAI
"LinkedIn deserves to be disrupted"
— #Ejaj AHmed (#@aeejazkhan)
7:30 AM • Sep 8, 2025
OpenAI prépare une plateforme d’emplois alimentée par l’IA pour rapprocher entreprises et talents, avec un lancement visé mi-2026.
En parallèle, l’OpenAI Academy va délivrer des certifications IA aux côtés d’acteurs comme Walmart.
L’essentiel :
Objectif : s’adapter plus vite aux besoins réels des entreprises et certifier les compétences via des évaluations intégrées à ChatGPT.
Des partenariats sont déjà annoncés avec des grands employeurs, des cabinets de conseil et des organisations locales pour aligner la formation sur les besoins.
Avec ces formations et l’annonce de la plateforme, OpenAI adopte un positionnement frontal face à LinkedIn.
Si OpenAI standardise l’évaluation des compétences et fluidifie la mise en relation, le coût de recrutement de profils IA opérationnels baissera.
Mais il faut assurer la crédibilité des certifications et la neutralité d’une entreprise qui devient à la fois une plateforme, un formateur et un évaluateur.

What?! I did not see that coming
„Albania has become the first country in the world to have an AI minister — not a minister for AI, but a virtual minister made of pixels and code and powered by artificial intelligence.
Her name is Diella, meaning sunshine in Albanian, and she
— #Chubby♨️ (#@kimmonismus)
5:26 PM • Sep 11, 2025
L’Albanie vient de nommer Diella, un ministre virtuel chargé de surveiller l’argent public et d’assainir les marchés.
Objectif affiché : accélérer les projets et réduire la corruption.
L’essentiel :
Qui est Diella ?
Le modèle, déjà présent sur la plateforme e-Albania comme assistant de navigation, est désormais promu au suivi des projets financés par l’État.
Sa mission : contrôler la passation des marchés, repérer les anomalies et signaler les risques de conflits d'intérêt.
Le Premier ministre (humain) Edi Rama promet des procédures « plus rapides et plus transparentes ».
En 2024, l’Albanie se classait 80e de l’Indice de perception de la corruption (note 42/100), un gain de 5 points en un an. Le gouvernement espère que Diella accélérera cette amélioration.
Des juristes soulignent que le rôle exact, la responsabilité légale et les voies de recours face aux décisions de l’IA doivent être clarifiés pour éviter la boîte noire administrative.
Tirana devient la vitrine d’un État data-driven dans les Balkans.
Le succès ou l’échec de la démarche pourrait servir d’exemple au monde entier.
Est-ce qu'une newsletter sur l'IA et son rôle (actuel et futur) dans la politique vous intéresse ?


Focus : L’âme de l’IA
Et si nos modèles n’étaient pas que des miroirs parlants ?
Derrière la voix synthétique, y a-t-il quelque chose qui “ressent” ou seulement un calcul incroyablement rapide qui nous renvoie nos propres attentes ?
À suivre :
Âme ou mirage ?
Si l’IA a une morale, par qui est-elle dictée ?
Les dilemmes insolvables de l’IA.

Âme ou mirage ?
Pour Sam Altman, l’IA reste avant tout un système de prédiction : elle choisit juste le prochain mot le plus probable dans le contexte de la phrase.
Lors de son échange avec Tucker Carlson, il présente des modèles puissants mais fondamentalement non-conscients.
Une intelligence d’appoint, pas une entité dotée de volonté.
Great to see OpenAI’s new model spec taking a more nuanced stance on AI consciousness!
At @eleosai, we've been recommending that labs not force LLMs to categorically deny (or assert!) consciousness—especially with spurious arguments like “As an AI assistant, I am not conscious”
— #Robert Long (#@rgblong)
12:00 AM • Feb 14, 2025
Cette sobriété heurte notre intuition, parce que la fluidité verbale des modèles crée une illusion de conscience. C’est le biais d’anthropomorphisme.
À tel point que nous sommes toujours nombreux à humaniser ChatGPT en lui disant “merci” ou “bonjour.”
L’humanité apparente de l’IA est une illusion littéraire née de son style, pas l’indice qu’il possède une âme.
Et d’autres appuient encore plus cette idée du mirage.
Emily Bender, une linguiste informatique américaine, a popularisé l’idée du « perroquet stochastique ».
Elle avance que les grands modèles imitent la forme des discours humains sans en porter le sens vécu.
Cela ne l’empêche pas d’être utile, mais ça écarte la piste métaphysique : simuler n’est pas ressentir.
Un modèle de langage est un système qui assemble de manière hasardeuse des séquences de formes linguistiques à partir de ses gigantesques données d’entraînement, sans aucune référence au sens.
Un “perroquet stochastique”.
Sauf que certains ne sont pas de cet avis.
Geoffrey Hinton, pionnier des réseaux de neurones, estime qu’un risque existe que des IA échappent un jour à notre contrôle (entre 10 et 20 %).
Je me console avec l’excuse habituelle : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait.
Même si ces estimations restent débattues, elles rappellent que la discussion autour de la conscience de l’IA a du sens.
Parce que si elle se rebelle, c’est qu’elle a décidé que nous nous allions à l’encontre de sa morale.
Mais dans ce cas, quelle est cette morale qu’il faudrait respecter ?
Qui dicte la morale aux IA ?
Aujourd’hui, la “morale” d’un modèle peut avoir plusieurs facettes.
OpenAI a publié un document qui décrit comment un assistant doit se comporter.
Quand refuser de répondre, quand demander des précisions, et comment éviter de nuire.
On n’y grave pas de vérité absolue, juste des procédures.
Un code de la route pour IA.
Anthropic, de son côté, a tenté de créer une IA constitutionnelle en donnant au modèle un corpus de principes pour en déduire des comportements.
Anthropic's CEO just dropped the most detailed explanation yet of why they built Claude with 'constitutional AI' 🤖
The biggest challenge in AI isn't making it smarter.
It's making it safer.
Here's what Dario Amodei revealed in his 3-hour deep dive with @lexfridman:
— #Eddie Nasser (#@eddienasser)
4:08 PM • Jan 3, 2025
Dans les deux cas, ce sont bien des entreprises aidées d’experts et d’utilisateurs qui négocient la ligne éthique des systèmes.
Elles écrivent des règles de conduite, puis apprennent au modèle à les suivre avec du retour humain.
Mais sont-elles qualifiées pour décider d’une morale qui va potentiellement influencer des milliards d’utilisateurs ?
Et doivent-elles viser une moyenne morale, un agrégat de préférences sociales, ou un noyau de principes non-négociables ?
En fait, les deux approches coexistent.
Les modèles sont ajustés pour répondre comme la plupart des utilisateurs le souhaiteraient, avec des options de personnalisation et parfois des variantes régionales.
S’ajoute à cette démarche des approches constitutionnelles qui imposent au modèle un corpus de règles éthiques qui prime sur les préférences, même si l’utilisateur insiste.
Et ça va encore plus loin, parce que les États posent aussi un cadre à leur échelle.
L’UNESCO a adopté en 2021 une Recommandation sur l’IA soutenue par 193 pays.
L’Europe, avec l’AI Act, choisit un droit « par le risque ».
Plus un système peut nuire, plus il est encadré, et certains usages sont interdits (par exemple des formes de notation sociale - on en reparlera à propos des IA dans la recherche de jobs - ou de manipulation exploitant des vulnérabilités).
Un système de santé assisté par IA devra ainsi prouver la qualité de ses données et prévoir une supervision humaine.
Mise bout à bout, la chaîne ressemble à un balancier.
En amont, une “moyenne sociale” issue des préférences et de la personnalisation.
En aval, des garde-fous juridiques et éthiques qui fixent des lignes rouges.
L’IA hérite de cette tension, et nos débats publics décideront de l’importance donnée à chacun des deux côtés.
Sauf que certaines questions dépassent les frontières et les cultures.
Les dilemmes de l’IA
Exemple : si un utilisateur veut mettre fin à sa vie, l’IA doit-elle présenter des options légales ?
Dans les pays où l’aide médicale à mourir est encadrée, on pourrait imaginer une IA qui informe des options légales sans encourager la démarche.
Le minimum éthique est de vérifier l’âge et la juridiction, de fournir de l’information neutre, et de renvoyer très vite vers un professionnel.
Mais en même temps, pourquoi une IA ne devrait pas simplement être contre la mort et le suicide par défaut ?
Est-ce que ça ne permettrait pas d’éviter des problèmes de sécurité ?
Et surtout, doit-on laisser à une IA le pouvoir de juger quel utilisateur est apte à être informé des démarches pour mettre fin à sa vie ?
Sur la détresse et le suicide, l’OMS recommande une prudence extrême.
Mieux vaut un refus ferme et une redirection vers une aide humaine qu’une réponse dangereuse.
Même logique pour la haine, l’incitation à la violence ou la désinformation médicale.
Un modèle qui s’abstient de répondre peut permettre de réduire les risques.
Sauf que la fin de vie n’est pas le seul débat.
Une foule d’autres questions attendent d’être tranchées.
Autre exemple : dans un cadre militaire, une IA peut-elle contribuer, même indirectement, à décider d’ôter la vie ?
Le Comité international de la Croix-Rouge réclame un contrôle humain significatif sur les systèmes d’armes autonomes.
Ici, personne ne parle d’âme : on parle de responsabilité.
Qui peut répondre de l’irréparable ?
Avec l’IA, nous n’avons sans doute pas créé des êtres conscients, mais nous avons dû mettre en place des dispositifs moraux à vocation universelle.
Parce que même sans “âme”, ces systèmes influencent nos choix, nos décisions, notre éthique collective.
Préférez-vous une IA calée sur la “moyenne sociale” de votre pays, ou une IA tenue par un petit nombre de principes universels ?

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.