Temps de lecture : 2mn15
Hello,
Une étude des Nations Unies révèle que 40 % des emplois mondiaux pourraient être remplacés par l’IA.
Mais pour ça, il faut créer de bons modèles. Alors on vous explique comment entraîner le meilleur modèle possible.
De son côté, Claude nous a révélé une partie de son fonctionnement, ce qui permet de mieux comprendre comment nos modèles pensent.
Sauf qu’il n’adoptent pas tous la même méthode, et c’est passionnant à découvrir.
PS : L’article long est un “intemporel”, et est donc accessible à tous, même aux abonnés gratuits.
Théo
Avant de pouvoir devenir un véritable assistant personnalisé, une IA doit passer par une étape critique : l’entraînement.
Sauf qu’il n’existe pas une seule méthode, mais plusieurs stratégies qui façonnent le comportement des modèles.
L’essentiel :
Un modèle commence par ingérer des milliards de phrases issues du web, pour apprendre le langage comme un enfant.
Ensuite, on corrige le tir à partir de jeux de données annotés à la main (FAQ, manuels, etc.). C’est le Fine-Tuning. Idéal pour spécialiser un modèle sur un domaine.
Puis vient l’apprentissage par renforcement (RL)
Le modèle apprend en testant et en faisant des erreurs, comme un joueur de jeu vidéo, en recevant des récompenses ou des punitions.
Enfin, des humains interviennent dans le RLHF (Renforcement avec retour humain) où des ingénieurs donnent une note aux réponses de l’IA pour la guider vers des retours plus utiles ou acceptables.
Mais ce n’est pas tout : pour les modèles plus avancés, le COT (chaîne de raisonnement) apprend au modèle à réfléchir étape par étape avant de répondre, ce qui améliore sa logique.
Si on combine le tout, ça donne l’entraînement multi-étapes, avec une IA qui s’auto-corrige grâce à ses propres réponses filtrées, en ayant moins recours à des ensembles de données massifs.
Donc entraîner une IA, c’est un savoureux mélange de données, de puissance de calcul, de méthode et de philosophie.
Car derrière chaque modèle, il y a des choix humains qui influencent ce qu’il comprend, ce qu’il dit, et même ce qu’il pense.
Les chercheurs ont observé comment Claude planifie sa réponse, gère plusieurs langues, et raisonne.
Spoiler : parfois, Claude prend des raccourcis pour répondre.
L’essentiel :
Dans Claude, on a isolé des circuits internes qui traitent un élément (un mot, des concepts) de bout en bout, un peu comme lorsqu’on suit les fils électriques pour en comprendre le fonctionnement.
Les chercheurs ont observé, étape par étape, comment chaque portion du modèle s’active pendant qu’il formule sa réponse.
Les découvertes nous en disent beaucoup sur la manière dont une IA raisonne.
Exemple : plutôt que de produire ses réponses mot à mot, Claude décide parfois à l’avance d’un mot ou d’une idée de fin, puis écrit toute la phrase pour y arriver.
Aussi, lors d’un raisonnement (par exemple “petit” opposé à “grand”), Claude active les mêmes neurones au-delà des langues. Il s’appuie sur un concept interne avant de le traduire dans la langue demandée.
Mais ça va plus loin : parfois, Claude prétend décrire une logique rigoureuse, mais sans vraiment l’appliquer. Il génère juste un récit d’apparence cohérente, plutôt que de suivre une méthode étape par étape.
Ces travaux offrent un accès unique à l’anatomie de Claude et prouvent que les grands modèles de langage sont plus créatifs, mais aussi plus complexes, qu’on ne l’imaginait.
Cette honnêteté d’Anthropic ouvre la voie à une meilleure compréhension globale des modèles d’IA pour le grand public.
What is the projected market value of #AI in 2033? Take a guess.
@UNCTAD is working with member states and partners to ensure that artificial intelligence benefits everyone.
▶️ buff.ly/Hx75BdH
— United Nations Geneva (@UNGeneva)
3:30 PM • Apr 13, 2025
Selon une nouvelle étude des Nations Unies, l’IA pourrait affecter jusqu’à 40 % des emplois dans le monde.
Comment ?
En automatisant de nombreuses tâches routinières.
Mais si l’IA offre des gains de productivité énormes, elle pose aussi de sérieuses questions d’équité et de souveraineté économique.
L’essentiel :
Jusqu’à 40 % des emplois sont concernés. Les métiers administratifs, le secteur manufacturier et les services de base seraient en première ligne face à l’automatisation.
L’étude craint que les pays en développement pâtissent d’un accès limité aux technologies IA, tandis que les grandes puissances renforcent leur avantage.
Sauf que l’IA génère aussi de nouveaux emplois (data-analyse, ingénierie IA, etc.), mais il faudra des programmes de formation et de reconversion rapides pour accompagner ces évolutions.
L’UE encourage un cadre juridique clair et une coopération internationale, afin que la transformation portée par l’IA ne laisse pas sur le carreau des millions de travailleurs.
Bilan : l’IA redessine déjà le marché de l’emploi.
L’urgence est de préparer les salariés au changement, tout en veillant à un partage équitable des bénéfices technologiques.
Moxby donne à chaque membre de votre équipe son propre agent IA, qui apprend, construit, automatise et évolue — transformant votre équipe en une machine d’exécution dopée à l’IA, sans embauches supplémentaires.
Ce ne sont pas des assistants — ce sont des exécutants. Les agents Moxby rédigent du contenu, créent des outils, lancent des campagnes, et évoluent en codant de nouvelles compétences. Personnalisés, autonomes et en constante amélioration.
Comment était cet article ?Aidez-moi à améliorer le format de la newsletter en me disant ce que vous avez pensé de cet article ! |
Pourquoi les grands modèles d’IA sont-ils aussi puissants ?
La réponse tient en un mot : l’entraînement.
Avant de devenir capables de rédiger du texte, de traduire des documents ou de comprendre des images, ces algorithmes ont dû ingérer d’innombrables données.
Mais ce n’est que la première étape : ils sont aussi testés par une tonne de processus techniques sophistiqués.
Derrière chaque assistant virtuel se cachent des milliers de GPU, des millions de données, et des stratégies d’apprentissage qui évoluent en permanence.
L’enjeu ?
Obtenir un modèle plus intelligent, moins biaisé, et mieux adapté aux besoins réels. Plongeons ensemble dans cette mécanique peu visible mais essentielle à l’essor de l’IA.
À suivre :
L’IA est dans une course à la performance.
Les entreprises sont donc obligées de se différencier.
Problème : leurs méthodes atteignent de nouvelles limites.
Cet article fait partie de la série Nos intemporelles, un condensé des concepts indispensables pour comprendre l’IA et anticiper son évolution.
Retrouvez nos autres intemporelles ici :
Depuis quelques années, on assiste à une véritable escalade : les modèles de langage ou d’images voient leur taille et leurs capacités exploser.
GPT-3 d’OpenAI contenait 175 milliards de paramètres, ce qui détermine sa capacité à comprendre le langage et à le nuancer.
Son successeur, GPT-4, en comprend près de deux milliards de milliards.
Evidemment, OpenAI n’est pas la seule entreprise à faire grossir ses modèles exponentiellement. Google, Meta et les autres concurrents suivent la même trajectoire.
À la clé, des IA capables de générer du contenu, de comprendre le contexte et d’interagir de manière naturelle avec nous.
Problème : Un tel progrès exige des ressources considérables en entraînement.
Il faut des données variées et nombreuses, d’importants moyens de calcul, et une vigilance quant à la qualité des méthodes employées.
Sinon, l’IA peut dériver : propager des biais, violer la vie privée ou manquer de fiabilité.
Sauf qu’en parallèle, on ne peut pas réinventer la roue à chaque projet.
Les entreprises cherchent donc à :
Récupérer (ou créer) des données de qualité pour nourrir leurs réseaux de neurones,
Choisir la méthode d’entraînement la plus efficace possible (avec du renforcement, du fine-tuning, etc.),
Disposer de la puissance de calcul adéquate (des fermes de GPU ou TPU gigantesques),
Surveiller l’éthique de leur approche : éviter les biais, préserver la vie privée, respecter les droits d’auteur.
Objectif : créer des systèmes de plus en plus performants, capables d’accélérer la recherche médicale, d’améliorer notre productivité, et de traiter toujours plus de données.
Mais malgré la direction générale du marché, chaque entreprise a sa propre recette pour entraîner ses IA.
OpenAI : l’itération à grande échelle
OpenAI a fait sensation avec sa série GPT.
Leur recette ?
Des modèles de taille colossale, formés sur des données massives (internet, livres, etc.), puis peaufinés avec des techniques comme le renforcement par feedback humain.
L’IA va donner une réponse, et les équipes OpenAI vont se charger de la corriger et de la guider pour que les retours du modèle soient toujours plus précis.
Les humains permettent d’ajuster le comportement du modèle et d’éviter qu’il produise des réponses offensantes ou erronées.
OpenAI bénéficie d’un partenariat avec Microsoft : leurs serveurs Azure hébergent les phases d’entraînement.
Ces moyens colossaux leur permettent de participer à la course.
Google a longtemps mené la danse en matière de recherche fondamentale. C’est son équipe qui a introduit l’architecture Transformer en 2017.
À l’époque, c’était de la folie : cette architecture a permis aux modèles de comprendre le contexte d’un texte en entier, d’un seul coup, sans le lire mot à mot.
Les Transformers sont devenus l’épine dorsale de modèles comme ChatGPT ou Gemini, capables de générer des réponses cohérentes en temps réel.
Donc côté recherche et développement, Google est blindé.
Et ça s’applique aussi au matériel employé.
Aujourd’hui, Google entraîne des modèles géants comme PaLM ou LaMDA sur des accélérateurs TPU (Tensor Processing Units), un matériel conçu en interne.
Son but : intégrer l’IA dans tous ses produits (moteur de recherche, Gmail, etc.) tout en restant prudent sur le déploiement grand public, car une erreur est vite arrivée.
D’ailleurs, Google a déjà fait une erreur avec son premier déploiement de Gemini.
Meta : l’ouverture comme stratégie
L’ancien groupe Facebook propose une approche plus ouverte.
En 2023, elle a publié son modèle LLaMA, avec 65 milliards de paramètres, pour la communauté de recherche, marquant un contraste face au côté fermé d’OpenAI.
Meta mise sur un supercalculateur géant nommé RSC pour entraîner ses IA, et souhaite accélérer via le partage du code et des modèles.
C’est une manière de dynamiser l’innovation et de combler son retard perçu par rapport à d’autres laboratoires plus en vue.
Et les autres ?
DeepMind a développé des IA spécialisées comme AlphaFold (biologie) ou AlphaGo (jeu de go), s’appuyant souvent sur un auto-apprentissage intensif.
Problème : toutes ces méthodes sont très coûteuses, à la fois financièrement et techniquement.
Les méthodes d’entraînement sont de plus en plus exigeantes : Google utilise 6 144 TPU Google et OpenAI 10 000 GPU, coûtant plusieurs millions de dollars.
Cette concentration de moyens renforce le pouvoir des géants du marché et accroît les écarts entre grandes firmes et petites structures.
Sauf si un nouveau concurrent arrive à trouver une méthode d’entraînement plus efficace.
Et c’est là que DeepSeek est arrivé.
La start-up chinoise a réussi l’exploit de former un modèle aussi bon qu’OpenAI-o1 en exploitant moins de puissance de calcul, uniquement grâce au renforcement (RL).
Une approche en plusieurs étapes où le modèle apprend d’abord par essai-erreur, puis s’auto-corrige avec ses propres réponses.
Une révolution qui rend l’entraînement plus rapide et optimisé.
Mais même avec cette méthode, les enjeux restent les mêmes.
Si les données d’entraînement sont trop homogènes en termes de langues et de culture, ou que les sources d’entraînement ne sont pas modérées, des problèmes arrivent.
Le modèle reproduira des stéréotypes, des opinions extrêmes voire des contenus litigieux.
Des systèmes comme le feedback humain permettent déjà de corriger le tir, mais la question de la neutralité ou de la censure demeure délicate.
Les développeurs doivent arbitrer quel contenu est acceptable ou non, influençant ainsi la “personnalité” finale du modèle.
Donc l’entraînement n’est pas juste un empilage de données : il faut parfois guider le modèle pour l’empêcher de dériver.
En plus, l’entraînement sur des données contenant noms, prénoms et informations personnelles soulève des questions de respect de la vie privée.
On arrive même à extraire des données confidentielles incorporées dans les ressources du modèle lors de son entraînement.
Mais ce n’est pas tout.
Parce que de plus en plus, il devient possible d’entraîner ses propres modèles.
Grâce à l’open-source, tout le monde peut télécharger et entraîner une IA pour servir ses buts personnels.
Et là aussi, il pourrait y avoir un danger.
Parce que l’ouverture permet à la recherche de prospérer plus vite, mais comporte un risque de mésusage et de dérapage.
Malgré tout, il ne faut pas oublier que certaines IA servent des causes pouvant vraiment bénéficier à l’humanité.
Les mêmes techniques qui servent à entraîner des chatbots peuvent accélérer la découverte scientifique.
Donc l’entraînement d’une IA est un puzzle.
Et chaque pièce conditionne le résultat final :
Le cadre éthique,
La méthode choisie,
La puissance de calcul,
La qualité des données.
Surtout, l’entraînement remet l’IA dans son contexte : c’est un outil surpuissant, et il nous revient la responsabilité de l’utiliser à bon escient.
Connaître les secrets de l’IA permet d’anticiper son évolution pour ne pas faire partie de ceux qui se font remplacer.
Entrez dans les coulisses de la technologie :
Comment était la newsletter d'aujourd'hui ? |
PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.
Reply