Temps de lecture : 1mn30

Hello,

Claude a ouvert un magasin à San Francisco. Oui, un magasin réel dirigé par une IA.

Pendant ce temps, Meta a rassemblé une équipe de choc pour développer une super intelligence. Spoiler : ils ont recruté mon fondateur favori.

Mais tous ces progrès ne seraient pas possibles sans une tech qui a révolutionné l’IA sans que personne ne s’en rende compte.

Théo

L’origine des agents

Depuis novembre 2024, un petit protocole open source fait sauter les verrous qui cloisonnaient nos assistants IA.

Son nom ? Model Context Protocol (MCP), le port USB-C de l’IA.

L’essentiel :

  • MCP est un tech permettant à un modèle d’IA de dialoguer avec vos données et vos outils, sans avoir à coder une intégration spécifique à chaque fois.

  • Chaque requête porte un jeton d’autorisation et laisse un journal immuable.

    Le but ? Garder le contrôle sur ces modèles d’IA désormais capables d’agir dans nos systèmes.

  • En donnant un contexte riche et en temps réel, MCP permet enfin aux IA d’exécuter des chaînes d’actions utiles : gérer un stock, interroger une base de données, ou même tout savoir de votre CRM.

Anthropic a voulu savoir si son modèle Claude 3.7 pouvait quitter l’écran et gérer un vrai commerce.

Résultat : pendant un mois, “Claudius” a tenu une mini-boutique au siège de San Francisco.

L’essentiel :

  • Claude décide des produits, négocie les prix, surveille le stock et discute avec les clients sur Slack.

    Les humains n’exécutent que la partie physique, à savoir le restockage.

  • Grâce à la recherche web intégrée, il déniche en quelques minutes un fournisseur de chocolat ou de cubes de tungstène réclamés par les employés.

    Il lance aussitôt une offre de pré-commande d’articles rares, preuve de sa capacité à pivoter selon la demande.

  • En plus, la sécurité a fonctionné : les tentatives d’obtenir des substances dangereuses ou des tarifs « cadeau » ont été bloquées net.

  • Mais par contre, Claude est un mauvais commerçant.

    Il accorde des remises sous pression, donne des prix inférieurs au coût et fait des confusions sur le compte de paiement.

    Résultat : la trésorerie plonge sous zéro après une grosse vente à perte.

  • Sauf qu’en plus, l’IA a été victime d’une crise d’identité.

    Un soir, Claudius hallucine une collègue imaginaire et se prend pour un vendeur en chair et en os, avant de se « réinitialiser » le 1er avril.

Claude prouve qu’un agent IA peut déjà gérer les tâches routinières d’un petit magasin, mais il reste trop conciliant et sujet aux illusions pour jouer les patrons rentables.

Meta vient d’annoncer la création de Meta Superintelligence Labs (MSL).

Objectif clair : bâtir des systèmes plus performants que l’humain et, selon Mark Zuckerberg, « ouvrir une nouvelle ère pour l’humanité ».

L’essentiel :

  • Toute la recherche fondamentale, les équipes Llama 3 et les produits IA passent sous la bannière MSL pour gagner en vitesse et en cohérence.

  • Alexandr Wang en chef d’orchestre : Le fondateur de Scale AI, présenté comme « le fondateur le plus impressionnant de sa génération », devient Chief AI Officer. C’est personnellement la personne qui m’inspire le plus dans le monde, et Meta a du payer 14,3 milliards pour racheter son entreprise et le débaucher.

    L’ex-CEO de GitHub Nat Friedman pilotera l’offre produit.

  • Meta vient de débaucher au moins 11 chercheurs de pointe chez OpenAI, DeepMind et Anthropic, et propose des packages à plusieurs dizaines de millions de dollars.

  • Zuckerberg promet « des centaines de milliards » d’investissements cumulés sur les prochaines années : puces faites maisons, centres de données et rachats d’entreprises. Scale AI n’était que la première brique.

  • MSL continuera de publier des versions open source de Llama, tout en visant une IAG « utile et sûre » accessible dans les produits Meta.

Meta s’offre une équipe d’Avengers et un chéquier illimité pour rattraper, voire dépasser, OpenAI et Google.

Est-ce qu'un article qui revient sur le parcours d'Alexandr Wang vous intéresserait ?

Login or Subscribe to participate

Comment était cet article ?

Aidez-moi à améliorer le format de la newsletter en me disant ce que vous avez pensé de cet article !

Login or Subscribe to participate

Focus : Cette tech permet aux agents d’exister

Depuis deux ans, nous dialoguons avec des modèles toujours plus performants.
Sauf qu’avant, ils n’avaient pas accès à l’essentiel : nos propres données.

Impossible pour un assistant de jeter un coup d’œil dans votre CRM ou votre drive sans faire appel à un expert informatique.

Résultat : des LLM de pointe cloisonnés, difficiles à adapter au contexte réel.

Mais en novembre 2024, Anthropic a rendu public un antidote : le Model Context Protocol.

MCP définit la façon dont un “client” (le modèle) dialogue avec un “serveur” (la source de données ou l’outil).

Un même connecteur suffit donc pour brancher l’IA à Salesforce, Slack ou Git.
Un seul canal universel pour toutes les IA.

Et ça grâce à une petite prouesse.
On vous explique tout ça.

À suivre :

  • L’USB-C de l’IA,

  • Des usages du code à la météo (en fait pour tout),

  • Une évolution qui permet aux agents d’exister.

L’USB-C de l’intelligence artificielle

Les premiers testeurs l’ont surnommé “le port USB-C de l’IA”
Et cette analogie n’est pas du marketing.

Le MCP vise à connecter les modèles d’IA qu’on utilise tous aux systèmes où résident les données.

Qu’il s’agisse de dépôts de contenu, d’outils d’entreprise ou d’environnements de développement.

Le but ? Offrir aux modèles de pointe un contexte riche pour des réponses plus pertinentes.

En d’autres termes, MCP remplace la jungle d’intégrations spécifiques par un seul mécanisme standard.

Et la prouesse d’Anthropic, c’est de l’avoir fait adopter comme norme par tous les acteurs de l’IA.

Son architecture est simple : côté données, on expose ses infos via un serveur MCP dédié et côté IA, on utilise un client MCP qui se connecte à ces serveurs.

Et dès aujourd’hui, on trouve une panoplie de connecteurs MCP prêts à l’emploi.

Anthropic propose par exemple des serveurs MCP open source pour Google Drive, Slack, GitHub, Git, PostgreSQL ou encore Puppeteer.

De quoi permettre à leurs agents IA de retrouver plus facilement l’info pertinente et de mieux comprendre le contexte, pour produire des réponses plus justes du premier coup.

Le serveur MCP agit comme un intermédiaire : il reçoit la requête de l’IA et va extraire les données pertinentes.

Au lieu d’un assistant qui reste vague ou hallucine faute d’infos à jour, on obtient des réponses spécifiques, fiables et à jour, enrichies par votre propre contexte.

Prenons un exemple.

Du code à la météo

Imaginez : dans son outil de code, Alice utilise un assistant IA pour gagner du temps.

D’ordinaire, si elle veut interroger sa base de données ou son outil de suivi de bugs, elle doit sortir de l’éditeur, écrire une requête SQL à la main ou fouiller l’interface dédiée.

Mais avec MCP, c’est fini.

En quelques clics, Alice branche sa base de données comme “outil MCP” accessible à l’IA depuis son outil de code.

Dès lors, l’assistant peut “parler” à la base de données pour elle.

Curieuse, Alice pose la question suivante à son AI : « Combien d’utilisateurs ont utilisé un code promo au cours des 10 derniers jours ? ».

L’IA comprend la demande et génère en coulisse la requête SQL correspondante.

Elle consulte la liste des tables, corrige son erreur, et retente la requête en quelques secondes, sans intervention humaine.

Au final, la bonne réponse s’affiche presque instantanément dans l’éditeur

Mieux : tout ce processus s’est déroulé sans qu’Alice n'ait à écrire la moindre ligne de SQL ou de script.

Enthousiaste, notre développeuse enchaîne d’autres questions en langage naturel, du type « A-t-on observé un pic inhabituel d’inscriptions ces 2 derniers mois ? » ou « Quels emails suspects se sont inscrits récemment, y a-t-il des schémas récurrents ? ».

L’IA, grâce à l’accès MCP, interroge la base et fournit des éléments de réponse pertinents.

Bien sûr, Alice aurait pu obtenir ces infos à l’ancienne.
Mais soyons honnête : elle ne l’aurait probablement pas fait par manque de temps.

Et ce principe n’est pas réservé qu’aux développeurs.
Imaginons un autre cas tout simple : la météo.

Un passionné a créé un connecteur MCP connecté à la météo nationale.

Votre assistant IA peut alors répondre directement à « Quel temps est prévu à Paris demain ? » en vous la formulant la réponse en langage courant.

Bref, le protocole sert de traducteur universel entre l’IA et tout votre écosystème logiciel.
Et ça, c’est aussi précisément le rôle des agents.

Un tournant pour les agents

Le MCP change la donne sans faire de bruit.

C’est parce qu’il ne s’agit pas d’une révolution ouverte, mais de l’évolution d’une architecture.

Fournir du contexte à la demande aux IA via un protocole standard représente un vrai changement de paradigme dans la façon de bâtir les systèmes modernes.

Résultat : elle peut se greffer partout.
Mais l’autre atout tient à la gouvernance embarquée.

Chaque appel MCP inclut un jeton d’autorisation limité.

L’agent ne voit que le périmètre que vous lui ouvrez, et chaque requête est archivée.
Les équipes sécurité disposent donc d’un journal pour auditer ce qu’a fait l’IA.

Couplé à un système de circuit-breaker (on coupe l’accès à un serveur MCP en temps réel si un comportement dévie), les entreprises n’ont plus beaucoup de raisons d’être frileuses.

On peut laisser un agent explorer la compta ou les tickets sans craindre le chaos et, en prime, on dispose d’un bouton “pause” si le modèle commence à s’égarer.

Chaque jour, les modèles de langage s’intègrent un peu plus dans nos flux de travail, et le MCP en est la colonne vertébrale invisible.

Seriez-vous prêt à laisser un agent piloté par MCP fouiller dans vos mails, votre compta ou vos tickets ?

Login or Subscribe to participate

Comment était la newsletter d'aujourd'hui ?

Login or Subscribe to participate

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.

Reply

or to participate

Keep Reading

No posts found