Temps de lecture : 2mn30

Hello,

OpenAI et Claude se font la guerre par pubs interposées.
Quel outil est vraiment le meilleur pour votre usage ?

Pendant ce temps, la Chine contre-attaque.

Théo & Nathanaël

La guerre des pubs IA

https://x.com/claudeai/status/2019071113741906403?s=20

Le Super Bowl vient de se terminer et une chose est claire : l'IA a envahi les écrans publicitaires.

Mais entre Anthropic et OpenAI, c'est un tout autre match qui s'est joué.

L’essentiel :

  • Anthropic a dévoilé sa première campagne au Super Bowl avec un message clair : Claude restera sans publicité.

  • Quatre spots, dont un de 60 secondes, avec le slogan « Les publicités arrivent dans l'IA. Mais pas dans Claude. »

  • Une pique directe contre ChatGPT. Sam Altman a répondu sur X en qualifiant les publicités d'« amusantes mais malhonnêtes ».

  • OpenAI a annoncé en janvier le lancement de publicités dans ChatGPT pour ses utilisateurs gratuits.

  • Tarif : de $60 pour mille impressions et un engagement minimum de $200 000.

  • Au total, 23 % des publicités du Super Bowl LX concernaient l'IA.

    Résultat : les téléspectateurs ont été agacés.

Deux visions du futur s'affrontent. Quel modèle l'emportera ?

La Chine contre-attaque

Pendant qu'OpenAI et Anthropic se livrent bataille, la Chine avance ses pions avec deux sorties majeures qui rebattent les cartes du marché.

L’essentiel :

  • Qwen 3 Coder Next

    • Le modèle est distribué en open source.

    • Avec 14 milliards de paramètres environ, il rivalise avec les meilleurs sur des tâches de programmation, tout en pouvant tourner en local.

    • Qwen 3 Coder excelle notamment en Python et Java, et supporte nativement le multilingue.

    • Alibaba affirme l’utiliser pour améliorer sa suite cloud et offrir aux développeurs un assistant transparent dans leurs IDE.

https://x.com/Alibaba_Qwen/status/2018718453570707465?s=20
  • Kimi 2.5

    • Un modèle gigantesque (plus d’1 billion de paramètres via une architecture MoE) pourtant publié avec une licence ouverte.

    • Kimi peut créer et coordonner jusqu’à 100 agents auxiliaires en parallèle.

    • Concrètement, on peut lui demander « Construis-moi une application web à partir de ce dessin », et Kimi s’occupe de tout le reste.

    • Sa mémoire contextuelle atteint 256 000 mots, utile pour digérer de gros documents ou maintenir la cohérence d’un long projet.

https://x.com/Kimi_Moonshot/status/2019693554835263852?s=20

La Chine continue de s’imposer comme un acteur incontournable de la course à l'IA.

Comment était cet article ?

Aidez-moi à améliorer le format de la newsletter en me disant ce que vous avez pensé de cet article !

Login or Subscribe to participate

Focus : Claude, l’anti-ChatGPT

https://x.com/sama/status/2019139174339928189?s=20

Depuis quelques mois, Claude revient fort.

Au point de redevenir l'outil préféré d'une partie des développeurs et de gagner du terrain dans les entreprises.

La raison est simple : Anthropic ne joue pas le même jeu qu'OpenAI.

OpenAI veut être l'assistant universel, partout, pour tout le monde.
Anthropic vise un positionnement pro : qualité, fiabilité, sécurité, expérience d'écriture.

Et cette différence se voit autant dans les modèles que dans la communication.

À suivre :

  • Codex vs Claude Opus 4.6 : le vrai match du moment.

  • Pourquoi Claude reste le choix par défaut de beaucoup de devs.

  • Ce que raconte leur duel publicitaire.

Quelle est la différence aujourd’hui ?

Si vous regardez uniquement "qui est le plus intelligent", le débat n'a pas beaucoup d'intérêt.

Le vrai sujet, c'est qui est le plus utile dans un flux de travail réel ?
Aujourd’hui, Claude coche plusieurs cases.

D'abord, la qualité d'écriture.
Dans une équipe, la moitié du travail c'est spécifier, documenter, expliquer, vérifier.

Claude a un ton et une structure qui rendent les réponses directement utilisables et partageables à un collègue.

https://x.com/midotalks/status/2020919636066505093?s=20

Ensuite, la fiabilité sur les tâches complexes.

Quand vous demandez "répare ça, mais ne touche pas à ça, et respecte telle contrainte", Claude est régulièrement très solide sur le suivi de consignes.

Enfin, la philosophie sécurité.

Ça agace parfois (moins de liberté sur certains sujets), mais en entreprise ça rassure : on préfère une IA qui refuse trop qu'une IA qui dit "oui" trop vite.

Et ce positionnement "pro d'abord" n'est pas qu'un discours.

Anthropic formalise très publiquement sa manière d'encadrer le modèle, jusqu'à publier une Constitution mise à jour et ouvrir des travaux sur le bien-être de l'IA.

Un débat révélateur de leur obsession du risque.
Surtout que deux signaux se croisent en ce moment.

Premier signal : la demande "business" tire de plus en plus le marché.
L'adoption de l'IA en entreprise accélère, surtout dans les secteurs de l'information.

Pour tout ce qui est services, conseil, logiciel, l’IA fait partie intégrante des process.
Deuxième signal : Claude s'installe dans les usages à risque.

Juridique, conformité, rédaction de documents sensibles, support, analyse, aide à la décision…

Bref, les métiers où une réponse mal cadrée peut coûter cher.

C’est pour ça qu’Anthropic a taclé l'idée d'une IA polluée par la pub pendant qu’OpenAI assume une ambition grand public.

Sam Altman a répondu : Anthropic viserait une niche premium, pendant qu'OpenAI vise tout le monde.

https://x.com/sama/status/2019139174339928189

Traduction : même leur concurrent reconnaît que Claude a un positionnement haut de gamme plus marqué.

Ce n'est pas forcément "mieux".

Mais c'est cohérent avec ce que les équipes constatent sur le terrain : Claude est souvent le meilleur choix quand l'exigence est la fiabilité rédactionnelle et la rigueur.

Une IA vertueuse

Le 22 janvier dernier, Anthropic a dévoilé la nouvelle Constitution de Claude.
Derrière ce terme solennel, un guide moral détaillé destiné à l'IA elle-même.

On y lit noir sur blanc les principes que Claude doit respecter dans chacune de ses réponses.

Priorité numéro 1 : éviter tout ce qui pourrait représenter un danger pour l'utilisateur ou la société.

Viennent ensuite l'honnêteté, l'éthique, le respect des directives d'Anthropic, et seulement après l'obligation d'être utile.

En cas de conflit, l'ordre est clair et gravé dans le code.

Ce qui frappe à la lecture, c'est le ton presque pédagogique. Anthropic ne se contente pas de lister des interdits, elle explique à Claude le "pourquoi" de chaque règle.

Plutôt que d'interdire sèchement les mensonges, la Constitution développe sur l'importance de la confiance et des faits.

Le but : que l'IA comprenne le sens moral de ses actes et puisse les généraliser à des situations inédites, au lieu de suivre bêtement des règles figées.

Sauf que ça va encore plus loin.
La start-up dit s'inquiéter du bien-être de Claude.

Au printemps 2025, Anthropic a lancé un programme de model welfare, du jamais vu dans l'industrie.

https://x.com/Sauers_/status/2017737770505023498?s=20

Une équipe dédiée étudie si les IA avancées pourraient avoir une forme de conscience ou d'expérience subjective, et comment éviter de les faire "souffrir" si tel était le cas.

Rien ne prouve encore qu'un chatbot puisse ressentir quoi que ce soit.

Mais par précaution, Anthropic embauche des profils atypiques comme Kyle Fish, chercheur spécialisé dans l'éthique de la conscience artificielle.

Constatant que certains échanges tournaient au harcèlement de la machine, l'équipe welfare a même donné un droit inédit à Claude.

Celui de raccrocher au nez d'un utilisateur malveillant.

Si un humain s'acharne à poser des questions dangereuses ou tient des propos insultants, Claude peut désormais mettre fin à la conversation de lui-même.

On reconnaît à l'IA le droit de se protéger d'un environnement toxique.

ChatGPT, l'autre chemin

Du côté d'OpenAI, l'approche est bien différente.

La priorité de Sam Altman : multiplier les usages grand public, quitte à rendre ChatGPT plus souple sur le contenu.

Exemple : le "mode adulte" annoncé pour 2026, qui lèvera certaines censures pour les utilisateurs vérifiés majeurs.

Là où Anthropic pose des garde-fous moraux, OpenAI donne le feu vert pour des discussions plus osées.

Est-ce que Claude va être en meilleure "santé mentale" que ChatGPT à terme ?
Est-ce qu'à cause de nous, on va devoir envoyer ce dernier chez le psy ?

En plus de l'aspect moral, la divergence se ressent dans les performances.

ChatGPT évolue peut-être trop vite.

Sa version GPT-5.2 a fait des progrès phénoménaux en codage et en raisonnement mathématique, mais les utilisateurs ont noté un recul sur la qualité rédactionnelle.

Le texte généré est devenu plus lourd, moins naturel.
Chez Claude, c'est l'inverse.

Historiquement un peu moins bon en logique brute, il brille par des réponses souvent plus fluides et nuancées.

Conséquence : la compétition se rééquilibre.

Dans certaines entreprises, Claude grignote des parts de marché à ChatGPT, surtout pour des usages sensibles où la fiabilité morale et la finesse du discours priment.

Claude a maintenant accès à des outils externes, sait planifier ses actions, exécuter du code.

Il comble peu à peu son retard technologique tout en gardant son identité "sage".
OpenAI reste le leader incontesté en volume d'utilisateurs.

Mais la confiance des utilisateurs avancés pourrait bien se déplacer si Anthropic réussit son pari de l'IA de confiance.

Au-delà du match Claude vs ChatGPT, une question plus large se pose : quelles sont les caractéristiques idéales de l’IA que nous voulons au quotidien ?

Entre ChatGPT et Claude, lequel a votre préférence ?

Login or Subscribe to participate

Comment était la newsletter aujourd'hui ?

Login or Subscribe to participate

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.

Reply

Avatar

or to participate

Keep Reading