Hello,
Nous en sommes encore aux balbutiements de la révolution robotique.
Pourtant, il n’est pas trop tôt pour les premiers incidents.
En Chine, un robot a attaqué une foule lors d’un festival.
L’entreprise reste floue sur les raisons de l’événement.
Problème : ce n’est pas la seule entreprise à ne pas être totalement transparente.
Elon Musk nous aurait menti sur les performances de son nouveau modèle.
Sauf qu’en plus de Grok, deux nouveau géants font des mises à jour majeures.
OpenAI sort ChatGPT 4.5, et Anthropic revient en force avec Claude 3.7.
Est-ce qu’Anthropic ne fait qu’une tentative désespérée pur rattraper son retard, ou un pari risqué mais positif sur une vision différente de l’IA ?
Ah, et je suis au MWC pendant une semaine :)
J’y suis en collaboration avec Orange, je vous en reparle jeudi !
Théo
Temps de lecture : 5mn15
🚨🇨🇳AI ROBOT ATTACKS CROWD AT CHINESE FESTIVAL
A humanoid robot suddenly stopped, advanced toward attendees, and attempted to strike people before security intervened.
Officials suspect a software glitch caused the erratic behavior, dismissing any intentional harm.
This comes… x.com/i/web/status/1…
— Mario Nawfal (@MarioNawfal)
6:40 AM • Feb 25, 2025
Ce titre est lunaire.
Pourtant, au festival de tech de Shangai, un robot s’en est soudainement pris à la foule, tentant de frapper plusieurs personnes avant d’être stoppé par la sécurité.
L’essentiel :
Au beau milieu du festival, le robot, censé faire des démonstrations, a subitement cessé de suivre son programme et a attaqué plusieurs visiteurs.
L’entreprise qui a conçu l’androïde évoque un « dysfonctionnement ponctuel » et assure qu’il n’y avait aucune intention malveillante.
Sur les réseaux, l’événement a fait beaucoup rire : on évoque « une version ratée de Skynet » ou un « test grandeur nature de la robotique chinoise ».
Sauf que les raisons de ce nouvel incident à Shanghai demeurent inconnues, et si ce genre de “bug” devient courant, il faudra commencer à se poser de sérieuses questions sur les failles de sécurité possibles dans nos robots.
Donc vrai dysfonctionnement, ou coup de pub déguisé ?
Anthropic vient de dévoiler la dernière version de son IA : Claude 3.7 Sonnet.
L’essentiel :
L’IA peut désormais choisir entre un mode “classique” et un mode “raisonnement prolongé” pour se pencher plus en profondeur sur certains problèmes, comme la gamme o d’OpenAI.
Anthropic lance aussi “Claude Code”, un outil capable de parcourir, modifier et tester des fichiers directement via la ligne de commande.
Un vrai gain de productivité pour les développeurs.
En plus, malgré ces avancées, Anthropic garde le même tarif (3 $/million de tokens en entrée, 15 $/million en sortie), ce qui reste compétitif vu ses nouvelles fonctionnalités.
Avec cette mise à jour, Claude s’aligne sur la tendance du raisonnement en chaîne de pensée, désormais un standard dans l’industrie.
Entre la possibilité de basculer à volonté entre réponse rapide et réflexion poussée et la venue de Claude Code, Anthropic franchit un cap.
Les entreprises qui cherchent un assistant IA à la fois fiable et souple pourraient trouver leur bonheur avec ce nouveau modèle.
Completely wrong. We just used the same method you guys used 🤷♂️
— Igor Babuschkin (@ibab)
3:37 AM • Feb 20, 2025
C’est la guerre ouverte entre xAI et OpenAI.
Elon Musk vantait Grok 3 comme le « modèle d’IA le plus puissant du monde. »
Sauf que des voix s’élèvent pour dire que les chiffres ne collent pas.
Les derniers tests de xAI, censés battre les modèles d’OpenAI, seraient incomplets voire carrément faux, laissant planer un gros doute sur les performances réelles de Grok 3.
L’essentiel :
Un employé d’OpenAI accuse xAI d’avoir manipulé ses graphiques pour faire croire que Grok 3 surpasse la gamme o3.
xAI aurait volontairement évité d’utiliser la méthode classique sur les benchmarks, à savoir tester l’IA sur 64 essais consécutifs (pass@64.)
Sauf que sans ce fameux pass@64, Grok 3 paraîtrait meilleur qu’il ne l’est vraiment.
Et OpenAI garderait le score le plus élevé sur les tests mathématiques comme AIME 2025.
Depuis longtemps, Elon Musk et Sam Altman entretiennent une rivalité féroce. Ce conflit en est un symptôme.
Mensonge avéré ou simple présentation sélective ?
Dans tous les cas, cet épisode souligne l’importance d’une évaluation honnête des IA et la nécessité de standards clairs.
Parce que sélectionner les chiffres qui nous arrangent pour mettre notre produit en avant, c’est facile.
Mais quand la lumière est faire sur ce genre de pratique, difficile de restaurer la confiance.
Today we’re releasing a research preview of GPT-4.5—our largest and best model for chat yet.
Rolling out now to all ChatGPT Pro users, followed by Plus and Team users next week, then Enterprise and Edu users the following week.
— OpenAI (@OpenAI)
9:08 PM • Feb 27, 2025
La nouvelle version de ChatGPT, baptisée GPT 4.5, met l’accent sur la convivialité et la capacité à comprendre l’intention humaine.
Plutôt que de tout miser sur des prouesses techniques spectaculaires, le modèle se distingue surtout par sa dimension plus « humaine ».
L’essentiel :
GPT 4.5 adopte un ton plus chaleureux, grâce à de meilleurs algorithmes d’analyse du contexte émotionnel.
L’équipe d’OpenAI a travaillé sur la réduction des « hallucinations », des erreurs inhérentes à l’entraînement de l’IA, même si certaines confusions peuvent encore survenir.
Sur certains tests (mathématiques, compréhension de textes…), GPT 4.5 affiche une hausse de précision de +20 % par rapport à GPT 4o.
Il est désormais possible d’obtenir des textes plus imaginatifs et cohérents, notamment pour la rédaction d’histoires ou de contenus longs.
GPT 4.5 se montre plus coopératif lorsqu’on précise la forme de la réponse souhaitée (liste, paragraphe, style humoristique, etc.).
Le plus important à retenir, c’est que ce modèle sera le dernier d’OpenAI qui n’intègre pas de raisonnement approfondi.
D’où le choix de l’entreprise de le rendre plus compréhensif et conversationnel.
Cette mise à jour permet d’améliorer nos interactions quotidiennes avec le modèle.
GPT 4.5 n’est pas une révolution.
C’est la fin d’une ère.
Comment était cet article ?Aidez-moi à améliorer le format de la newsletter en me disant ce que vous avez pensé de cet article ! |
Dario Amodei, PDG d’Anthropic
Source : Getty Images
Anthropic multiplie les mises à jour.
Les utilisateurs ont maintenant accès à un mode raisonnement prolongé, un outil de code automatisé, et une intégration plus poussée avec GitHub.
Mais ils sont en retard.
OpenAI, Google, xAI et DeepSeek lancent sans cesse de nouvelles fonctionnalités, là où Anthropic fait profil bas depuis le début de l’année.
La start-up est-elle vouée à l’échec face à sa concurrence débridée ?
Ou est-ce que ce retard est calculé et permettra à Claude de prendre de l’avance autrement ?
À suivre :
Tout sur le nouveau Claude (cas d’usages, tutoriels, accès.)
Un nouveau modèle comme les autres ?
La vision du PDG d’Anthropic, à contre-courant du reste de l’industrie.
Démarque-toi en moins de 10 minutes par semaine.
Déjà un(e) abonné(e) payant(e) ? Se connecter.
Reply