Temps de lecture : 3mn15

Hello,

Aujourd’hui, on parle de Kimi-K2, le modèle de Moonshot AI qui devance ChatGPT, d’une percée de Google, et d’un accord pouvant rebattre les cartes entre médias et IA.

Théo

Kimi-K2 Thinking, un modèle chinois mixant raisonnement et fonctionnalités agentiques, fait trembler les mastodontes américains.

L’essentiel :

  • Le modèle obtient des scores de tête sur plusieurs tests de référence (retrouvez les détails dans notre Focus) :

    • Humanity’s Last Exam 44,9 % devant GPT-5 Pro,

    • BrowseComp 60,2 % devant ChatGPT Deep Research,

    • Seal-0 56,3 %, devant GPT-5,

    • SWE-Bench Verified 71,3 %, pour le coup derrière Claude Sonnet 4.5.

  • Une architecture “experts mélangés” (Mixture-of-Experts) annoncée à 1 000 milliards de paramètres, avec 32 milliards activés par mot de votre requête.

  • En plus, une fenêtre de contexte à 256 000 mots, et environ 250 appels d’outils possibles pour les fonctionnalités agentiques.

  • L’outil est dispo sur Kimi.com et en API, avec des tarifs communiqués comme 10× plus bas que les alternatives américaines.

    En plus, le modèle est open-source.

En clair : des capacités de raisonnement outillées, une fenêtre de contexte géante, et un rapport performance/prix qui peut attirer beaucoup de monde.

Les modèles actuels ont un souci : apprendre de nouvelles choses nécessite souvent d’oublier certaines connaissances déjà acquises.

C’est là que Google intervient avec le Nested Learning.

L’essentiel :

  • Le Nested Learning permet d’emboîter plusieurs mémoires au sein du même modèle.

    Chacune se met à jour à un rythme différent, un peu comme des régions du cerveau qui battent à des tempos distincts.

  • Pour ça, cette technologie utilise trois composantes :

    • Les deep optimizers, un système de mémoire qui compresse les données pour permettre des mises à jour plus fluides.

    • Le continuum Memory System (CMS), une capacité de mémorisation à plusieurs niveaux où certaines couches s’actualisent vite et d’autres très lentement (un peu comme si l’IA avait une mémoire long-terme et court-terme).

    • En plus, l’architecture apprend à ajuster ses propres règles d’apprentissage (quand oublier, et quand retenir).

  • Résultats : de meilleurs scores en modélisation de langue, raisonnement et long contexte.

Un vrai pas vers l’apprentissage continu de l’IA, encore limité aujourd’hui.

Voulez-vous un article plus long sur le sujet ?

Login or Subscribe to participate

People Inc. (le groupe derrière les magasines People, Life, Food & Wine, Travel + Leisure, etc.) signe un accord inédit avec Microsoft.

L’essentiel :

  • Copilot entre dans un accord où les outils d’IA paient à l’usage le contenu des éditeurs d’articles de journaux.

  • Une rémunération à l’usage des contenus par les IA via une plateforme de Microsoft.

  • En arrière-plan, la baisse du trafic Google force les médias à chercher de nouvelles sources de revenus.

  • La part de trafic Google Search aurait chuté pour People Inc. d’environ 54 % en deux ans, poussant à diversifier leurs sources de revenus.

Monétiser l’entraînement des IA à l’échelle pourrait devenir un standard de marché.

Comment était cet article ?

Aidez-moi à améliorer le format de la newsletter en me disant ce que vous avez pensé de cet article !

Login or Subscribe to participate

Focus : Kimi-K2 va tuer ChatGPT et DeepSeek ?

Moonshot AI, jeune pousse pékinoise, a lancé Kimi-K2 Thinking, un modèle pensé pour raisonner et agir avec des outils.

Il aligne des scores de premier plan et des prix plancher.
Pétard mouillé, ou nouveau coup de génie des laboratoires chinois ?

À suivre :

  • D’où vient Moonshot ?

  • Ce que sait faire la famille K2.

  • Les cas d’usage.

D’où vient Moonshot ?

Moonshot AI émerge sur un marché ultra-concurrentiel.

Fondée en 2023 à Pékin, la jeune pousse s’est imposée en un temps record comme l’un des champions nationaux, en partie grâce à Kimi.

Un chatbot grand public capable d’ingérer jusqu’à plusieurs millions de caractères dans une seule requête.

À tel point point que ses serveurs sont tombés pendant deux jours en mars 2024, tant la demande a explosé.

Derrière Moonshot, on trouve un écosystème industriel massif.

Alibaba a mené un tour de table d’un milliard de dollars qui a propulsé la valorisation autour de 2,5 milliards, rapidement rejoint par Tencent.

Résultat : la start-up dépasse les 3 milliards de dollars, avec de nouveaux tours en préparation.

Moonshot n’est pas un acteur isolé.
C’est la pièce d’un grand puzzle.

Un élément central d’une stratégie qui mixe cloud, données et distribution.

Kimi devient le véhicule pour intégrer l’IA générative dans leurs super-apps, leurs services B2B et leurs plateformes.

Sauf que cette stratégie va plus loin que le privé.

Pékin veut des champions capables de rivaliser avec OpenAI, Anthropic ou DeepSeek.
Des Tigres de l’IA, comme Moonshot.

Chaque levée de fonds se transforme en symbole : celui d’une Chine qui veut imposer ses propres standards.

Ce que sait faire la famille K2

K2 Thinking se targue d’une architecture à experts mixes (MoE).
Le MoE, c’est une galaxie de cerveaux spécialisés, les experts.

Pour chaque mot de nos requêtes, un module de routage choisit seulement quelques experts à activer, puis mélange leurs réponses.

Ça permet des réponses précises et un temps de calcul optimisé.
Mais ce n’est pas tout.

La fenêtre de contexte de 256 000 mots permet d’avaler rapports, dépôts Git et pages web sans sourciller.

Parce que le modèle dispose de 1 000 milliards de paramètres.

C’est gigantesque.
Pour vous donner une idée, GPT-5 en aurait 635 milliards.

Sauf qu’en plus, les Chinois sont les rois de l’optimisation.
Parce que le modèle n’utilise que 32 milliards de ces paramètres à chaque calcul.

Et c’est ce qui permet de garder les coûts aussi bas pour les développeurs.

Surtout, le modèle enchaîne 200 à 300 appels d’outils de façon autonome : chercher en ligne, lire, extraire, comparer, puis revenir avec un plan d’action.

C’est ce qui lui permet de rivaliser GPT-5 et Claude Sonnet 4.5 sur les benchmarks.
Mais alors, comment s’en servir ?

Les cas d’usage

Une extension Chrome faite avec Kimi prévoit nos escapades.

Kimi-K2 en recherche approfondie, code et automatisation.

Apparemment, le modèle est aussi très bon en écriture créative.

Kimi est utilisable sur le web et via API.

Les développeurs mettent en avant des coûts d’usage 6 à 10× inférieurs aux modèles américains comparables, avec une licence open-source.

Après DeepSeek, Kimi confirme l’accélération côté chinois : des scores publics élevés, des coûts agressifs, une capacité d’itération très rapide.

Cette montée en gamme met la pression sur les modèles fermés occidentaux, autant sur le prix que sur la transparence.

Mais un point d’interrogation demeure : l’accès.

DeepSeek a déjà fait face à des restrictions (inscriptions limitées, débats sur l’usage dans des environnements sensibles).

Kimi subira-t-il, lui aussi, des limites de déploiement dans certains pays/entreprises ?
Affaire à suivre.

Comment était la newsletter d'aujourd'hui ?

Login or Subscribe to participate

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.

Reply

or to participate

Keep Reading

No posts found