
Temps de lecture : 2mn30
Hello,
DeepSeek met les bouchées doubles parce que de plus en plus de start-ups américaines s’appuient sur des modèles chinois pour faire tourner leurs produits.
Aussi, on fait le point sur une nouvelle étude du MIT, et on parle de Mistral 3.
Théo & Nathanaël

Les commentaires de la semaine

Merci de vos retours ! On verra avec Romain Bouvet pour une partie 2 ;)

Avec sa nouvelle famille de modèles V3.2, DeepSeek se rapproche des meilleurs modèles américains, en restant gratuit et ouvert.
L’essentiel :
La variante Speciale atteint le niveau du modèle Gemini 3.0 Pro de Google sur des tests de raisonnement avancés (maths, concours d’algorithmique, olympiades d’informatique).
Techniquement, la série V3.2 mise sur une IA optimisée pour les très longs contextes et sur un entraînement plus poussé pour améliorer le raisonnement.
En plus, ces modèles sont ouverts et gratuits.
Résultat : les start-ups américaines commencent à préférer ces IA à des modèles fermés plus chers.
Dans le Focus, on parle des conséquences pour la géopolitique de l’IA et pour vos données.

Le MIT vient de quantifier, pour la première fois à grande échelle, ce qui est déjà techniquement remplaçable par l’IA dans l’économie américaine.
L’essentiel :
Selon l’étude, l’IA pourrait déjà remplacer 11,7 % des emplois américains, soit environ 1 200 milliards de dollars de salaires annuels.
Les chercheurs ont utilisé l’Iceberg Index, un simulateur qui modélise 151 millions de travailleurs, 923 métiers et 32 000 compétences, pour mesurer ce que les modèles actuels sont en capacité de remplacer.
Les licenciements visibles dans la tech ne représentent que la « partie émergée de l’iceberg » : ils ne pèsent que 2,2 % des salaires exposés.
Le gros du risque est dans des fonctions routinières de RH, logistique, finance, support et administratif.
Plusieurs États américains utilisent déjà ce modèle pour orienter leurs plans de formation, en ciblant les zones et les métiers les plus exposés.
Une partie non-négligeable du travail de bureau est déjà techniquement automatisable.

Pendant que les modèles chinois gagnent du terrain, Mistral tente d’incarner une troisième voie européenne avec sa nouvelle famille de modèles, Mistral 3.
L’essentiel :
Mistral Large 3 est un modèle « à experts mélangés » (MoE) : au lieu d’activer tout le réseau à chaque token, l’IA choisit quelques sous-réseaux spécialisés.
Résultat : une capacité totale amplifiée, sans multiplier les coûts de calcul.
Mais la gamme ne se limite pas au modèle Large : Mistral 3 arrive aussi en versions plus légères (3 à 14 milliards de paramètres), dont une variante reasoning qui frôle les 85 % sur l’épreuve AIME 2025.
Tous ces modèles sont publiés en open-source, téléchargeables et modifiables.
L’Europe essaie tant bien que mal de se frayer un passage entre les géants Américains et les nouveaux venus de Pékin.


Focus : La Chine prend le contrôle
Depuis un an, l’écosystème chinois est en pleine expansion.
Leur stratégie ?
Publier des modèles ouverts, peu chers, très performants.
Et c’est en train de fonctionner.
À suivre :
DeepSeek fait des dégâts.
Pourquoi tout le monde adopte l’IA chinoise ?
Nos données partent-elles en Chine ?

DeepSeek fait des dégâts
DeepSeek est la figure de proue de l’IA chinoise.
Et avec la famille V3.2, la barre monte encore.
La variante la plus poussée, Speciale, rivalise avec Gemini 3.0 Pro de Google sur des batteries de tests de raisonnement très avancés.
Quant à la version standard, elle se rapproche dangereusement des meilleurs modèles fermés grand public pour beaucoup de tâches complexes.
DeepSeek est repensé pour les très longs contextes, afin de traiter des documents massifs sans exploser les coûts.
Et ça a été rendu possible grâce à un entraînement par renforcement massif.
La Chine poursuit sa stratégie d’optimisation des modèles unique au monde.
Plus de 10 % de la puissance de calcul totale a été consacrée au Reinforcement Learning (apprentissage par renforcement).
L’IA apprend à prendre des décisions en interagissant avec un environnement et en ajustant son comportement pour maximiser une récompense au fil du temps.
DeepSeek n’est pas juste un modèle de plus.
Il est pensé pour réfléchir pas à pas, vérifier ses raisonnements, corriger ses erreurs.
Et c’est exactement ce que les entreprises demandent.
La folie chinoise
L’IA chinoise a dépassé les frontières locales depuis longtemps.
Une part croissante de start-ups américaines intègre DeepSeek, Qwen et d’autres modèles chinois dans leurs produits.
Pourquoi ?
D’abord, le coût.
Les modèles américains les plus avancés sont puissants, mais chers.
Quand chaque requête coûte quelques centimes et que vous traitez des millions d’appels par mois, la facture explose vite.
Avec un modèle ouvert comme DeepSeek, vous pouvez diviser la note.
Ensuite, la personnalisation.
Un modèle fermé comme ChatGPT reste une boîte noire : difficile de l’adapter finement à votre métier.
Avec un modèle ouvert, vous pouvez le réentraîner sur vos données, ajouter des capacités spécifiques et garder ce savoir en interne.
Enfin, la localisation des données.
Beaucoup d’entreprises ne veulent plus envoyer leurs données sensibles dans un cloud externe, même américain.
En important les modèles chinois et en les exécutant en local, les données ne sortent pas de leurs serveurs.
Parce qu’utiliser un modèle chinois ne veut pas forcément dire « envoyer toutes ses données à Pékin ».
La réalité est plus nuancée.
Nos données partent en Chine ?
Il faut distinguer deux cas :
1. Vous utilisez un modèle chinois via une API ou une plateforme gérée par l’éditeur (comme lorsque vous vous connectez au site de DeepSeek).
Dans ce cas, vos données transitent bien par l’infrastructure de l’entreprise chinoise (ou de ses partenaires).
Quelles lois s’appliquent à ces données ?
Sont-elles réutilisées pour l’entraînement ou partagées avec d’autres entités ?
Les autorités américaines ont pointé des risques autour de DeepSeek et Qwen sur des failles de sécurité, une modération moins stricte et un biais en faveur des intérêts chinois.
Exemple : essayez de demander à DeepSeek ce qu’il s’est passé à Tiananmen en 1989.

Avec Qwen, ça donne ça.
Cependant, les IA américaines ne sont pas exemptes de biais non plus.
Que ces risques soient exagérés ou non, il faut en être conscient.
2. Vous téléchargez les poids d’un modèle ouvert et vous l’exécutez vous-même.
dans ce cas, à priori, les données restent chez nous.
Le modèle ne remonte rien au développeur original.
C’est l’avantage des modèles ouverts, téléchargeables : la souveraineté des données tend à être plus forte, même s’ils viennent de Chine.
Mais est-ce qu’on peut bâtir des services critiques sur des plateformes venues d’un rival stratégique ?
Pour le moment, les start-ups arbitrent surtout en fonction du rapport qualité/prix.
Résultat : les États-Unis contre-attaquent sur leur offre de modèles ouverts.
Des instituts comme l’Allen Institute poussent des projets comme Olmo 3 ou ATOM, et même OpenAI a fini par publier un premier modèle ouvert.
Et l’Europe dans tout ça ?
Le vieux continent essaie d’incarner une troisième voie avec Mistral 3, ouvert mais pas aussi puissant que ses concurrents.
Même si nous bénéficions d’un cadre réglementaire plus strict avec l’AI Act et notre politique RGPD, ce cadre a plutôt tendance à ralentir l’innovation.
Nous sommes pris en étau entre des modèles américains de pointe et des modèles chinois ouverts de plus en plus adoptés.
Et la prochaine fois que vous testez une application, il y a de plus en plus de chances qu’elle soit bâtie sur DeepSeek ou Qwen.
Si vous deviez choisir un modèle pour un projet critique, lequel serait-ce ?

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.

