• FreeA
  • Posts
  • Le nouveau DeepSeek

Le nouveau DeepSeek

+Apple prend du retard

Temps de lecture : 3mn15

Hello,

Pendant ce temps, le programme d’Apple est retardé, et ça pourrait leur causer beaucoup de souci.

Surtout que l’industrie de l’IA évolue tellement vite qu’elle pourrait remettre en question tout notre futur technologique.

Théo

Il y a deux mois, la start-up chinoise DeepSeek créait la surprise en lançant R1, un modèle d’IA basé sur du raisonnement en chaîne de pensée qui a chamboulé le marché.

Sauf qu’elle ne comptait pas s‘arrêter là.

Aujourd'hui, l’entreprise revient à la charge avec DeepSeek-V3-0324, un nouveau modèle qui bat de nouveaux records.

L’essentiel :

  • Cette IA est un modèle simple. Contrairement à R1, pas de raisonnement en chaîne de pensée. Il est plus proche d’un GPT 4o.

  • Résultat : dans cette catégorie, DeepSeek a gagné des points sur tous les benchmarks.

    En plus, il devient meilleur en Code et front-end. Il génère du code plus fiable et conçoit des interfaces plus esthétiques, avec +10 points sur LiveCodeBench.

  • Mais aussi une meilleure qualité d’écriture en chinois et en anglais, idéal pour la traduction ou la rédaction de lettres et rapports.

  • DeepSeek-V3-0324 est disponible gratuitement en open-source sur Hugging Face, et peut tourner sur des stations de travail en local.

Avec DeepSeek-V3-0324, la start-up confirme son envie de bousculer l’univers des grands modèles en seulement quelques mois.

Il ne leur reste plus qu’à améliorer leur accessibilité pour consolider encore davantage leur position sur le marché de l’IA.

Google va bientôt déployer une nouvelle mise à jour de Gemini Live, qui permettra à l’IA de voir en temps réel ce qui se trouve sur l’écran de votre téléphone.

L’essentiel :

  • Gemini peut dorénavant analyser l’écran de certains utilisateurs ou le flux vidéo de la caméra en temps réel.

  • Résultat : vous recevez immédiatement des informations ou des conseils en fonction de ce que l’assistant perçoit (par exemple, identifier un objet ou évaluer une image).

  • Cette mise à jour s’appuie sur le Project Astra, une série de modèles que Google a présentés l’an dernier pour avancer ses pions sur le marché de l’IA.

  • Pour l’instant, seuls les abonnés Gemini Advanced via le Google One AI Premium plan peuvent en profiter sur Android.

Bref, pendant qu’Amazon et Apple peinent à lancer leurs propres évolutions IA (Alexa Plus et Siri améliorée), Google semble avoir pris une longueur d’avance.

Avec l’arrivée de ces fonctionnalités, Google renforce la dimension intelligente et proactive de Gemini, désormais capable d’observer l’environnement utilisateur.

Apple se retrouve en pleine tourmente à cause d’importants retards sur Siri et Apple Intelligence, leur solution IA.

Alors que des améliorations majeures avaient été annoncées, la firme a dû les reporter, sans garantie de sortie prochaine.

L’essentiel :

  • Des fonctions d’intelligence contextuelle et d’actions à l’écran, présentées l’an dernier, ne sont toujours pas prêtes.

    Le marketing Apple a, semble-t-il, mis en avant des nouveautés “pas encore finalisées”, créant confusion et frustration.

  • Plusieurs projets Apple Intelligence seraient repoussés à iOS 19, sans certitude de réussite.

  • Malgré la concurrence, Apple refuse de diffuser des fonctionnalités “à moitié prêtes”, quitte à décevoir le public.

  • Les équipes dirigées par Robby Walker admettent une situation “compliquée” et un avenir incertain pour les fonctionnalités promises sur Siri.

Apple insiste sur la nécessité de respecter ses normes de qualité, au risque de prendre du retard par rapport à d’autres acteurs.

Reste à voir si cette approche prudente suffira à rassurer utilisateurs et investisseurs, ou si le décalage du nouveau Siri va ternir l’image d’excellence de la marque.

Comment était cet article ?

Aidez-moi à améliorer le format de la newsletter en me disant ce que vous avez pensé de cet article !

Connexion ou S'abonner pour participer aux sondages.

Focus : La loi de Moore, le concept indispensable à l’IA

Il y a un principe qu’on entend souvent dès qu’il est question d’ordinateurs ou d’IA : la loi de Moore.

Depuis les années 1960, cette théorie nous annonce que la puissance de calcul double tous les deux ans environ.

Pourtant, elle semble aujourd’hui en perte de vitesse, et certains parlent même d’une “fin” de la loi de Moore.

En particulier dans un contexte où l’IA se développe plus vite que toutes les technologies précédentes.

À suivre :

  • D’où vient la loi de Moore ?

  • Comment l’IA est en train de chambouler la théorie.

  • Quel futur pour nos techs ?

Cet article fait partie de la série Nos intemporelles, un condensé des concepts indispensables pour comprendre l’IA et anticiper son évolution.

Retrouvez nos autres intemporelles ici :

La loi de Moore, c’est quoi ?

En 1965, Gordon Moore, cofondateur d’Intel, remarque que le nombre de composants électroniques sur une puce de silicium double environ tous les deux ans.

Cette observation est alors une pure prévision empirique, mais elle s’est avérée remarquablement précise pendant plus de cinquante ans.

L’industrie des semi-conducteurs, des cartes mémoires aux processeurs graphiques, s’est appuyée sur ce rythme de croissance pour planifier ses progrès.

Exemple : dans les années 1970, un processeur comptait à peine quelques milliers de transistors. Aujourd’hui, on parle de plusieurs dizaines de milliards par puce.

Et c’est pareil pour la mémoire vive. De quelques kilooctets il y a des décennies, on est passé à des gigaoctets en barrettes, toujours selon la même courbe de densité croissante.

Mais surtout, cette théorie s’applique aux cartes graphiques.

Initialement pensées pour les jeux vidéo, elles suivent aussi la loi de Moore, devenant si puissantes qu’elles sont désormais indispensables pour l’entraînement des IA.

Grâce à cette croissance exponentielle, les ordinateurs sont devenus capables d’exécuter des tâches de plus en plus complexes.

Et c’est ce qui a permis tous les progrès en IA.
Problème : cette théorie pourrait bien être arrivée en bout de course.

Et ce serait justement à cause de l’IA.

L’IA va trop vite

Depuis quelques années, la miniaturisation du matériel approche des limites physiques.

On atteint maintenant des gravures de 3 nanomètres, et poursuivre la réduction devient incroyablement complexe et coûteux.

Sauf que l’IA demande sans cesse plus de puissance. Selon certaines études, la capacité des systèmes d’IA à accomplir de longues tâches doublerait même tous les sept mois.

Et ça va vite. Trop vite.

En dépassant le rythme historique d’un doublement tous les deux ans, la loi de Moore “classique” ne suffirait plus pour suivre cette folle cadence.

Les entreprises comme Nvidia investissent dans de nouvelles approches matérielles.

Mais chacune de ces avancées se heurte à des limites de coût et de faisabilité industrielle.
Est-ce que nous allons atteindre un plafond de verre de l’IA ?

Le marché s’adapte (trop tard ?)

Bilan : la loi de Moore montre des signes de fatigue, et le matériel à notre disposition pourrait ne plus arriver à suivre la croissance de l’IA.

Alors les entreprises sont obligées d’innover.

Exemples :

  • On explore l’usage de nanotubes de carbone ou de graphène pour remplacer le silicium, espérant contourner les contraintes actuelles.

  • Au lieu de se reposer sur un processeur unique, on assemble plusieurs modules, mieux adaptés à chaque type de calcul (calcul scientifique, IA, graphisme).

  • En IA, de meilleurs algorithmes ou une approche plus efficace de l’entraînement des modèles, comme les modèles minis ou la méthode utilisée par DeepSeek, peuvent compenser la stagnation matérielle.

  • Mais il y a plus fou : dans un horizon plus lointain, l’ordinateur quantique pourrait donner un second souffle à la “loi de Moore”, en faisant exploser la puissance de calcul.

En fait, c’est à cause la loi de Moore que DeepSeek a autant rebattu les cartes au moment de sa sortie.

Parce que le modèle est moins énergivore, plus modeste en taille, mais tout aussi pertinent grâce à un entraînement différent et à une meilleure architecture logicielle.

Le changement est déjà en cours, et tout miser sur du matériel toujours plus performant pourrait bien être en train de montrer ses limites.

La loi de Moore a été le moteur de l’accélération technologique depuis les années 1960.
Elle a soutenu l’essor de l’IA en rendant possible la multiplication rapide de la puissance de calcul.

Mais l’avenir de la tech ne se résumera sans doute plus à la simple course à la miniaturisation.

De nouvelles perspectives se dessinent, qu’il s’agisse de solutions matérielles innovantes ou d’approches logicielles plus sobres.

Dans tous les cas, l’IA continuera de progresser, mais la façon dont on atteint ces progrès pourrait changer rapidement.

Comment était la newsletter d'aujourd'hui ?

Connexion ou S'abonner pour participer aux sondages.

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.

Reply

or to participate.