
Temps de lecture : 2mn15
Hello,
En début d’année, DeepSeek a complètement rebattu les cartes de l’industrie.
La Chine a développé une carte pour contrer OpenAI : l’open-source.
Mais quand on regarde l’histoire de l’informatique, on se rend compte qu’on aurait pu anticiper cette révolution.
Voici tout ce que vous devez savoir sur le conflit open-source vs closed-source.
Théo


Focus : Open‑source vs closed source

1958.
Le Perceptron, l’un des premiers algorithmes d’IA, est publié librement, laissant tous les scientifiques du monde décortiquer ce nouveau réseau de neurones.
Mais en 1981, l’IBM PC sort avec un système d’exploitation fourni par Microsoft, sous licence propriétaire dont personne ne peut voir le code.
Deux dates, et deux visions qui s’opposent.
Depuis, à chaque rupture technologique, la même question revient : ouvrir pour accélérer, ou fermer pour contrôler ?
À suivre :
D’abord, l’informatique est libre.
Puis, les entreprises décident de fermer leurs logiciels,
Mais la riposte ne se fait pas attendre.
Est-ce que l’IA sera soumise au même conflit ?

Aux débuts, le code circule librement
Dans les années 1950-60, le partage de code est la norme.
Le logiciel n’est alors qu’un accessoire du matériel.
On achète un ordinateur, on obtient les programmes avec, souvent accompagnés du code source.
Chercheurs universitaires et ingénieurs du privé collaborent et s’échangent librement leurs programmes, généralement placés dans le domaine public.
Exemple : IBM livre le code source de la plupart de ses logiciels, et des clubs d’utilisateurs comme SHARE (fondé en 1955) échangent améliorations et correctifs.
L’esprit est à l’entraide et à la transparence, hérité des traditions académiques d’ouverture.
Mais à la fin des années 1960, changement de paradigme.
Le coût du développement logiciel grimpe et le secteur du logiciel commercial émerge.
Résultat : en 1969, IBM dissocie la vente de matériel et de logiciels.
Désormais, les programmes sont valorisés à part entière.
Dans les années 1970-80, des entreprises commencent à vendre des licences logicielles avec des restrictions juridiques : le code devient un secret industriel.
Mais qui dit barrière à l’entrée dit aussi moyens de la contourner.
En 1976, Bill Gates publie une lettre à destination de ceux qui partagent son software BASIC sans payer.
Pour Gates, ce partage libre représente un manque à gagner insupportable.
Bref, le tournant est achevé en février 1983 lorsque IBM annonce cesser de fournir le code source avec ses logiciels achetés.
Le modèle closed-source, dont le code est fermé, est né : l’utilisateur n’a plus accès aux coulisses du programme, seulement au binaire exécutable fourni sous conditions.
Le logiciel est désormais un actif stratégique protégé.
La renaissance de l’open source
Face à cette fermeture, la réaction ne se fait pas attendre.
Un jeune programmeur du MIT, Richard Stallman, vit mal ce changement d’ère.
Privé du code source d’une imprimante qu’il ne peut réparer, il estime ces pratiques contraires à l’éthique de coopération scientifique.
En 1983, il lance le projet GNU, avec l’ambition de développer un système d’exploitation 100 % libre.
Il veut garantir juridiquement à tous les utilisateurs les 4 libertés fondamentales du logiciel libre : exécuter, étudier, modifier et redistribuer le programme.
Pour cela, il crée une licence révolutionnaire, la GPL (General Public License).
Cette licence impose que toute version modifiée ou redistribuée d’un logiciel reste couverte par les mêmes droits libres que l’original.
Impossible de prendre un code GPL et d’en faire un produit propriétaire : toute contribution doit être reversée à la communauté.
Stallman fonde aussi la Free Software Foundation en 1985 pour porter ce combat juridique et philosophique.
Mais pendant qu’il mène le combat idéologique, la technologie en pâtit.
Son système d’exploitation 100 % libre en est au point mort.
C’est là qu’intervient un étudiant finlandais, Linus Torvalds, qui publie sur Internet une première version de son noyau appelé Linux.
La combinaison du noyau Linux et des outils de Stallman forme le premier système d’exploitation entièrement libre au début des années 90.
Des centaines de développeurs bénévoles autour du monde améliorent Linux.
Et à la fin des années 90, l’open-source devient un mouvement structuré et professionnel.
L’Open Source Initiative est fondée pour promouvoir les avantages industriels du modèle ouvert.
Des géants de la tech embrassent à leur tour cette philosophie.
IBM investit 1 milliard de dollars en 2001 dans Linux, Sun Microsystems ouvre le code d’OpenOffice et Google bâtit son infrastructure sur Linux.
Même Microsoft finira par revoir sa copie dans les années 2010.
Aujourd’hui, plus de 99 % des entreprises du Fortune 500 utilisent des logiciels open source d’une façon ou d’une autre.
Deux visions opposées
Depuis les années 1980, deux modèles coexistent donc dans le monde du logiciel.
D’abord, le logiciel propriétaire (fermé.)
Il protège la propriété intellectuelle de l’éditeur, lui conférant un avantage concurrentiel clair.
Le contrôle total du code permet d’offrir une expérience utilisateur maîtrisée de bout en bout, avec une feuille de route produit centralisée et cohérente.
Côté revenus, le modèle est limpide : vente de licences ou abonnement SaaS.
Toutefois, cet écosystème fermé souffre d’une opacité.
Impossible d’auditer le code, il faut faire confiance à l’éditeur pour la sécurité et la pérennité.
L’utilisateur se retrouve dépendant du vendeur, et l’innovation se fait à huis clos.
Alors que le logiciel open-source, lui, mise sur la transparence.
N’importe qui peut examiner le code pour y déceler bugs ou failles, gage de confiance et de sécurité.
L’ouverture favorise une innovation collective rapide : une communauté mondiale de développeurs peut contribuer et proposer de nouvelles fonctionnalités.
Pour les utilisateurs, c’est souvent synonyme de logiciels téléchargeables gratuitement et de souveraineté technologique.
Pas de verrou propriétaire, on peut adapter l’outil à ses besoins.
Mais en contrepartie, la gouvernance d’un projet libre peut s’avérer chaotique.
Et surtout, beaucoup de projets libres survivent grâce aux dons, au sponsoring ou à des modèles alternatifs.
Il existe même des passerelles entre ces deux pôles.
De nombreux logiciels adoptent une posture intermédiaire (un code source ouvert mais avec certaines restrictions d’usage, ou des API ouvertes sur une plateforme propriétaire).
Chaque organisation doit donc arbitrer selon ses priorités : contrôle et profit vs. ouverture et collaboration.
Bis repetita avec l’IA
Faut-il publier librement le code d’un modèle, ou proposer l’IA uniquement via une boîte noire accessible par API ?
D’un côté, l’arguments principal en faveur de l’ouverture reste la transparence.
Par exemple, la mise à disposition du modèle d’images Stable Diffusion 2 (open source) a permis à des chercheurs d’inspecter ses données d’entraînement.
Et ils y ont repéré des contenus biaisés ou protégés par le droit d’auteur, chose impossible à faire sur un modèle fermé comme DALL-E d’OpenAI.
Ouvrir les modèles donne aussi aux entreprises utilisatrices une souveraineté.
Elles peuvent héberger l’IA en interne, la modifier selon leurs besoins, au lieu de dépendre d’un fournisseur unique.
Mais surtout, ces modèles accélèrent l’innovation partagée.
Un modèle ouvert populaire va être amélioré, optimisé, adapté à de nouveaux cas par une myriade d’équipes à travers le monde.
D’un autre côté, les défenseurs du fermé soulignent des enjeux cruciaux de sécurité et de contrôle.
Un modèle d’IA diffusé librement peut être utilisé par n’importe qui, y compris pour des usages malveillants (désinformation, cyberattaques automatisées, etc.).
Les éditeurs comme OpenAI ou Anthropic préfèrent garder leurs modèles secrets, pour mieux maîtriser les garde-fous et prévenir les abus.
En plus, ces modèles coûtent des dizaines, voire des centaines, de millions de dollars à développer, un investissement qu’il faut rentabiliser.
Mais ce qu’ils ne diront pas officiellement, c’est qu’un modèle fermé évite la concurrence directe.
Si seul OpenAI est la seule à posséder GPT-4, aucun rival ne peut le cloner facilement.
Sauf que tout ça n’est que la théorie.
La concurrence se joue sur tous les tableaux.
OpenAI et Anthropic sont restés très fermés sur GPT-4 ou Claude.
Et ça leur a coûté cher.
Parce que début 2025, DeepSeek a poussé l’approche ouverte à l’extrême en publiant deux grands modèles (DeepSeek‑V3 et R1) en open-source.
Résultat ?
Des centaines de dérivés créés en quelques semaines par la communauté, et des performances quasiment équivalentes aux modèles fermés les plus avancés.
L’annonce a été suffisamment retentissante pour faire chuter en bourse les géants de l’IA.
Plus de 600 milliards de dollars envolés en une journée sur les actions de leaders du secteur, effrayés par le potentiel de ces IA ouvertes.
En quelques mois, plus de 700 versions dérivées des modèles DeepSeek étaient déjà disponibles sur la plateforme HuggingFace, cumulant 5 millions de téléchargements.
Face à ces développements, on voit émerger des solutions hybrides.
Par exemple, certains modèles se disent « open source » mais avec des licences restreignant les usages.
Llama 2 interdit par exemple certaines applications militaires ou malveillantes via une clause d’utilisation.
D’autres optent pour l’open core : rendre le modèle de base ouvert, tout en vendant un accès API avec des optimisations exclusives.
Bref, le débat open vs closed se nuance, mais ne disparaît pas.
En fin de compte, à chaque saut technologique majeur, on rejoue la même scène.
Un cycle où l’ouverture initiale d’une technologie favorise son essor, jusqu’à ce que la tentation de refermer l’écosystème apparaisse pour des raisons commerciales.
Quelle approche l’emportera pour l’IA ?

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.