- FreeA
- Posts
- L'IA a failli ne jamais exister
L'IA a failli ne jamais exister
L'histoire de l'IA pt.2
Hello,
Aujourd’hui, on continue dans l’histoire de l’IA.
Notamment ses périodes creuses, angoissantes mais nécessaires à son développement.
Pour ceux qui ont manqué la première partie :
Théo
En bref...
L’IA a failli ne jamais exister
Winter is coming
La dernière fois, on s’est arrêté en 1957, à l’invention du premier neurone artificiel, par un scientifique américain.
L’espoir de l’humanité de déléguer son travail s’intensifie grâce à l’IA.
Pour le monde entier, la révolution est proche.
Notamment grâce à une avancée marquante.
Les systèmes experts
Au début des années 1970, une nouvelle avancée majeure apparaît :
Des modèles capables de résoudre des problèmes spécifiques, et même de faire de nouvelles découvertes en autonomie.
Les systèmes experts.
En fait, les scientifiques ont vu que les premiers modèles étaient capables de résoudre des problèmes mathématiques théoriques.
Et ils ont simplement copié leur fonctionnement en l’appliquant à d’autres disciplines, pour en tirer des cas d’usages pratiques.
C’est la naissance des premiers systèmes d’IA fonctionnels et utiles.
Une prouesse pour l’époque, qui vient à peine de voir naître la révolution informatique.
C’est pour ça que les méthodes d’entraînement utilisées à l’époque sont beaucoup manuelles qu’aujourd’hui.
Première étape : trouver des données fiables.
Les développeurs faisaient appel à des experts humains des différents domaines pour guider l’IA vers les bonnes réponses.
Deuxième étape : imiter le raisonnement humain.
C’est l’arrivée des moteurs d’inférence.
Des systèmes qui appliquent la logique humaine aux données ingérées dans le but de déduire de nouvelles approches.
Les scientifiques ont tout de suite vu le potentiel des systèmes experts dans des domaines de pointe.
Ils créent un premier modèle pour la médecine, capable d’effectuer des diagnostics autonomes : MYCIN.
Son rôle est d’identifier des bactéries responsables d’infections sévères, comme la méningite, en fonction des symptômes.
Il proposait même un traitement adapté en fonction du poids du patient.
On parlait de l’IA et son lien avec la médecine dans cet article :
Mais il y a un problème.
Faute de données et de moyens, MYCIN ne sera jamais employé en pratique.
L’IA est en avance sur son temps.
Peut-être un peu trop.
Winter is coming
En parallèle du développement de l’IA, le scepticisme grandit.
Échecs de certains modèles, coûts élevés, limitations technologiques…
Autant de facteurs qui refroidissent les investisseurs, pourtant essentiels à la poursuite de recherche.
C’est alors que l’IA connaît son premier hiver.
De 1973 à 1980, l’intérêt pour la technologie meurt et les recherches se figent.
L’espoir s’éteint.
Tout le monde se désintéresse petit à petit de l’IA.
Au parlement britannique, le professeur Sir James Lighthill ira jusqu’à dire que l’IA est un échec cuisant, preuve qu’elle est un rêve lointain qui ne verra jamais le jour.
La fin de l’IA. Ou presque.
Les systèmes experts n’ont pas dit leur dernier mot et refont surface en 1980.
Les entreprises s’approprient ces modèles d’IA pour leur bénéfice.
Et les résultats sont fous.
Aux Etats-Unis, la Digital Equipment Corporation, un gros producteur d’ordinateurs, intègre XCON dans son fonctionnement.
Ce système expert lui permet d’économiser $25 millions par an en réduisant le temps de production et en augmentant la satisfaction client.
Il utilise 2 500 règles pour son raisonnement, et gérera plus de 80 000 commandes de l’entreprise.
Regain d’intérêt pour l’IA : toutes les entreprises veulent leur modèle spécialisé pour réduire leurs coûts et automatiser les tâches les plus répétitives.
Sauf qu’il y a un problème.
Ces systèmes sont trop chers à entretenir, difficiles à mettre à jour, et incapables d’ingérer de nouvelles informations.
Alors après 10 ans de développement pour le secteur privé, la mauvaise réputation de l’IA la rattrape.
Cette technologie serait un fantasme.
Un gouffre financier, dangereux pour ceux qui s’en approchent.
Les scientifiques n’osent même plus employer le terme “intelligence artificielle” dans leurs projets de recherche par peur de faire fuir les investisseurs.
Le deuxième hiver est là.
De 1987 jusqu’en 1993, c’est le calme plat.
Mais il ne manque qu’une étincelle pour que l’IA explose.
L’Émergence de l’Apprentissage Profond
Après que l’humanité évite l’annihilation de justesse avec le bug de l’an 2000, l’informatique se développe pour devenir de plus en plus performante.
Les machines offrent une mémoire et une puissance accrue, et c’est exactement ce qu’il manquait à l’IA pour atteindre son plein potentiel.
Le but des scientifiques est alors d’imiter les capacités du cerveau humain grâce à la technologie. Créer des cerveaux artificiels.
C’est là que les premiers réseaux de neurones artificiels voient le jour.
En reproduisant la façon dont les neurones biologiques fonctionnent ensemble pour identifier des phénomènes, ils évaluent différentes options pour arriver à des conclusions.
Ces réseaux deviendront de plus en plus sophistiqués conjointement aux possibilités offertes par l’informatique.
Après quelques années, ils atteindront des performances spectaculaires, menant aux premiers succès de l’IA.
Les machines peuvent enfin rivaliser avec les humains dans des domaines très complexes.
En mars 2016, le monde entier découvre les avancées de ces nouvelles technologies.
Et c’est un choc.
AlphaGo, un modèle maîtrisant le jeu de Go, jugé extrêmement complexe, défraye la chronique.
Il bat Lee Seedol, champion du monde pendant 10 ans, 4 parties à 1.
Google a réalisé un documentaire entier sur l’aventure :
L’IA devient un sujet à prendre très au sérieux.
Si elle est capable de battre le meilleur humain dans une discipline, que peut-on attendre dans le futur ?
La question sera vite répondue, avec la sortie de ChatGPT en 2022, qui montre au grand public les capacités de modèles entraînés sur le langage humain.
S’ajoutent à cette innovation des avancées technologiques de l’IA dans la recherche, la médecine ou encore dans l’automatisation.
Aujourd’hui, les IA sont même présentes avec nous au quotidien grâce au Internet of Things : des outils physiques connectés entre eux et reliés à internet, comme Google Home et Alexa.
Mais plus elles s’infiltrent dans notre quotidien, plus les interrogations se multiplient.
Quel sera leur impact sur l'emploi et la vie privée ?
Comment garantir la transparence de ces systèmes ?
Comment va se transformer notre société dans les années à venir ?
Des premières régulations commencent à apparaître, cherchant à encadrer cette révolution technologique sans freiner l'innovation.
Mais ni les gouvernements, ni les sociétés n’étaient préparés à une arrivée massive de l’IA aussi rapide.
Et nous non plus.
Les craintes de remplacement massif de la main d’œuvre humaine commencent à émerger, et l’humanité se retrouve pour la première fois devant un dilemme de taille.
Son rêve d’être libéré du travail se rapproche.
Pourtant, une angoisse semble la saisir :
Si les machines deviennent meilleures que nous, quel sens donner à notre vie ?
Et voilà pour aujourd'hui !
On se retrouve lundi pour une édition spéciale !
En attendant, dis moi-ce que tu as pensé de la newsletter d'aujourd'hui !
Comment était la newsletter d'aujourd'hui ? |
PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.
Reply