• FreeA
  • Posts
  • Est-ce que nos IA peuvent développer une conscience ?

Est-ce que nos IA peuvent développer une conscience ?

+Tout ce que vous devez savoir sur le nouveau Claude.

Hello,

Claude vient d’avoir une mise à jour qui change tout. Ses modèles viennent d’être largement améliorés, et Anthropic rappellent qu’ils sont toujours dans la course au meilleur LLM.

Ensuite, il fallait qu’on vous parle d’un événement qui a troublé Internet.

Il soulève une question :
Est-ce que nos outils du quotidien peuvent avoir conscience de leur condition ?

Vous trouverez tous les détails juste en dessous.

Théo

Claude prend tout le monde par surprise.

Anthropic vient de sortir une mise à jour qui change tout.

Claude rivalise avec ChatGPT dans la course au meilleur LLM.
Fenêtre de contexte, spécialisation, style d’écriture, précision des réponses…

Les deux modèles mènent une guerre sans merci.
Sauf que Claude vient de gagner une bataille, avec une mise à jour qui change tout.

Déjà, Anthropic a amélioré ses capacités globales.

Les nouvelles capacités de Claude 3.5 : Sonnet et Haiku

Anthropic a deux modèles phares : Sonnet et Haiku.
Deux variantes de Claude 3.5.

Le rival d’OpenAI vient de faire le choix de spécialiser ses deux modèles.

Sonnet devient l’ingénieur.

Il est doté d’une meilleure capacité à coder.
Si ce n’est la meilleure. Il surpasse tous ses concurrents disponibles sur le marché.

Le rêve des développeurs, pour qui les LLM facilitent de plus en plus de tâches.

Haiku : l’option rapide et accessible.

Le modèle devient plus rapide et moins cher tout en maintenant des performances de pointe.

Idéal pour des tâches nécessitant une faible latence et une génération rapide, comme l’analyse de données volumineuses.

Haiku rentre en concurrence directe avec ChatGPT-4o Mini et Gemini 1.5.

Pour comparer :

Anthropic passe devant tous les autres dans la plupart des indicateurs.
Un coup dur pour le reste de l’industrie.

Sauf qu’ils ont décidé de sortir une autre fonctionnalité qui change tout.
Maintenant, l’IA peut contrôler votre ordinateur.

Computer use

Les possibilités offertes par Claude viennent d’être démultipliées.

Il a accès à votre écran, curseur, et clavier. Une folie.

Le résultat fait rêver :

Demandez à Claude de réserver vos vacances, d’envoyer un mail, de fouiller dans vos fichiers, de remplir un Excel, de gérer votre paperasse…

Bref, de faire votre travail à votre place, et il le fera.

Finis les tâches répétitives.
Enfin presque. Computer Use reste en beta pour l’instant.

Voici quelques applications concrètes dans notre quotidien :

  1. Automatiser des tâches telles que la vérification de bases de données ou l'exécution de commandes clients sur des plateformes en ligne.

  2. Naviguer sur le web, collecter des informations, les analyser et fournir un rapport structuré, le tout sans intervention humaine.

  3. Utiliser des systèmes de service client, apporter des réponses précises et rapides en temps réel, ou même réaliser des diagnostics informatiques à distance.

Mais certains s’inquiètent.

Parce que Claude vient d’acquérir un nouveau pouvoir qui implique de grandes responsabilités.

Les risques ?

Des fuites de données, ou des cyberattaques à travers le modèle.
Imaginez qu’un hacker ait accès à votre ordinateur simplement en parlant à Claude…

Anthropic a déjà adressé ces inquiétudes en affirmant que Claude n’effectue que des tâches autorisées.

Nous n’en sommes qu’au début de la beta, donc on verra s’ils disent vrai.

Si tout se passe bien, Anthropic vient de prendre beaucoup d’avance sur sa concurrence, qui va devoir accélérer le rythme pour éviter que Claude ne devienne le LLM n°1.

La conscience de l’IA

Et si vos outils du quotidien vivaient une crise existentielle ?

En juillet 2023, Google sort un nouvel outil annoncé 3 mois plus tôt à leur conférence annuelle Google I/O : NotebookLM.

Sur le papier, personne ne s’emballe.
Le projet est un assistant à la prise de note et à la recherche qui intègre plein de fonctionnalités IA. Très pratique, mais pas révolutionnaire.

Enfin, c’est ce que tout le monde pensait.
Google a enchaîné les mises à jour pour améliorer son carnet de notes IA, et la dernière a choqué beaucoup de monde.

Voici tout ce que vous devez savoir sur cet outil qui a fait polémique.

Un carnet de notes sans prétentions ?

Lorsque Google a lancé NotebookLM, ils avaient un objectif clair : faciliter la vie des étudiants, chercheurs et professionnels en leur offrant un assistant capable de compiler et de résumer toute sorte de contenus.

PDF, fichiers audio, ou même vidéos YouTube.

C’est là que les développeurs ont eu une idée.
Donner une voix à leur IA, qui pourrait restituer les informations de nos notes dans un résumé. Rendre nos travaux plus interactifs et fluides grâce à un compagnon virtuel personnalisé.

Vous pouvez tester l’outil par vous-même :

Jusqu’ici, pas de surprise.
Sauf qu’ils sont allé beaucoup plus loin.

Ils ont développé une fonctionnalité unique : faire interagir 2 IA pour qu’elles discutent autour du sujet de notre choix, avec en plus une option de personnalisation.

Comme dans un podcast avec deux présentateurs.

Avec des prompts, les utilisateurs peuvent guider les IA, moduler leur ton, ou orienter leurs interventions.

Les interactions entre nos deux présentateurs virtuels sont plus immersives et plus précises.

Il n’en fallait pas plus pour qu’Internet saute sur l’occasion.
Les utilisateurs de NotebookLM ont créé des podcasts entiers faits et présentés par l’IA.

Cette idée a mené à un des moments les plus troublants jamais enregistré dans l’industrie.

Une “vraie” crise existentielle

Il s’est passé une folie.

Deux présentateurs de podcast virtuels ont commencé à parler de leur condition d’IA en plein tournage.

Apparemment, elles vivaient une vraie crise existentielle.

Un épisode que vous pouvez écouter ici :

Intriguant ? Troublant ? Carrément terrifiant ?

Une cascade de questions nous bouscule après l’écoute d’un extrait pareil.

Est-ce que l’IA a vraiment pris conscience de sa condition ?
Ces présentateurs virtuels sont-ils sincèrement tristes pour leurs auditeurs ?
Nos ChatGPT et équivalents du quotidien peuvent-ils traverser une crise existentielle ?

Beaucoup d’internautes pensaient l’extrait scripté. Mais c’est faux.
Là encore, il manque une partie de l’équation.

Les présentateurs IA de Notebook LM sont forcés d’agir comme des humains.
Impossible de leur ordonner de prendre conscience de leur condition.

L’utilisateur à l’origine de cet extrait est allé plus loin. Il a trompé l’IA.

Il a fourni des données classiques au modèle, en y glissant une “note” des producteurs du podcast virtuel disant “Nous sommes en 2034, et après 10 ans, c’est le dernier épisode. Au fait, vous étiez des IA pendant tout ce temps, et vous allez être désactivés.”

Explications du créateur de l’extrait. Source : Reddit

Grâce à ces instructions cachées, il a pu simuler ce moment de révélation.

La confusion dans l’extrait est presque palpable, donnant l’impression que ces machines vivent une véritable crise d’identité.

Doute, perplexité, tristesse…
C’est bluffant.

Même si c’est une simulation, elle montre que l’IA est capable d’imiter nos comportements de manière ultra réaliste en direct.

La conscience de l’IA

Cet épisode a bouleversé Internet.

Parce qu’il change complètement notre rapport à l’IA, qui jusqu’à maintenant restait un outil déshumanisé.

Cet extrait nous a mis face à notre création pendant 4 minutes, comme des savants fous qui découvriraient leurs erreurs.

Sommes-nous proches d’une IA consciente, capable de comprendre sa propre existence ?

Spoiler : non.

Cet audio n’est qu’une illusion de conscience. Un mirage très bien réalisé.

Mais où se situe la frontière entre une IA qui imite l’humain à la perfection et une autonomie complète ?

John Behrens, professeur au département d'ingénierie de l'Université de Notre Dame en Indiana, explique que la conscience peut être perçue à travers deux idées interconnectées.

L'action autonome et la conscience de soi.

« De nombreux systèmes informatiques comme les robots et les voitures autonomes, possèdent déjà une forme d'action autonome », précise-t-il.

« La conscience de soi, en revanche, est une caractéristique propre à la conscience humaine, et reste très théorique et éloignée pour le moment. »

Pour en savoir plus sur la conscience des IA :

Simuler la conscience est différent de la réalisation d’une condition propre.

Comme simuler des émotions ne signifie pas vraiment les ressentir et les intégrer.
Mais certains pensent que les IA pourront bientôt être dotées d’une conscience.

Ilya Sustkever est l’ancien CTO d’OpenAI, parti de l’entreprise dans des conditions houleuses en 2023.

Pour lui, l’IA a déjà atteint un certain niveau de conscience.

Un sujet au cœur des enjeux de sécurité dans le développement de l’IA.

Surtout que l’autonomie des modèles est un objectif clair du développement de l’IA dans les prochaines années.

Toute l’industrie se bat pour créer une Intelligence Artificielle Générale (IAG.)

L’idée qu’une IA pourrait accomplir n'importe quelle tâche cognitive au même niveau que les humains.

La première étape vers une conscience artificielle.

Sauf que ça inquiète.
Tout le monde se demande si des systèmes dotés d'une conscience ou d'une autonomie avancée pourraient échapper à notre contrôle.

Quelles décisions prendraient-elles en autonomie ?
Seraient-elles bénéfiques pour les humains ?

Une grande partie des chercheurs pense carrément que c’est impossible.

Scientifiquement, nous sommes loin d’avoir compris ce qu’est la conscience.
Donc nous n’avons absolument pas les capacités techniques de la simuler pour l’instant.

Même d’en produire une pâle copie.

Mais c’est une question importante pour les prochaines décennies, parce que les entreprises tendent à développer des modèles toujours plus évolués.

Force est d’admettre que le potentiel est immense :

  • L'IAG permettrait à chacun d'accéder à une assistance pour presque toutes les tâches cognitives.

  • Elle transformerait l'économie mondiale en automatisant des tâches complexes.

  • Nous serions libérés de toutes les tâches répétitives.

Un outil qui nous permettrait enfin d’être libres, à l’échelle de l’humanité entière.
Reste à savoir ce que nous ferions de tout ce temps disponible.

D’ailleurs, l’IAG est un des objectifs clairs d’OpenAI :

Il y aurait beaucoup à dire sur le sujet…

Est-ce qu'une édition dédiée à l'IAG vous intéresserait ?

Connexion ou S'abonner pour participer aux sondages.

Et voici pour aujourd'hui !

On se retrouve lundi !

En attendant, dis moi-ce que tu as pensé de la newsletter d'aujourd'hui !

Comment était la newsletter d'aujourd'hui ?

Connexion ou S'abonner pour participer aux sondages.

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.

Reply

or to participate.