• FreeA
  • Posts
  • Cette IA lit vos émotions

Cette IA lit vos émotions

Et voici comment elle fonctionne

Hello,

Bienvenue aux nouveaux membres de FreeA, la newsletter pour découvrir les dernières avancées dans l'IA et les comprendre au-delà des titres aguicheurs.

On est maintenant 7670.

Que tu sois passionné, effrayé ou curieux de l'IA, tu vas pouvoir mieux comprendre et maîtriser cet outil aussi puissant que dangereux.

Et c'est parti pour la plongée !

Théo

Cette newsletter t'as été transférée ? Reçois les prochaines en t'inscrivant ici

Dans l'email d'aujourd'hui :

  • Comment fonctionne Hume.AI, cette IA qui lit vos émotions

  • Mon bilan de Vivatech

Oui, il n’y a pas eu d’édition jeudi, et j’ai 24 heures de retard sur l’horaire du lundi. Vivatech m’a un peu (beaucoup) épuisé.

Comment fonctionne Hume.ai, cette IA qui lit vos émotions

Cet article est la suite de deux premières parties sur les relations entre les humains avec la technologie, et plus spécialement les IA, publiées dans les dernières newsletters.
Si vous les avez manquée, vous pouvez les retrouver ici :

La dernière fois, on a vu :

  • L’origine du phénomène en Asie

  • Recréer son mari virtuel et arriver à Replika : comment les IA deviennent nos meilleurs compagnons

  • L’utilisation principale et dangereuse : les deepfakes pornographiques

Aujourd’hui, au programme :

  • Comment les IA font pour comprendre nos émotions : le cas de Hume.ai

On va rentrer en détail sur ce que les IA sont déjà capables de faire, mais également comment elles en sont capables.

PS : J’aurais un petit sondage pour vous, restez jusqu’à la fin

Pourquoi vouloir lire les pensées / émotions

Avant de voir ce qu’il est possible, il faut se poser la question.
Pourquoi est-ce que veut lire les pensées ou les émotions ?

Ca fait des années que c’est un fantasme technologique sur lequel travaillent des scientifiques, mais pourquoi ?
Pourquoi est-ce qu’on aimerait tant être capable de savoir ce que notre voisin pense ?

Pragmatiquement, il y a beaucoup de cas d’usages.
Oui, même si au premier abord ça paraît être un caprice de milliardaire qui voudrait un miracle technologique, lire les pensées pourrait aider l’humanité.

Quelques exemples :

  • Permettre aux muets de s’exprimer plus facilement

  • Comprendre comment fonctionnent certaines maladies cérébrales comme Alzheimer

  • Mieux stimuler les comportements (comme l’apprentissage ou l’entraînement)

On pourrait faire une liste presque infinie des cas d’usages.

Attention, je ne dis pas qu’il n’y a que des côtés positifs. Les usages négatifs sont aussi presque infinis. Mais pour une fois, je vais me permettre de les éclipser et me concentrer sur les impacts positifs.

Ce qu’on est déjà capable de réaliser

En octobre 2023, une annonce de Meta fait beaucoup de bruit.
Ils ont développé une IA capable de lire dans votre esprit et de recréer une image de ce à quoi vous êtes en train de penser.

Bien sur, le résultat n’est pas parfait. Vous en avez quelques exemples sur l’image plus haut. Mais c’est déjà impressionnant. Le résultat est très proche, et permet de comprendre l’intention de ce que visualise la personne.

Bon, le problème, c’est qu’il faut que la personne dont on veut connaître les pensées soit dans une grosse machine médicale (un MEG, pour ceux que ça intéresse) et qu’en plus l’IA ait déjà été entraînée sur ses données cérébrales. On est encore loin d’une machine capable de lire nos pensées à distance.

Par contre, il y a une entreprise qui a réussi cette prouesse.
C’est le sujet d’aujourd’hui.

Je précise au cas où, ce n’est pas une édition sponsorisée. Hume.ai m’a juste fasciné.

Qu’est ce que Hume ?

L’équipe au complet de Hume

Hume se décrit comme un labo de recherche et une entreprise technologique qui construit des modèles d’IA permettant à la technologie de communiquer avec empathie et d’apprendre à rendre les gens heureux.

Oui, c’est long.

Concrètement, ça veut dire que Hume se concentre sur la conception d’IA spécialisées dans le relationnel : parler avec empathie, comprendre les émotions de la personne en face, analyser son comportement au sein d’un appel, etc..

C’est bien beau, mais on pourrait se dire que ce n’est qu’une startup. Ca doit être une de ces entreprises qui lèvent des millions et qui aura des résultats dans 10 ans.

Bon. Et si on faisait un petit tour d’horizon de ce que permet Hume réellement.

Voici ce que les IA sont capables de comprendre de vous

Petite liste de ce qui est déjà possible (une grosse partie est testable gratuitement sur leur site) :

  • Parler avec une voix empathique, qui détecte les émotions dans votre voix et adapte les siennes en fonction (en plus de répondre de manière censée et de détecter automatiquement si vous parlez ou non)

  • Mesurer vos émotions en prenant en compte :

    • Votre voix (bien sur)

    • Votre prosodie

    • Vos expressions faciales

    • Vos réactions dynamiques

    • Etc..

  • Prédire les préférences dans les comportements d’utilisateurs

Oui, il y a beaucoup de choses.
Et je n’ai pas pu être exhaustif.

Le plus simple, c’est que vous regardiez par vous-même : https://www.hume.ai/products

Comment ça fonctionne ?

Pour cette partie, je vais exclusivement m’appuyer sur les travaux de documentation de Hume présents sur cette page en y apportant de la vulgarisation et ma compréhension : https://dev.hume.ai/docs/resources/science

Les scientifiques de Hume AI ont mené des études pour analyser les expressions humaines à travers le monde, incluant les expressions faciales, la prosodie de la parole, les éclats vocaux et le langage émotionnel. Ils ont publié leurs travaux dans des revues scientifiques et ont développé des modèles d'apprentissage automatique basés sur ces recherches.

Pour le détail, je vais me concentrer uniquement sur l’analyse des expressions faciales.

Le modèle de Hume de compréhension des expressions faciales génère 55 résultats comprenant 26 AU (unité d’action) - des mouvements des muscles du visages utilisés pour décrire les expressions faciales depuis 1970 - ainsi que 29 autres caractéristiques descriptives (comme le sourire, des froncements de sourcils, etc).

A partir de ça, le modèle de Hume est entraîné à déterminer quelles sont les émotions retranscrites par l’expression faciale en fonction de ces 55 résultats.

Bien sur, on ne peut pas déterminer de façon absolue des émotions à partir de mouvements de visages. Ces analyses sont faites en fonction de la signification émotionnelle que les gens attribuent aux expressions faciales, comme le sourire pour la joie ou le froncement de sourcil pour la colère / confusion.

Ces modèles doivent être vues comme des outils, des assistants pour mieux comprendre nos interactions avec les autres.

Conclusion

Et d’ailleurs, c’est un peu le résumé de ce long sujet en 4 parties sur nos relations avec les machines. Oui, il y a des côtés négatifs. Oui, il y a des dangers, des choses à éviter ou au moins à garder en tête.

Mais le résultat global, c’est que des avancées technologique peuvent et doivent nous servir à enrichir les relations humaines plutôt que de les détériorer.

Merci pour votre lecture, et j’aimerai avoir votre avis !

Qu'est ce que vous avez pensé de ce sujet en plusieurs parties, plus long et fourni qu'à l'ordinaire ?

Login or Subscribe to participate in polls.

Mon bilan de Vivatech

J’ai passé les 4 jours à Vivatech, et c’était vraiment cool.

J’ai pu rencontrer beaucoup d’entre vous, tourné plusieurs collaborations et eu l’occasion de développer toujours plus mon réseau !

Ce qui m’a marqué :

  • L’omniprésence des mêmes IA. C’était trop. J’ai du voir +10 entreprises proposer de générer son avatar virtuel, sans aucune différenciation.

  • La communauté e-sport présente massivement le samedi, alors que 90% des entreprises avaient déserté l’évènement.

  • Le début d’effort de vivatech pour les créateurs.

  • Le gigantisme des stands

Ce que j’ai moins aimé :

  • L’organisation pour la F.A.Q. d’Elon Musk

  • Le manque d’espace pour se déplacer : le nombre de visiteurs augmente sans que la taille augmente. Et ça se ressent.

Et le clou du spectacle ?

Cette vidéo en collaboration avec Orange.
Honnêtement, j’en suis fier. C’est presque un film.

Je vous laisse admirer :

PS : Si vous êtes une entreprise et que vous voulez qu’on discute d’un partenariat du même acabit, répondez simplement à ce mail :)

Et voici pour aujourd'hui !

On se retrouve jeudi !

En attendant, dis moi-ce que tu as pensé de la newsletter d'aujourd'hui !

Comment était la newsletter d'aujourd'hui ?

Login or Subscribe to participate in polls.

La remarque de la semaine dernière :
Après mes remarques et questions sur le titre de la fois d’avant, vous avez été plusieurs à me faire de belles remarques constructives. Ceci n’en est qu’un extrait, mais je vous remercie fortement pour vos différents avis.

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%. 

Reply

or to participate.