- FreeA
- Posts
- Cette IA lit vos émotions
Cette IA lit vos émotions
Et voici comment elle fonctionne
Hello,
Bienvenue aux nouveaux membres de FreeA, la newsletter pour découvrir les dernières avancées dans l'IA et les comprendre au-delà des titres aguicheurs.
On est maintenant 7670.
Que tu sois passionné, effrayé ou curieux de l'IA, tu vas pouvoir mieux comprendre et maîtriser cet outil aussi puissant que dangereux.
Et c'est parti pour la plongée !
Théo
Cette newsletter t'as été transférée ? Reçois les prochaines en t'inscrivant ici
Dans l'email d'aujourd'hui :
Comment fonctionne Hume.AI, cette IA qui lit vos émotions
Mon bilan de Vivatech
Oui, il n’y a pas eu d’édition jeudi, et j’ai 24 heures de retard sur l’horaire du lundi. Vivatech m’a un peu (beaucoup) épuisé.
Cet article est la suite de deux premières parties sur les relations entre les humains avec la technologie, et plus spécialement les IA, publiées dans les dernières newsletters.
Si vous les avez manquée, vous pouvez les retrouver ici :
La dernière fois, on a vu :
L’origine du phénomène en Asie
Recréer son mari virtuel et arriver à Replika : comment les IA deviennent nos meilleurs compagnons
L’utilisation principale et dangereuse : les deepfakes pornographiques
Aujourd’hui, au programme :
Comment les IA font pour comprendre nos émotions : le cas de Hume.ai
On va rentrer en détail sur ce que les IA sont déjà capables de faire, mais également comment elles en sont capables.
PS : J’aurais un petit sondage pour vous, restez jusqu’à la fin
Pourquoi vouloir lire les pensées / émotions
Avant de voir ce qu’il est possible, il faut se poser la question.
Pourquoi est-ce que veut lire les pensées ou les émotions ?
Ca fait des années que c’est un fantasme technologique sur lequel travaillent des scientifiques, mais pourquoi ?
Pourquoi est-ce qu’on aimerait tant être capable de savoir ce que notre voisin pense ?
Pragmatiquement, il y a beaucoup de cas d’usages.
Oui, même si au premier abord ça paraît être un caprice de milliardaire qui voudrait un miracle technologique, lire les pensées pourrait aider l’humanité.
Quelques exemples :
Permettre aux muets de s’exprimer plus facilement
Comprendre comment fonctionnent certaines maladies cérébrales comme Alzheimer
Mieux stimuler les comportements (comme l’apprentissage ou l’entraînement)
On pourrait faire une liste presque infinie des cas d’usages.
Attention, je ne dis pas qu’il n’y a que des côtés positifs. Les usages négatifs sont aussi presque infinis. Mais pour une fois, je vais me permettre de les éclipser et me concentrer sur les impacts positifs.
Ce qu’on est déjà capable de réaliser
En octobre 2023, une annonce de Meta fait beaucoup de bruit.
Ils ont développé une IA capable de lire dans votre esprit et de recréer une image de ce à quoi vous êtes en train de penser.
Bien sur, le résultat n’est pas parfait. Vous en avez quelques exemples sur l’image plus haut. Mais c’est déjà impressionnant. Le résultat est très proche, et permet de comprendre l’intention de ce que visualise la personne.
Bon, le problème, c’est qu’il faut que la personne dont on veut connaître les pensées soit dans une grosse machine médicale (un MEG, pour ceux que ça intéresse) et qu’en plus l’IA ait déjà été entraînée sur ses données cérébrales. On est encore loin d’une machine capable de lire nos pensées à distance.
Par contre, il y a une entreprise qui a réussi cette prouesse.
C’est le sujet d’aujourd’hui.
Je précise au cas où, ce n’est pas une édition sponsorisée. Hume.ai m’a juste fasciné.
Qu’est ce que Hume ?
L’équipe au complet de Hume
Hume se décrit comme un labo de recherche et une entreprise technologique qui construit des modèles d’IA permettant à la technologie de communiquer avec empathie et d’apprendre à rendre les gens heureux.
Oui, c’est long.
Concrètement, ça veut dire que Hume se concentre sur la conception d’IA spécialisées dans le relationnel : parler avec empathie, comprendre les émotions de la personne en face, analyser son comportement au sein d’un appel, etc..
C’est bien beau, mais on pourrait se dire que ce n’est qu’une startup. Ca doit être une de ces entreprises qui lèvent des millions et qui aura des résultats dans 10 ans.
Bon. Et si on faisait un petit tour d’horizon de ce que permet Hume réellement.
Voici ce que les IA sont capables de comprendre de vous
Petite liste de ce qui est déjà possible (une grosse partie est testable gratuitement sur leur site) :
Parler avec une voix empathique, qui détecte les émotions dans votre voix et adapte les siennes en fonction (en plus de répondre de manière censée et de détecter automatiquement si vous parlez ou non)
Mesurer vos émotions en prenant en compte :
Votre voix (bien sur)
Votre prosodie
Vos expressions faciales
Vos réactions dynamiques
Etc..
Prédire les préférences dans les comportements d’utilisateurs
Oui, il y a beaucoup de choses.
Et je n’ai pas pu être exhaustif.
Le plus simple, c’est que vous regardiez par vous-même : https://www.hume.ai/products
Comment ça fonctionne ?
Pour cette partie, je vais exclusivement m’appuyer sur les travaux de documentation de Hume présents sur cette page en y apportant de la vulgarisation et ma compréhension : https://dev.hume.ai/docs/resources/science
Les scientifiques de Hume AI ont mené des études pour analyser les expressions humaines à travers le monde, incluant les expressions faciales, la prosodie de la parole, les éclats vocaux et le langage émotionnel. Ils ont publié leurs travaux dans des revues scientifiques et ont développé des modèles d'apprentissage automatique basés sur ces recherches.
Pour le détail, je vais me concentrer uniquement sur l’analyse des expressions faciales.
Le modèle de Hume de compréhension des expressions faciales génère 55 résultats comprenant 26 AU (unité d’action) - des mouvements des muscles du visages utilisés pour décrire les expressions faciales depuis 1970 - ainsi que 29 autres caractéristiques descriptives (comme le sourire, des froncements de sourcils, etc).
A partir de ça, le modèle de Hume est entraîné à déterminer quelles sont les émotions retranscrites par l’expression faciale en fonction de ces 55 résultats.
Bien sur, on ne peut pas déterminer de façon absolue des émotions à partir de mouvements de visages. Ces analyses sont faites en fonction de la signification émotionnelle que les gens attribuent aux expressions faciales, comme le sourire pour la joie ou le froncement de sourcil pour la colère / confusion.
Ces modèles doivent être vues comme des outils, des assistants pour mieux comprendre nos interactions avec les autres.
Conclusion
Et d’ailleurs, c’est un peu le résumé de ce long sujet en 4 parties sur nos relations avec les machines. Oui, il y a des côtés négatifs. Oui, il y a des dangers, des choses à éviter ou au moins à garder en tête.
Mais le résultat global, c’est que des avancées technologique peuvent et doivent nous servir à enrichir les relations humaines plutôt que de les détériorer.
Merci pour votre lecture, et j’aimerai avoir votre avis !
Qu'est ce que vous avez pensé de ce sujet en plusieurs parties, plus long et fourni qu'à l'ordinaire ? |
Mon bilan de Vivatech
J’ai passé les 4 jours à Vivatech, et c’était vraiment cool.
J’ai pu rencontrer beaucoup d’entre vous, tourné plusieurs collaborations et eu l’occasion de développer toujours plus mon réseau !
Ce qui m’a marqué :
L’omniprésence des mêmes IA. C’était trop. J’ai du voir +10 entreprises proposer de générer son avatar virtuel, sans aucune différenciation.
La communauté e-sport présente massivement le samedi, alors que 90% des entreprises avaient déserté l’évènement.
Le début d’effort de vivatech pour les créateurs.
Le gigantisme des stands
Ce que j’ai moins aimé :
L’organisation pour la F.A.Q. d’Elon Musk
Le manque d’espace pour se déplacer : le nombre de visiteurs augmente sans que la taille augmente. Et ça se ressent.
Et le clou du spectacle ?
Cette vidéo en collaboration avec Orange.
Honnêtement, j’en suis fier. C’est presque un film.
Je vous laisse admirer :
PS : Si vous êtes une entreprise et que vous voulez qu’on discute d’un partenariat du même acabit, répondez simplement à ce mail :)
Et voici pour aujourd'hui !
On se retrouve jeudi !
En attendant, dis moi-ce que tu as pensé de la newsletter d'aujourd'hui !
Comment était la newsletter d'aujourd'hui ? |
La remarque de la semaine dernière :
Après mes remarques et questions sur le titre de la fois d’avant, vous avez été plusieurs à me faire de belles remarques constructives. Ceci n’en est qu’un extrait, mais je vous remercie fortement pour vos différents avis.
PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.
Comment fonctionne Hume.ai, cette IA qui lit vos émotions