Overblog Suivre ce blog
Editer l'article Administration Créer mon blog

Présentation

  • : Le blog de Françoise
  • Le blog de Françoise
  • : Ma nation, c'est l'infini. Aller au-delà des frontières, terrestres, planétaires, galactiques, ethniques, culturelles, génétiques, sexuelles et autres, c'est le début de la liberté et de l'amour universel. My nation is the Infinite. To go beyond terrestrial, planetary, galactical, ethnic, genetic, sexual and others frontiers. This is the beginning of freedom and universal love.
  • Contact

Mes lectures

contactez-moi

14 février 2015 6 14 /02 /février /2015 18:59
Robotique : Les machines apprennent nos émotions

http://www.lesechos.fr/idees-debats/sciences-prospective/0204134929269-les-machines-apprennent-nos-emotions-1091730.php#

Attachant et bienveillant, Pepper, le dernier-né de la start-up française Aldebaran, est un robot au visage d'enfant, capable de sonder le coeur des humains. - Photos Jake Curtis;

Les caméras sauront bientôt mieux lire que l'homme, les émotions que notre visage laisse transparaître. Cette révolution servira entre autres à sonder le coeur des consommateurs.;

Article(s) associé(s)

C'est ce mois-ci que Pepper doit faire son entrée dans les magasins branchés de Tokyo. Pour 198.000 yens (environ 1.400 euros), les technophiles nippons pourront adopter ce petit bonhomme en plastique laqué, flanqué de deux grands yeux noirs capables de sonder le coeur de son propriétaire. Dernier-né de la start-up française Aldebaran, ce robot au visage d'enfant a été conçu pour « vivre aux côtés des humains ». Pas question pour lui de passer l'aspirateur ou de préparer la cuisine : cet aristocrate de la gent robotique a du sang de Z-6PO, le droïde de la saga « Star Wars », dans la mécanique : c'est une machine de protocole « attachante et bienveillante », selon le président d'Aldebaran, Bruno Maisonnier. Il ne marche pas aussi aisément que son avatar de la planète Tatooine, mais de multiples capteurs aliment ses algorithmes d'informations indiscrètes sur son interlocuteur, rendant la discussion avec cet humanoïde plutôt… divertissante.

« Pepper comprend nos principales émotions : la joie, la tristesse, l'énervement, la surprise, la neutralité. Il peut déterminer le sexe et l'âge d'une personne, donc identifier tous les membres d'une famille, et peut suivre 70 % d'une conversation, poursuit Bruno Maisonnier. En analysant nos expressions faciales, notre vocabulaire et notre langage corporel, il devine dans quelle humeur vous êtes pour adapter son comportement. Si vous froncez des sourcils, il comprend que quelque chose vous tracasse et peut par exemple vous remonter le moral en jouant un morceau que vous aimez. » Installé depuis plusieurs mois dans des boutiques de l'opérateur mobile japonais SoftBank, principal actionnaire d'Aldebaran, Pepper génère paraît-il autant de curiosité que de bonne humeur. « Notre but est de faire des robots humanoïdes de compagnie bienveillants, qui vivront avec les humains en tant qu'espèce artificielle », ambitionne Bruno Maisonnier.

Moue, froncement du nez, des sourcils, rictus, sourire… Notre visage trahit à peu près tout de ce que nous ressentons, et grâce aux progrès des modèles d'analyse mathématique, ce métalangage de l'expression faciale est exploité par les spécialistes de l'intelligence artificielle dans le but de doter, un jour, les machines d'une certaine forme d'empathie. « Notre visage contribue pour 55 % à l'impact global du message exprimé, explique Axel Boidin, fondateur de la start-up française Picxel, spécialisée dans la reconnaissance faciale. Du point de vue physiologique, la réponse émotionnelle se traduit par une combinaison de déformation des traits du visage qui informe notre interlocuteur de la réalité de nos intentions et participe ainsi à la coordination de la conversation. Les robots sauront bientôt comprendre les règles de ces échanges. »

10.000 mimiques

Cela fait un moment que les scientifiques cherchent à mettre nos mimiques en équation. Dès les années 1970, le psychologue Paul Ekman s'en est fait une spécialité en décryptant la pierre de Rosette des émotions (ce qu'il a appelé le « système de codage des actions faciales »), qui fonde aujourd'hui l'abécédaire universel de la psychologie comportementale. Le dictionnaire qu'il a élaboré sur cette base recense les 10.000 mimiques que sont capables de produire nos 43 muscles faciaux. La plupart sont des grimaces, et parmi les 3.000 combinaisons qui ont un sens, nous ne sommes capables d'en distinguer qu'une infime partie.

Un robot fera-t-il mieux ? A ce stade, la poignée d'entreprises qui se sont lancées dans la reconnaissance automatique du répertoire émotionnel sont un peu démunies. Toutes savent plus ou moins identifier sur un visage les éléments caractéristiques des sept familles d'émotions de base répertoriées par Ekman : la colère, le dégoût, la peur, la tristesse, la surprise, la joie et le mépris. La plupart utilisent pour cela des bibliothèques d'images qui servent d'éléments de comparaison. Aux Etats-Unis, la start-up Affectiva, fondée par des chercheurs du MIT, utilise, par exemple, une base constituée de milliers de réactions émotionnelles qui permet à ses algorithmes de décoder celles que lui présente la caméra. Elle espère ainsi équiper les futurs smartphones de logiciels capables d'analyser nos réactions, pendant un cours en ligne ou une séquence de jeux vidéo.

Article(s) associé(s)

•Bilan 2014 : les premiers pas du robot personnel

•French Tech : grandes ambitions, petits moyens

•SoftBank et Aldebaran lancent un robot grand public doué d'émotions

C'est ce mois-ci que Pepper doit faire son entrée dans les magasins branchés de Tokyo. Pour 198.000 yens (environ 1.400 euros), les technophiles nippons pourront adopter ce petit bonhomme en plastique laqué, flanqué de deux grands yeux noirs, capables de sonder le coeur de son propriétaire. Dernier-né de la start-up française Aldebaran, ce robot au visage d'enfant a été conçu pour « vivre aux côtés des humains ». Pas question pour lui de passer l'aspirateur ou de préparer la cuisine : cet aristocrate de la gent robotique a du sang de Z-6PO, le droïde de la saga « Star Wars », dans la mécanique : c'est une machine de protocole « attachante et bienveillante », selon le président d'Aldebaran, Bruno Maisonnier. Il ne marche pas aussi aisément que son avatar de la planète Tatooine, mais de multiples capteurs alimentent ses algorithmes d'informations indiscrètes sur son interlocuteur, rendant la discussion avec cet humanoïde plutôt… divertissante.

« Pepper comprend nos principales émotions : la joie, la tristesse, l'énervement, la surprise, la neutralité. Il peut déterminer le sexe et l'âge d'une personne, donc identifier tous les membres d'une famille, et peut suivre 70 % d'une conversation, poursuit Bruno Maisonnier. En analysant nos expressions faciales, notre vocabulaire et notre langage corporel, il devine dans quelle humeur vous êtes pour adapter son comportement. Si vous froncez des sourcils, il comprend que quelque chose vous tracasse et peut par exemple vous remonter le moral en jouant un morceau que vous aimez. » Installé depuis plusieurs mois dans des boutiques de l'opérateur mobile japonais SoftBank, principal actionnaire d'Aldebaran, Pepper génère paraît-il autant de curiosité que de bonne humeur. « Notre but est de faire des robots humanoïdes de compagnie bienveillants, qui vivront avec les humains en tant qu'espèce artificielle », ambitionne Bruno Maisonnier.

Moue, froncement du nez, des sourcils, rictus, sourire… Notre visage trahit à peu près tout de ce que nous ressentons, et grâce aux progrès des modèles d'analyse mathématique, ce métalangage de l'expression faciale est exploité par les spécialistes de l'intelligence artificielle dans le but de doter, un jour, les machines d'une certaine forme d'empathie. « Notre visage contribue pour 55 % à l'impact global du message exprimé, explique Axel Boidin, fondateur de la start-up française Picxel, spécialisée dans la reconnaissance faciale. Du point de vue physiologique, la réponse émotionnelle se traduit par une combinaison de déformation des traits du visage qui informe notre interlocuteur de la réalité de nos intentions et participe ainsi à la coordination de la conversation. Les robots sauront bientôt comprendre les règles de ces échanges. »

10.000 mimiques

Cela fait un moment que les scientifiques cherchent à mettre nos mimiques en équation. Dès les années 1970, le psychologue Paul Ekman s'en est fait une spécialité en décryptant la pierre de Rosette des émotions (ce qu'il a appelé le « système de codage des actions faciales »), qui fonde aujourd'hui l'abécédaire universel de la psychologie comportementale. Le dictionnaire qu'il a élaboré sur cette base recense les 10.000 mimiques que sont capables de produire nos 43 muscles faciaux. La plupart sont des grimaces, et parmi les 3.000 combinaisons qui ont un sens, nous ne sommes capables d'en distinguer qu'une infime partie.

Un robot fera-t-il mieux ? A ce stade, la poignée d'entreprises qui se sont lancées dans la reconnaissance automatique du répertoire émotionnel sont un peu démunies. Toutes savent plus ou moins identifier sur un visage les éléments caractéristiques des sept familles d'émotions de base répertoriées par Ekman : la colère, le dégoût, la peur, la tristesse, la surprise, la joie et le mépris. La plupart utilisent pour cela des bibliothèques d'images qui servent d'éléments de comparaison. Aux Etats-Unis, la start-up Affectiva, fondée par des chercheurs du MIT, utilise, par exemple, une base constituée de milliers de réactions émotionnelles qui permet à ses algorithmes de décoder celles que lui présente la caméra. Elle espère ainsi équiper les futurs smartphones de logiciels capables d'analyser nos réactions, pendant un cours en ligne ou une séquence de jeux vidéo.;

Attachant et bienveillant, Pepper, le dernier-né de la start-up française Aldebaran, est un robot au visage d'enfant, capable de sonder le coeur des humains. - Photos Jake Curtis
En savoir plus sur http://www.lesechos.fr/idees-debats/sciences-prospective/0204134929269-les-machines-apprennent-nos-emotions-1091730.php?3F5sRR2esJ7EyiCb.99#

Usages multiples

Picxel a une autre approche : son algorithme travaille avec des caméras ultrarapides pour traquer les micro-expressions qui révèlent nos émotions les plus intimes. Ces contractions musculaires de quelques microsecondes échappent à tout contrôle et ne mentent pas. Ce sont les « lapsus faciaux » de notre langage corporel. Certains d'entre nous parviennent à les percevoir naturellement, comme le héros de la série télévisée « Lie to me », que conseille Paul Ekman. On peut aussi apprendre à les lire, assure le professeur, qui forme notamment les agents du FBI et de la CIA. Mais la machine capable de les identifier automatiquement n'existe pas encore. « Fournir à une caméra la capacité de traquer ces non-dits va révolutionner pas mal de secteurs », anticipe Axel Boidin.

Dans les magasins du futur, ce sont par exemple des écrans connectés qui feront office de cabine d'essayage en analysant les réactions des clients face aux modèles proposés. Ces puissants outils permettront de sonder dans les rayons l'appétence des consommateurs pour tel produit. Les sociétés de sondage vont pouvoir recueillir des informations objectives sur la perception d'un film, d'un homme politique, d'une publicité, d'un logo. « Equipés de ces outils, nos ordinateurs vont pouvoir gérer automatiquement les ambiances et la luminosité en fonction de nos humeurs, et adapter leur comportement selon notre état. Ils sauront être conciliants s'ils nous voient en colère, ou stimulants s'ils nous jugent atones », explique Axel Boidin.

Au volant, ces détecteurs d'émotion seront de précieux alliés pour anticiper les signes de fatigue. Branchés aux caméras de surveillance des postes-frontières, des aéroports et des lieux publics comme le rêve Paul Ekman, ils permettront d'identifier les comportements suspects pour localiser les terroristes avant qu'ils ne passent à l'acte. « Les données qui en seront extraites permettront de construire des modèles incroyablement évolués sur nos manières de nous comporter, de faire des choix et de nous engager », anticipe le professeur. C'en est bientôt fini du pouvoir de l'intuition.

Paul Molga

Chronologie

1862 : Guillaume Duchenne met en évidence le rôle des muscles du visage dans l'expression des émotions.

1872 : Charles Darwin rédige « L'expression des émotions chez les hommes et les animaux ». Il postule que les émotions sont universelles et adaptatives.

1922 : les physiologistes Walter Cannon et Philip Bard mettent en évidence le rôle du système nerveux, et en particulier de l'hypothalamus.

1960 : Stanley Schachter et Jerome Singer postulent que pour qu'une émotion survienne il faut deux composantes, viscérale et cognitive.

1972 : Paul Ekman dresse la première liste des émotions de base. Elle en compte 7, qui seront élargies à 16 en 1990 pour intégrer des concepts comme la honte, la culpabilité ou l'amusement.

2008 : Paula Niedenthal émet l'idée que les émotions ne sont pas un phénomène purement biologique mais le produit d'une culture et de connaissances acquises par le biais de la socialisation.;

Paul Molga / Correspondant à Marseille | Le 10/02 à 06:00
En savoir plus sur http://www.lesechos.fr/idees-debats/sciences-prospective/0204134929269-les-machines-apprennent-nos-emotions-1091730.php?hSh5OciwFmBIxjcT.99

--

Partager cet article

Repost 0
Published by Françoise - dans robotique
commenter cet article

commentaires

Interface Homme Machine 20/04/2017 16:45

Les nouvelles recherches en matière de robotique visent l’interprétation de l’expression gestuelle, faciale et émotionnelle de l'utilisateur. Il s'agit d'analyser les ondes cérébrales qui seraient enregistrées par des neurocapteurs afin de comprendre ses intentions.