Icone social AHP

Expressions, simulations, perceptions - Journées PsyPhINe 2017

Mercredi 15 novembre 2017 - 14:00 - Jeudi 16 novembre 2017 - 17:00
Nancy, Campus Lettres & Sciences Humaines et Sociales (salle A104)
Argumentaire: 

 

Dans nos interactions les plus quotidiennes, nous tentons de percevoir les intentions d’autrui à partir d’indices multiples et d’expressions variées. Cela vaut des interactions verbales, où l’expression est réglée par nombre de principes implicites, qu’ils relèvent de la grammaire, de la sémantique ou de la pragmatique. Cela vaut également des interactions non verbales, l’expression étant alors gestuelle et plus largement corporelle. Ainsi cette perception n'est-elle pas restreinte à l’interaction avec des êtres humains capables de parler : elle semble s'étendre aux interactions avec certains animaux et, pour ce qui nous intéresse, avec certaines machines qui n’utilisent pas de ressources verbales. La capacité d’expression d’une machine robotisée paraît cruciale pour permettre l’interaction. Comment donc perçoit-on ce qu’exprime le « corps » d’une machine ? Qu’est-il possible d’exprimer ? Une réactivité minimale doit-elle être implantée pour donner à percevoir des intentions ? L’expression est-elle une simulation, ou une délégation de l’expression d’intentions voire d’émotions par un concepteur ? Ces questions seront au cœur des contributions aux Journées PsyPhINe 2017.

Après le succès des Journées PsyPhINe 2015 "Tentatives, Tentations, Intentions" et des Journées 2016 "Projections, Interactions, Emotions", le groupe PsyPhINe organise ce nouvel atelier, ouvert aux enseignants-chercheur.e.s, aux étudiant.e.s comme au grand public.

Entrée libre dans la limite des places disponibles, inscription obligatoire: formulaire en ligne ici

Plan d'accès au Campus Lettres et Sciences Humaines

Programme: 

 

Mercredi 15 novembre 2017

14:00. Ouverture

14:10-15:10 – Charles Tijus (Laboratoire  "Cognitions Humaine et Artificielle" - CHArt, Université Paris 8)
La fabrication d'objets smart

15:10-16:10 – Samuel Bianchini (groupe Reflective Interaction, ENSADLab)
Behavioral Objects. Concevoir en expérimentant : comment des objets en mouvement nous proposent ce qu'ils pourraient être ?

16:10 Pause

16:30-17:30 – Groupe PsyPhINe (MSH Lorraine, Nancy)
Du tangram au marché de producteurs, expérimenter l'interaction ?

Jeudi 16 novembre 2017

10:00-11:00 – Laure Coudrat ( Laboratoire 2LPN - équipe CEMA , Université de Lorraine)
La signature émotionnelle d’un mouvement volontaire complexe : l’initiation de la marche

11:00-12:00 – Arnaud Revel (Université de La Rochelle)
Approches interdisciplinaires : exploration de l'interaction non-verbale comme outil de communication en robotique

12:00 Pause repas

14:00- 15:00 – Alexandre Pitti (Université de Cergy-Pontoise)
Construire un corps sensible, première interface du robot pour comprendre autrui

15:00- 16:30 - Discussion générale

Résumés: 

Samuel Bianchini (groupe Reflective Interaction, ENSADLab)
Behavioral Objects. Concevoir en expérimentant : comment des objets en mouvement nous proposent ce qu'ils pourraient être ?

Comment attribuer à des objets non figuratifs une personnalité traduite par une dimension comportementale afin de stimuler une relation “homme / objet” d'abord basée sur l'émotion et l'empathie plutôt que sur une finalité utilitaire ? Dans la mesure où ces objets robotisés non-anthropomorphiques, non-zoomorphiques et, plus largement, non-biomorphique ne disposent pas a priori de capacités expressives par leur forme, comment leur attribuer un caractère comportemental, voire vivant, si ce n'est par leur animation c'est-à-dire leur qualité de mouvement ? À partir de cette problématique, nous développons depuis plusieurs années un projet de recherche pluridisciplinaire alliant sciences de l'ingénieur (robotique), art, sciences cognitives, anthropologie, philosophie et sciences des matériaux. Ce projet nous a amené à proposer la notion d'objets à comportements (Behavioral Objects).

Dès lors, comment concevoir de tels objets avec une approche artistique, dans une démarche de recherche-création basée sur la pratique ? S'il s'agit de renverser les points de vue et de considérer davantage l'agentivité des objets et des matériaux : comment faire ? Comment concevoir en faisant, en expérimentant, pour apprendre des objets, dans l'action ?

C'est cette situation qui est recherchée dans les nombreux workshops mis en place grâce au kit de robotique modulaire - le MisB KIT-, développé par l'équipe de recherche et de création Reflective Interaction à EnsadLab. Et c'est à partir de cette situation expérimentale que plusieurs projets de création sont nés et dont il est intéressant de retracer la genèse pour mieux comprendre comment de tels objets “se conçoivent”.

Laure Coudrat ( Laboratoire 2LPN - équipe CEMA , Université de Lorraine)
La signature émotionnelle d’un mouvement volontaire complexe : l’initiation de la marche

L’initiation de la marche est un mouvement volontaire réalisé au quotidien afin de se mettre en mouvement et répondre à différentes intentions : aller vers une personne que l’on connaît afin de la rencontrer ou pour lui venir en aide, décider de traverser la route sur un passage piéton au moment opportun. Les études biomécaniques classiques ont largement étudié ce mouvement chez l’adulte sain dans des conditions non émotionnelles. Les résultats montrent que ce mouvement met en jeu une coordination complexe entre la posture et le mouvement, qui, si elle n’est pas réalisée efficacement, peut entraîner une difficulté pour avancer, comme le comportement de « freezing » observé chez le patient parkinsonien, ou même la chute, observée par exemple avec le vieillissement normal. Récemment, il a été mis en évidence chez le jeune adulte sain que l’initiation de la marche pouvait avoir une composante émotionnelle. Les plan et programme moteurs, reflétant l’intention du sujet et sa mise en œuvre, respectivement, sont modulés selon le contexte émotionnel dans lequel le mouvement est produit, comme la présence d’une information visuelle plaisante ou déplaisante. Ces résultats prolongent ceux obtenus jusqu’à présent sur des mouvements plus simples, comme la pression d’une touche de clavier d’ordinateur ou l’action de tirer/pousser un levier vers ou loin du « soi ». Ces résultats s’inscrivent dans le cadre de la théorie biphasique des émotions et reflètent les tendances à l’approche et à l’évitement induites dans des contextes respectivement plaisant et déplaisant.

Si un dispositif robotisé devait reproduire ou simuler le mouvement corporel humain, alors certaines conditions devraient être respectées, allant de la détection et du jugement d’une information émotionnelle présente dans l’environnement jusqu’à la production d’un mouvement intentionnel intégrant les tendances à l’approche-évitement.

Alexandre Pitti (Université de Cergy-Pontoise)
Construire un corps sensible, première interface du robot pour comprendre autrui

Le corps est la première des interfaces pour interagir avec autrui, il est le support indissociable d'une cognition "reliée", à la fois pour sentir et ressentir, et ce du phénomène perceptuel social le plus indicible possible (le toucher, le clignement des yeux, un bâillement) au plus abstrait et riche sémantiquement (simuler les intentions d'autrui). L'éthologie, les neurosciences sociales et les sciences du développement ont montré différents facteurs et mécanismes intéressants et importants pour le développement de cette caractéristique propre aux êtres sensibles. Elles donnent un aperçu de comment les développer dans une machine encorporée. Mais malgré les succès récents de l'intelligence artificielle et de certains robots autonomes, le développement d'un corps sensible est à la fois la recherche la plus primordiale et la moins bien développée en robotique. Puisque comprendre c'est percevoir et que l'on ne peut penser que les choses que l'on peut sentir, l'intelligence d'un robot doit passer par la construction d'un corps complexe (vision, toucher, proprioception, son, sens olfactif) et ceci pour agir physiquement mais aussi socialement avec autrui et raisonner de manière adaptée dans l'environnement.

L'apprentissage par le robot de sa propre représentation corporelle est l'interface par laquelle il peut 'simuler' les actions d'autres personnes, comprendre leurs intentions, les imiter, voire même être en empathie avec elles, en se mettant littéralement à leurs places. En nous basant sur ce principe nous montrerons que l'on peut modéliser une certaine forme d'intelligence biologique chez un robot. Nous montrerons comment des réseaux de neurones artificiels implémentés dans des robots peuvent apprendre par eux-memes certains comportements que l'on pensait spécifiquement humains, comme l'imitation, la 'conscience' de son propre corps, les illusions perceptuelles, la reconnaissance des visages et la communication.

Groupe PsyPhINe (MSH Lorraine, Nancy)
Du tangram au marché de producteurs, expérimenter l'interaction ?

Né en 2011 des échanges entre des chercheur·e·s en intelligence artificielle, en psychologie, en philosophie, en neurosciences, en socio-linguistique et en anthropologie autour de la cognition naturelle et artificielle, le groupe PsyPhiNe s'est engagé dans l'élaboration d'une série d'expériences permettant de mieux saisir les dynamiques d'attribution fréquemment observables lors des interactions entre humains et machines, ou de manière plus large lors des rapports interspécifiques. Ces expériences visent en quelque sorte à neutraliser la forme humaine à laquelle la plupart des travaux de recherches en robotique dite sociale font explicitement ou implicitement référence, lorsqu'elles s'appuient notamment sur le langage ou sur l'utilisation d'un registre de symboles partagés par les interactants en situation expérimentale. 

Que se passe-t-il lorsqu'on tente d'enlever, dans la forme comme dans les actes, toute référence symbolique aux comportements humains ? Prêtera-t-on tout aussi facilement que nous semblons le faire lorsque nous sommes confrontés à quelque chose qui nous ressemble, une intériorité, des sentiments et pourquoi pas de la conscience à un objet, ainsi que le suggèrent les travaux menés dès le milieu des années 1940 par Fritz Heider et Marianne Simmel ? Pour tenter d'apporter un début de réponse à ces questions, les expériences conduite par le groupe PsyPhiNe s'appuient sur la mise en présence de participants humains et d'un objet animé, une lampe robotisée créée au printemps 2015, inspirée à la fois par le projet Pinokio d'Adam Ben-Dror et  Shanshan Zhou, et du court métrage d'animation Luxo Jr réalisé en 1986 par John Lasseter pour la société de production américaine Pixar Animation Studios.

Notre intervention reviendra sur les enjeux qu’implique une telle perspective interdisciplinaire et présentera quelques résultats des expériences qui ont été menées jusqu’ici.

Arnaud Revel (Université de La Rochelle)
Approches interdisciplinaires : exploration de l'interaction non-verbale comme outil de communication en robotique

Les travaux de la psychologue du développement Jacqueline Nadel [Nadel 1986] ont montré que l'imitation avait non seulement une fonction d'apprentissage, mais aussi une fonction de communication. Dans cet exposé je montrerai comment avec elle et d'autres collègues nous avons exploré la possibilité d'utiliser cette synergie dans le contexte de la robotique autonome avec des aspects à la fois théoriques [Revel et Andry 2009] mais aussi des applications à la modélisation du développement de l'enfant [Revel et Nadel 2007] ou à la proposition de thérapies dans le domaine de l'autisme. Ces travaux ont par ailleurs trouvé une résonance dans un autre travail interdisciplinaire mené avec l'artiste Emmanuelle Grangier, qui a débouché sur des performances chorégraphiques impliquant un robot et une danseuse [collectif Van Dieren 2014]. Plus récemment, des travaux visant à introduire des robots dans les musées pour faciliter la médiation culturelle avec les jeunes publics a montré l'importance de l'accord entre la communication verbale et gestuelle [Mondou, Prigent, Revel à paraitre]. Cela nous a amenés à construire un projet avec une entreprise de coaching qui permettrait d'explorer l'influence des dissonances verbe/geste sur la perception de l'interaction avec un robot.

Charles Tijus (Laboratoire  "Cognitions Humaine et Artificielle" - CHArt, Université Paris 8)
La fabrication d'objets smart

Des vêtements aux voitures, les objets sont de plus en plus connectés et deviennent des objets "Smart ": des objets qui ont un comportement adapté à leurs utilisateurs. Pour cela, ils doivent avoir une prise de décision basée sur la compréhension du contexte, de la situation et surtout des expressions, intentions, objectifs et tâche de l'utilisateur. Pour choisir parmi les solutions alternatives, décider et agir, l'objet Smart doit penser (évoquer et organiser des connaissances), raisonner (produire des inférences) et interagir (dialoguer avec l'utilisateur pour évaluer les inférences) de manière signifiante.

Nous développerons notre approche sur les quatre composantes nécessaires aux dialogues épistémiques développés par des objets Smart de type CIOT (Cognitive Internet-Of-Things): les composantes SEMANTIQUE, PRAGMATIQUE, METACOGNITION et COGNITION. Pour modéliser des scénarios de plus en plus situés et incarnés, nous soutenons que la composante COGNITION est intégrée dans la composant METACOGNITION qui est à son tour intégrée dans les composant PRAGMATIQUE et SEMANTIQUE. Enfin, nous montrerons tout l’intérêt d’inclure l’expression faciale et surtout la complétude du geste pour rendre compte de l’attribution de buts dans une approche cognition incarnée. Les études de cas sont le vêtement Smart, le simulateur de voiture autonome et les œuvres du Musée du Quai Branly.

Manifestation organisée par le Groupe PsyPhINe, avec le soutien de :