Des structures médico-sociales s’équipent de robots sociaux, tels l’humanoïde Nao ou le phoque Paro. Quels sont leurs bénéfices espérés ou attendus pour les publics vulnérables ?
Serge Tisseron. Aujourd’hui, on maîtrise encore mal les indications. Si par exemple Paro a un effet sédatif important chez certaines personnes, ce n’est pas le cas pour toutes, et d’autres le refusent. C’est la même chose pour Nao. Certaines personnes le rejettent, mais d’autres imitent plus volontiers les gestes montrés par celui-ci que par un soignant. En effet, ce petit robot ressemble à une créature vulnérable qui ne tient pas toujours bien sur ses jambes, ses mouvements sont un peu mécaniques. Les personnes peuvent donc se sentir moins disqualifiées. Il y a donc de nombreux paramètres à prendre en compte à chaque fois. L’erreur serait d’introduire ces machines en les auréolant d’emblée d’une efficacité thérapeutique. Mieux vaut les utiliser d’abord comme des outils ludiques et récréatifs, au même titre qu’une sortie en car, pouvant éventuellement générer un bénéfice thérapeutique. Cela permet d’ailleurs aux professionnels de mieux les accepter. Ensuite seulement, les « indications » sont à décider par l’équipe au cas par cas.
Des robots dotés d’intelligence et d’empathie artificielles pourraient-ils remplacer des soignants ?
S. T. Il n’y a pas beaucoup d’intelligence artificielle dans les robots commercialisés actuellement, qui sont faiblement interactifs et autonomes. Et pour l’avenir, la question est de savoir quelles compétences leur donner. En tous cas, il ne faut pas penser qu’ils sont appelés à remplacer les soignants. Je vois leur place de trois façons complémentaires. D’abord, des robots pour inviter les malades à jouer et à communiquer entre eux ; ensuite, des machines imparfaites, vulnérables, qui permettent à des personnes handicapées de valoriser leurs compétences en les aidant de façon ludique ; et pour les soignants, des robots grâce auxquels on peut faire mieux avec eux ce qu’ils faisaient jusque-là sans eux, notamment pour instaurer une relation de meilleure qualité. N’oublions pas qu’à partir du moment où l’usage d’un robot permet de tranquilliser une personne et de rétablir la communication avec elle, la question est de savoir ce qu’on fait : proposer de chanter une chanson, de raconter un souvenir ? C’est comme avec les médicaments. Une fois qu’une personne est à nouveau accessible à la relation, que faisons-nous avec elle ? Si les robots de compagnie réduisent la détérioration des capacités mentales de certaines personnes, que leur proposons-nous de faire avec celles sauvegardées ?
Un outil complémentaire à la médiation animale donc ?
S. T. L’animal va vers qui il veut, il a très vite ses têtes. L'intérêt du robot est qu’il est parfaitement contrôlé par l’équipe. Il peut donc être introduit dans un protocole en décidant du temps d’utilisation, de la place du soignant, etc. Mais il ne faut surtout pas opposer l’animal au robot, le réel à l’artificiel, et bien comprendre que l’usage et les indications sont différents.
Ces robots sociaux sont-ils des objets comme les autres ?
S. T. L’humain a toujours projeté énormément de lui dans ses objets familiers. Bien avant le smartphone ! Mais avec les robots sociaux, pour la première fois, des machines peuvent prendre l’initiative de la relation, en réagissant au contact, en interpellant…, et donc peuvent créer une illusion de réciprocité. En outre, pour qu'ils soient parfaitement adaptés à chacun d’entre nous, nous serons invités à leur apprendre quoi faire, jusqu’à ce qu’ils l’intègrent et peut-être dépassent le maître, notamment lorsque celui-ci vieillira et faiblira. Enfin, nous serons invités à interagir avec ces robots comme avec des humains – en leur parlant, en les regardant… – tout en devant garder à l’esprit qu’ils n’en sont pas. Certaines personnes ne pourront pas tenir en même temps ces deux propositions. Soit elles prêteront à ces machines des intentions et des émotions propres, soit elles refuseront de communiquer avec elles. Il ne faudra pas les forcer car elles auront l’intuition de ne pas pouvoir maintenir cet « en même temps », au risque de basculer dans la première situation.
Quels sont les risques à considérer un robot comme un congénère ?
S. T. Le premier serait d’oublier qu’il est programmé par un inconnu qui peut vouloir collecter nos données personnelles pour nous influencer. Le second serait de croire qu’il peut avoir des émotions et souffrir, ce qui peut nous faire souffrir à notre tour de la souffrance que nous lui imaginons. C’est le risque animiste. Ainsi, certains soldats américains s’attachent à leur robot démineur au point de déprimer s’il est endommagé, et de vouloir lui rendre les honneurs s’il est détruit. On peut imaginer qu’une personne vulnérable à qui un robot va rappeler chaque jour quel médicament prendre, et ainsi lui sauver la vie, pourrait développer un attachement semblable. Enfin, des personnes pourraient préférer la compagnie des robots, plus attentive et gratifiante, à celles des humains. J’appelle cela le « robot Nutella » : un produit totalement artificiel, mais scientifiquement conçu pour flatter les attentes des consommateurs, c’est-à-dire ici des attentes narcissiques.
De quoi éviter de nombreuses frustrations ! Mais aussi renforcer l’isolement de certaines personnes ?
S. T. Oui, le risque de la robot-dépendance est un premier stade. Le deuxième serait de préférer les humains qui font preuve des qualités qu’on attend d’un robot. Et le troisième serait que la morale publique demande explicitement aux gens de se comporter de façon toujours agréable pour leurs proches, comme un robot parfaitement programmé. Il existe toujours un tiraillement entre les exigences de la sincérité et celles de la convention sociale. Mais il serait dangereux pour notre santé mentale de basculer dans une culture de la conformité permanente aux règles de la bienséance, sans compromis possible.
Comment éviter alors un trop fort attachement à ces machines ?
S. T. L’attachement aux objets familiers est normal, et en outre équilibrant. Ce qui est problématique, c’est l’attachement pathologique, lorsque nous nous sentons dépossédés de ce que nous avons projeté de nous dans un objet lorsqu’il est loin ou perdu. Cet attachement aux robots peut être une bombe à retardement si les conséquences de leur utilisation ne sont pas étudiées. Il faut être conscient des risques que ces machines présentent afin d’en percevoir les signaux faibles, à la fois chez les soignants et chez les professionnels.
Quelles précautions l’encadrement doit-il donc prendre ?
S. T. L’introduction de robots doit amener à s’interroger plus que jamais sur la finalité des soins et de l’accompagnement : qu’est-ce qu’on fait et pourquoi on le fait ? Il est essentiel de se réunir pour poser un cadre éthique partagé. Par exemple, outre la question de l’utilisation des données et de la protection de la vie privée, il faut toujours demander aux utilisateurs leur accord, leur présenter le robot éteint, l’allumer puis l’éteindre devant eux, les inviter à faire de même, et toujours insister sur le fait qu’il s’agit d’une machine.
Au-delà des précautions d’usage, c’est dès la conception qu’il faut être vigilant. Je plaide pour des protections transparentes montrant la mécanique interne des robots. Aujourd’hui, cela peut sembler superflu, mais demain nous serons constamment invités à oublier que ce sont des machines. C’est donc dès maintenant qu’il faut prévoir des garde-fous. Il est aussi nécessaire de concevoir des robots socialisants qui favorisent les échanges et la création de liens, par exemple qui proposent aux personnes à domicile des activités dans leur quartier. Car ce qui caractérise l’être humain, c’est bien d’être en lien avec ses semblables.
Propos recueillis par Noémie Gilliotte - Photo : Thomas Gogny
Carte d'identité
Nom. Serge Tisseron
Formation. Psychiatre, docteur en psychologie habilité à diriger des recherches.
Parcours. Praticien hospitalier, a fondé puis dirigé une unité mobile de soins palliatifs (Hôpital de Villeneuve-Saint-Georges), chercheur associé HDR Université Paris 10, puis Paris 7 Denis Diderot.
Fonctions actuelles. Consultant, membre de l'Académie des technologies, président et fondateur de l’Institut pour l'étude des relations homme-robots (IERHR), chercheur associé au CRPMS (Université Paris Diderot), expert auprès de l'Agence nationale de sécurité sanitaire de l'alimentation, de l'environnement et du travail (Anses).
Publications. Petit traité de cyber psychologie, Le Pommier, 2015; Le jour où mon robot m’aimera, vers l’empathie artificielle, Albin Michel, 2015 ; L’enfant, les robots et les écrans : nouvelles médiations thérapeutiques (dir. avec F. Tordo), Dunod, 2017 ; Robots, des nouveaux partenaires de soins psychiques (dir. avec F. Tordo), Érès, 2018.
Publié dans le magazine Direction[s] N° 177 - juillet 2019