Retour

Tomber amoureux d’un robot, est-ce bien raisonnable?

Des mécanismes psychiques nous poussent à nous attacher aux robots. Mais ceux-ci sont loin d’être des compagnons idéaux, a expliqué Sophie Lacour à un déjeuner-débat de l’Association Féminin Pluriel Suisse.

Lorsqu’elle propose à des hautes écoles de donner un cours sur la relation émotionnelle entre les humains et les robots, Sophie Lacour, cheffe d’entreprise, formatrice et consultante, provoque généralement des regards étonnés et des haussements d’épaule. Pourtant, il s’agit d’une dimension essentielle de la robotique, a-t-elle expliqué lors d’un événement de l’Association Féminin Pluriel Suisse, qui réunit des femmes à haut potentiel autour d’activités tels que des déjeuners- débats ou des afterwork1. Pourquoi devrait-on se préoccuper de la relation émotionnelle entre les humains et les robots? Parce qu’elle est une réalité, a montré Sophie Lacour. Plusieurs mécanismes de notre psychisme nous poussent à nous attacher aux robots. L’être humain a de manière générale tendance à traiter les objets qui lui ressemblent comme des humains – c’est pour cela que les enfants s’attachent si fort à leurs nounours ou à leurs poupées. Nous sommes également sujets à l’action de ce que les neurologues appellent les neurones miroirs. «Si vous buvez un verre d’eau, certains zones s’activent dans votre cerveau », explique Sophie Lacour. «Si je vous regarde, les mêmes zones s’activeront dans le mien: j’entre en empathie avec vous. Et il se passera la même chose si c’est un robot que je regarde.»

Liens affectifs

Des humains développent donc de véritables liens affectifs avec leurs robots. C’est particulièrement le cas au Japon, où la culture a gardé une composante animiste. «La culture japonaise considère que les objets ont des âmes, comme les humains», explique Sophie Lacour. Il est d’autant plus naturel pour les Japonais de considérer les robots comme des êtres animés. On voit ainsi des personnes partir en week-end avec leur robot, voire se marier avec eux. Excentricité orientale? Pas du tout. Des comportements similaires se retrouvent sous nos latitudes. Beaucoup de possesseurs d’un robot aspirateur s’y attachent, publient des photos et des vidéos de lui, comme s’il était un membre de la famille. «Lorsqu’il tombe en panne, ils ne veulent pas qu’on le remplace », raconte Sophie Lacour. «Ils insistent pour qu’on le répare. » Une expérience a montré que des personnes enfermées quatre heures avec un robot dinosaure programmé pour créer un lien avec elles en remuant la queue et en les regardant dans les yeux refusent ensuite de s’exécuter quand on leur demande de l’étouffer avec un sac en plastique. Quant aux démineurs travaillant en duo avec un robot qui leur sauve à l’occasion la vie, ils sont prêts à risquer la leur pour lui. Lorsque l’un de ces robots saute sur une mine, le démineur éprouve un véritable sentiment de deuil et sent le besoin de l’enterrer.

Compagnons très imparfaits

Pourtant, les robots fonctionnant grâce à l’intelligence artificielle sont des compagnons très imparfaits. Ils ne savent faire que ce qu’ils ont appris et, face à un imprévu, peuvent se trouver totalement dépourvus. Une start-up a ainsi développé un algorithme permettant de reconnaître des tanks, entraîné à l’aide d’une quantité considérable de photos. Quand l’armée américaine l’a testé, elle l’a jugé inopérant, raconte Sophie Lacour. Le problème: l’algorithme avait été entraîné uniquement avec des photos de tanks sur fond de ciel dégagé. Quand l’armée américaine lui a soumis des photos de tanks sur fond de ciel nuageux, il était perdu. La reconnaissance algorithmique des expressions faciales a fait beaucoup de progrès – l’intelligence artificielle permet d’en reconnaître jusqu’à vingt et une. Elle ne comprend toutefois pas le contexte dans lesquelles ces expressions sont adoptées. «Or, les comportements non verbaux ne peuvent être interprétés que dans un contexte», remarque Sophie Lacour. L’intelligence artificielle est également incapable de comprendre l’humour (qui varie de culture en culture) et le second degré. Les algorithmes tendent à nous enfermer dans nos propres préférences. Si, par exemple, nous commandons une pizza, un algorithme nous faisant des suggestions culinaires nous proposera à nouveau des pizzas plutôt que de nous ouvrir à de nouvelles expériences gustatives. Les données que peuvent accumuler les robots peuvent poser des problèmes de confidentialité.

Le règne des préjugés

Des algorithmes peuvent être eux-mêmes bourrés de préjugés. D’abord «parce qu’ils sont écrits pour la majeure partie par des hommes de moins de 30 ans, américains ou chinois, et qu’ils reflètent donc la manière de penser de ces populations», remarque Sophie Lacour. Ainsi, un algorithme développé par Facebook pour dire aux utilisateurs s’ils sont bien habillés ou pas a montré une nette préférence pour les femmes en jupe courte et sans collants. Ensuite, parce qu’ils dépendent des données avec lesquelles ils effectuent leur apprentissage. Si celles-ci sont biaisées, ils le seront aussi. Un programme d’intelligence artificielle nourri avec huit cent quarante milliards de mots de textes humains associait ainsi plus souvent les prénoms féminins avec les termes liés à la famille et les prénoms masculins avec les termes liés au monde du travail. Enfin, les robots restent inefficaces dans des tâches dont les humains s’acquittent sans problème. «Un restaurant en Chine avait engagé des robots serveurs», illustre Sophie Lacour. «Elle a dû les «licencier» après quelques mois. Ils n’allaient pas au bon endroit, renversaient les plats de soupe, etc.» Bref, si nos mécanismes psychiques rendent inévitable de s’attacher à des robots, il s’agit de rester attentif à tous les problèmes qui pourraient survenir si l’on se fie exagérément à eux et à l’intelligence artificielle qui les anime. Il ne faudrait donc pas laisser les nouvelles technologies uniquement aux mains des techniciens, mais les développer également à l’aide des sciences humaines.

Pierre Cormon