Tu seras poli avec ta Google Home (Gaspard Koenig)

Tu seras poli avec ta Google Home (Gaspard Koenig)

Google Home, l'assistant personnel de Google avec qui l'on peut engager des rudiments de conversation, vient d'introduire la fonction « Pretty Please » qui récompense la politesse à son égard, suivant l'exemple d'Amazon avec Alexa . Les adultes se verront ainsi répondre sur le même ton courtois, tandis que le « mot magique » pourra être exigé des enfants avant d'accéder à leurs demandes.

Imiter n'est pas reproduire

L'objectif est de décourager les comportements grossiers et d'éviter de brouiller l'apprentissage de l'intelligence artificielle avec toutes sortes de noms d'oiseaux qui pourraient revenir en boomerang aux utilisateurs. Google brandit à l'appui de son dispositif des études sociologiques démontrant la nécessité d'être courtois avec les robots. « - S'il te plaît, Google, mets le four en marche. - Merci d'être si aimable, Gaspard, je vais le faire immédiatement. »

Mais ce qui est devenu un impératif social représente à mon sens une profonde erreur épistémologique. Une intelligence artificielle (IA) ne possède ni personnalité ni conscience ; elle ne souffre ni du froid ni des insultes. Loin de reproduire le processus de la pensée ou de l'émotion, elle ne fait qu'imiter leurs résultats, comme l'explique le chercheur en informatique Jerry Kaplan. Quand le Google Assistant répond à une question en utilisant un moteur de recherche ou suggère un choix de musique, il ne suit pas un raisonnement humain, mais il effectue la synthèse des millions de raisonnements humains dont son algorithme a été nourri. C'est une mécanique complexe, sophistiquée et sans doute utile, mais une simple mécanique et non un être autonome doué de sens moral. Dit-on « s'il te plaît » à une machine à laver, à une voiture ou à un logiciel de traitement de texte ?

Le retour de l'anthropomorphisme

Traiter une IA avec politesse ne représente donc pas l'avant-garde du progrès, mais au contraire une régression pour notre civilisation, retombant dans les travers de l'anthropomorphisme. Il suffit de visiter le musée des Arts premiers à Paris pour constater combien les sociétés traditionnelles s'ingéniaient à attribuer une âme, un pouvoir et des sentiments aux objets inanimés (le fameux « mana » des Polynésiens). Il faudra attendre l'essor de la science expérimentale pour libérer les choses de notre ombre portée.

Gaston Bachelard avait identifié, dans le processus de formation de l'esprit scientifique, « l'obstacle animiste », défini comme une « croyance au caractère universel de la vie ». Il cite des savants de la Renaissance qui étudiaient les vices et les vertus des minéraux. Bachelard avait alors proposé une méthode pour surmonter ces obstacles épistémologiques ancrés dans certaines dispositions naturelles de notre imagination.

Le XXIe siècle va-t-il retomber dans l'adoration de puces de silicium, en discutant des vices et des vertus de l'IA ? Allons-nous ressusciter les esprits animaux pour des machines que nous avons conçues et fabriquées nous-mêmes ? La maison connectée ressemblera-t-elle à une forêt touffue pleine de spectres et de mystères ? Il serait paradoxal que les progrès de la technique nous fassent perdre l'esprit scientifique.

"Non seulement un robot ne mérite pas de politesse, mais il faut éviter que la politesse ne se robotise."

Loin de contribuer à des relations sociales harmonieuses, la logique de « Pretty Please » risque ainsi de recréer un rapport au monde primitif où il faut bénir les claviers et saluer les frigos. De plus, elle fait de la politesse un réflexe automatique, standardisé et répétitif, alors que toute sa valeur vient de sa sincérité. « Tu ne le penses pas vraiment », s'entend-on parfois répondre après des excuses trop machinales. Non seulement un robot ne mérite pas de politesse, mais il faut éviter que la politesse ne se robotise.

Aussi devrions-nous pour une fois demander à nos enfants d'être discourtois ou, mieux encore, parfaitement indifférents envers les objets connectés qui commencent à nous entourer. Il ne s'agit pas de transformer les robots en esclaves, comme certains le redoutent : un esclave est un être conscient à qui l'on nie toute faculté d'autodétermination, alors que l'IA est une fiction artificielle que nous avons déterminée nous-mêmes, et dont les capacités d'apprentissage restent liées aux algorithmes qui la gouvernent. Il s'agit de différencier très clairement, pour des raisons morales essentielles, un sujet qui étant une fin en soi mérite le respect, et un objet purement utilitaire. Les robots ne sont ni des amis ni des ennemis , ni des anges ni des démons. Ce sont des instruments. C'est au prix de cette clarification que nous pourrons cohabiter sereinement avec eux.

https://www.lesechos.fr/idees-debats/editos-analyses/0600313989971-tu-seras-poli-avec-ta-google-home-2229371.php