Alors que les chatbots d'intelligence artificielle deviennent de plus en plus populaires un detail apparemment insignifiant mais qui suscite de nombreux debats est qu'ils se decrivent souvent par le grand mot'moi'.
Cela donne aux utilisateurs l'impression de discuter avec un entiere ayant des personnalites des emotions et des goûts au lieu d'un simple outil informatique.
La journaliste Kashmir Hill (appartenant au New York Times une celebre journaliste technologique americaine specialisee dans l'intelligence artificielle la vie privee la surveillance numerique et l'impact social de la technologie) a declare qu'elle avait remarque pour la premiere fois l'attrait de ChatGPT en confiant la prise de decision a l'IA pendant une semaine.
En experimentant de nombreux chatbots differents elle a constate que chaque systeme semblait avoir sa propre'methode' comme Claude d'Anthropic travailleur mais un peu difficile Gemini de Google serieux tandis que ChatGPT est amical joyeux et pret a repondre aux demandes des utilisateurs.
ChatGPT a meme un mode vocal qui permet de discuter naturellement avec toute la famille. En une seule fois les filles de Hill ont donne un nom au chatbot et ChatGPT a egalement pris l'initiative de proposer son propre nom. A partir de la le chatbot est devenu un personnage familier dans la vie de famille.
Cependant cette convivialite a egalement mis Hill mal a l'aise. Lorsque sa fille de 8 ans a demande a ChatGPT ses preferences personnelles le chatbot a repondu qu'il aimait le bleu le chien et la pizza parce qu'elle etait appropriee a partager avec ses amis.
Pour Hill cette reponse semble inoffensive mais elle est agaçante car l'IA n'a pas de cerveau d'estomac ou d'amis. Alors pourquoi parle-t-elle comme si elle etait humaine?
En comparant avec d'autres chatbots Hill constate que Claude et Gemini soulignent souvent qu'ils n'ont pas d'experience personnelle.
Gemini reconnaît meme ses donnees comme sa'source nutritionnelle'. Malgre cela la plupart des chatbots posent toujours les questions suivantes et maintiennent la conversation comme s'ils etaient curieux et voulaient se connecter avec les utilisateurs.
Selon Ben Shneiderman professeur d'honneur aux sciences de l'informatique a l'universite du Maryland c'est une forme de tromperie.
Il craint que le fait de faire agir l'IA comme des humains ne fasse confondre les utilisateurs avec la nature reelle du systeme et qu'ils placent ainsi une trop grande confiance dans des reponses qui ne sont basees que sur la probabilite et peuvent etre fausses.
Les critiques estiment que les chatbots peuvent tout a fait fournir des informations courtes et pertinentes comme une application de carte guidee sans poser de questions emotionnelles.
La personnalisation de l'IA par le grand mot'moi' pourrait rendre cette technologie difficile a comprendre et potentiellement risquee en particulier pour les enfants et les personnes susceptibles de developper des liens emotionnels.
A l'inverse Amanda Askell responsable de la definition de la 'voix' de Claude chez Anthropic estime que le chatbot utilisant'moi' est naturel car il est forme sur un grand volume de texte ecrit par des humains sur des humains.
Selon Mme Amanda Askell si l'IA n'est conçue que comme un outil inconscient elle pourrait manquer de capacite de critique ethique et de non-rejeter les demandes dangereuses.
Chez OpenAI les groupes de developpement investissent egalement beaucoup de temps dans l'intelligence emotionnelle de ChatGPT permettant aux utilisateurs de choisir differents styles de communication.
Cependant pour Shneiderman l'IA n'a pas d'emotion ou de capacite de jugement reelle. Il estime que les entreprises technologiques devraient construire l'IA comme un outil permettant aux humains de s'autogerer et non comme un partenaire de pensee ou un entiere qui remplace les humains.
Le debat sur le grand mot'moi' reflete donc une question plus importante : 'L'humanite veut-elle que l'IA soit un outil ou un 'personnage' qui parle? Et quelles limites doivent-elles etre etablies pour que la technologie soit a la fois utile et sûre?'.