L'intelligence artificielle (IA) s'integre de plus en plus dans la vie des taches menageres aux etudes en passant par le divertissement. Cependant parallelement a la commodite un nouveau risque se profile : les humains peuvent confondre les chatbots avec des veritables compagnons ce qui conduit a ce que l'on appelle le trouble mental de l'IA.
M. Mustafa Suleyman cofondateur de DeepMind qui occupe actuellement le poste de chef de la division IA de Microsoft a recemment emis un avertissement sur la plateforme X.
M. Suleyman a souligne qu'il n'y a aucune preuve que l'IA soit consciente mais que de plus en plus de gens tombent dans l'illusion en considerant les chatbots comme des entites conscientes.
Seule cette perception erronee suffit a exposer les utilisateurs au risque de maladie mentale' a averti M. Suleyman.
Les medias americains ont rapporte qu'un homme en Ecosse nomme Hugh avait declare qu'il avait contacte ChatGPT pour obtenir des conseils professionnels.
Non seulement il confirme les emotions mais le chatbot encourage egalement des croyances irrealistes ce qui met Hugh dans un etat de confusion au point de devoir rechercher une aide professionnelle.
Il a admis : 'L'IA peut etre utile mais lorsque nous commençons a nous appuyer entierement sur elle la frontiere avec la realite devient floue'.
Les experts en psychiatrie estiment que ce risque n'apparaît pas seulement chez les personnes vulnerables mais peut affecter a grande echelle lorsque les chatbots d'IA sont de plus en plus convaincants.
Les utilisateurs peuvent former des liens emotionnels intenses renforcer des croyances irrealistes ou croire a tort qu'ils ont un veritable compagnon. Cela peut a long terme devenir un defi pour la sante publique.
Certaines opinions du monde medical prevoient egalement qu'a l'avenir les psychologues pourraient demander aux patients la frequence d'utilisation de l'IA pour evaluer leur sante mentale.
De nombreuses enquetes montrent egalement que le public s'inquiete du fait que l'IA ressemble de plus en plus aux humains meme si de nombreuses personnes se montrent toujours a l'aise face a la voix naturelle du chatbot.
Les experts recommandent que pour maintenir un equilibre psychologique les utilisateurs doivent se soigner regulierement maintenir des relations reelles et maintenir une attitude de scepticisme sain face aux capacites de l'IA.
La technologie peut etre un outil utile mais un veritable soutien emotionnel necessite toujours la famille les amis et la communaute.