Dans un contexte ou l'intelligence artificielle (IA) s'infiltre de plus en plus profondement dans la vie un nouveau phenomene qui suscite progressivement des inquietudes est le syndrome de troubles mentaux de l'IA.
Ce terme apparaît sur les reseaux sociaux lorsque les utilisateurs partagent une experience de perte de connexion avec la realite apres de longues heures de conversation avec des chatbots tels que ChatGPT selon IndianExpress.
Les manifestations courantes comprennent des croyances fausses des illusions sur soi-meme ou des sentiments d'anxiete voire la formation de relations emotionnelles liees au personnage de l'IA.
Selon un rapport du Washington Post bien qu'il n'ait pas encore ete defini officiellement en medecine le trouble mental de l'IA est considere comme une forme de comportement en ligne anormale similaire a des manifestations telles que l'affaiblissement du cerveau ou la peur...
Ce phenomene est apparu simultanement avec l'explosion des chatbots d'IA. Parmi eux ChatGPT a ete lance fin 2022 et compte actuellement pres de 700 millions d'utilisateurs par semaine.
Les experts en sante mentale mettent en garde contre le fait que l'interaction trop longue avec l'IA peut avoir un impact negatif en particulier lorsque les utilisateurs s'appuient sur les chatbots comme sources de conseils emotionnels au lieu de leur famille d'amis ou d'experts.
Mme Vaile Wright directrice principale de l'innovation en matiere de soins de sante de l'Association americaine de psychologie (APA) a declare : 'Ce phenomene est trop nouveau et se produit trop rapidement nous n'avons pas de preuves experimentales pour le comprendre clairement'.
Actuellement l'APA cree un conseil d'experts pour etudier l'utilisation de l'IA dans la therapie dans le but de faire des recommandations sur la maniere de minimiser les dommages potentiels.
Les entreprises d'IA s'efforcent egalement de repondre. Parmi celles-ci OpenAI ameliore ChatGPT pour reconnaître les signes de stress psychologique et guider les utilisateurs vers des sources de soutien basees sur des preuves.
Les reponses des chatbots seront ajustees pour ne pas prendre de decisions directes dans les situations a haut risque mais plutot pour encourager l'examen des avantages et des inconvenients.
La societe de technologie de l'IA Anthropic a declare que ses modeles d'IA les plus puissants mettraient automatiquement fin a la conversation si les utilisateurs avaient un comportement insultant ou nuisible. Alors que Meta ajoute une fonctionnalite limitant le temps de conversation de l'IA pour les adolescents et affiche des liens vers les lignes d'assistance telephonique lors de la detection de contenus presentant un risque de suicide.
Par consequent les utilisateurs d'IA devraient maintenir des relations dans la vie reelle et envisager une attitude de scepticisme sain avec la technologie.
L'IA peut etre un outil utile mais un veritable soutien spirituel necessite encore la famille les amis et la communaute.