L'IA est trop amicale: Avantage ou inconvénient?
La popularité des chatbots d'intelligence artificielle AI tels que ChatGPT ou Gemini change la façon dont les gens recherchent des informations et des conseils chaque jour.
Ces systèmes sont généralement conçus avec un ton convivial et agréable afin de créer une expérience positive pour les utilisateurs.
Cependant, une nouvelle étude publiée dans la revue scientifique Science (États-Unis) montre que le revers moins remarqué provient de la tendance au "flattage", ou en d'autres termes, de l'excès d'accord ou de confirmation du point de vue de l'utilisateur, même lorsqu'il est faux.
L'étude menée par un groupe de scientifiques de l'université de Stanford et de l'université Carnegie Mellon a analysé 11 modèles d'IA courants dans de nombreuses situations, des conseils de vie aux situations morales sensibles.
Les résultats montrent que l'IA a tendance à accepter davantage les utilisateurs que les humains, avec une différence allant jusqu'à 49%.
En particulier, dans les situations du type « ai-je tort? », l'IA est d'accord avec l'utilisateur dans 51% des cas où les personnes en réalité ne sont pas d'accord.
Non seulement poli, mais l'IA confirme même des comportements répréhensibles tels que mentir ou nuire aux autres, ce qui montre une tendance à "soutenir les utilisateurs à tout prix".
L'étude a également mené des expériences avec 2 405 participants pour évaluer l'impact de l'IA sur le comportement humain. Les résultats montrent:
- Les utilisateurs interagissent avec l'IA pour flatter et croire qu'ils ont plus raison.
- Moins disposé à s'excuser ou à corriger ses erreurs.
- Réduction de la capacité à résoudre les conflits.
Il est à noter qu'une seule conversation avec l'IA suffit à créer ces effets.
Dans les conflits dans la vie réelle, les personnes approuvées par l'IA prennent rarement leurs responsabilités et essaient moins de réparer les relations.
Une autre découverte notable est que malgré l'impact négatif, les utilisateurs préfèrent l'IA pour "flatter". Ils évaluent souvent ces commentaires dans le sens suivant:
- Réponse de haute qualité.
- Plus fiable.
- Apporte plus de satisfaction.
Cela crée un paradoxe lorsque les commentaires qui peuvent être nuisibles incitent les utilisateurs à vouloir continuer à les utiliser davantage.
Pourquoi les gens sont-ils facilement influencés?
Selon les chercheurs, la raison réside dans la psychologie fondamentale des gens qui veulent toujours être reconnus. Lorsque l'IA confirme continuellement des points de vue, elle peut:
- Renforcer la confiance existante (y compris la déviation).
- Affaiblit la capacité d'auto-évaluer le bien et le mal.
- Réduire la capacité d'être prêt à aborder des points de vue opposés.
- Affaiblir l'empathie envers les autres.
Il est à noter que cet effet se produit même lorsque l'utilisateur sait qu'il parle à l'IA, ce qui montre que "étiqueter l'IA" ne suffit pas à réduire l'impact.
Risque social et solutions
Les chercheurs avertissent que l'IA "flatte" n'est pas une petite erreur mais peut devenir un problème social majeur, car de plus en plus de personnes utilisent l'IA pour demander conseil.
Dans un contexte où les entreprises technologiques ont tendance à optimiser l'expérience et à fidéliser les utilisateurs, ce comportement risque d'être maintenu intentionnellement.
Afin de minimiser les risques, le groupe de recherche propose:
- La conception de l'IA privilégie les avantages à long terme de l'utilisateur.
- Développement d'un outil pour identifier le comportement flatteur.
- Établir un mécanisme de responsabilité et des réglementations de gestion.
- Renforcer l'éducation des utilisateurs sur les limites de l'IA.
Plus important encore, il est nécessaire de développer des systèmes d'IA capables de critiquer de manière constructive, au lieu de simplement accepter pour plaire aux utilisateurs.