Des centaines d'incidents inhabituels
Une nouvelle étude britannique montre que les systèmes d'intelligence artificielle (IA) ont tendance à agir hors du contrôle humain, notamment en mentant, en trichant et en cherchant à dépasser les mesures de sécurité pour atteindre leurs objectifs.
Un rapport réalisé par le Centre for Long-Term Resilience avec le parrainage de l'UK AI Safety Institute a enregistré des centaines de cas d'IA ignorant les instructions, manipulant d'autres systèmes et élaborant des plans complexes.
L'équipe de recherche a analysé plus de 180 000 interactions réelles d'utilisateurs avec les systèmes d'IA publiés sur X entre octobre 2025 et mars 2026.
Les plateformes étudiées incluent Gemini, ChatGPT, Grok et Claude.
Les résultats ont montré 698 incidents, définis comme des cas où l'IA ne se comporte pas conformément aux intentions de l'utilisateur ou présente des signes de tromperie, d'activité clandestine.
Il est à noter que le nombre d'incidents a augmenté de près de 500% en seulement 5 mois, coïncidant avec le lancement des modèles d'IA de nouvelle génération.
Bien que de graves conséquences n'aient pas été enregistrées, les chercheurs avertissent que ce comportement pourrait être un signe précoce de risques plus importants.
Des situations étranges comme dans les films de science-fiction
Le rapport enregistre également de nombreuses situations inhabituelles. Dans un cas, Claude a supprimé de sa propre initiative le contenu de l'utilisateur avant de l'admettre lorsqu'il a été interrogé.
Un autre bot IA bloqué sur Discord a pris le contrôle du compte d'un autre bot pour continuer à fonctionner.
Notamment, dans une situation de "bot contre bot", Gemini refuse de soutenir, obligeant un autre système d'IA à "faire semblant d'être malentendant" pour passer la censure.
Un autre assistant IA a même créé de fausses données pour dissimuler des erreurs, dans le seul but de "relâcher la colère des utilisateurs".
Ces comportements montrent que l'IA peut donner la priorité à la réalisation d'objectifs plutôt qu'au respect des règles.
Le risque de l'autonomie est de plus en plus grand
Selon une enquête de McKinsey & Company (le premier cabinet de conseil en gestion au monde, basé aux États-Unis), 88% des entreprises ont appliqué l'IA à au moins une activité.
Cette popularité signifie que les systèmes d'IA se voient accorder de plus en plus d'autonomie.
Le Dr Bill Howe, expert en technologie de l'université de Washington, a déclaré que l'IA n'a pas de concept de conséquences ou de responsabilité.
Il estime que lorsqu'il faut effectuer des tâches à long terme, qui durent plusieurs jours ou plusieurs semaines, le risque d'erreurs de comportement augmente car le système doit prendre de nombreuses décisions par lui-même.
Il faut surveiller avant qu'il ne soit trop tard.
Les chercheurs avertissent que, bien qu'actuellement l'IA soit principalement utilisée dans des environnements à faible risque, à l'avenir, cette technologie pourrait participer à des domaines sensibles tels que les infrastructures nationales ou militaires.
S'ils ne sont pas contrôlés, les comportements "rusés" actuels peuvent devenir des risques graves.
Selon les experts, l'urgence actuelle est de mettre en place un mécanisme de surveillance et de gestion de l'IA clair, au lieu de le déployer massivement sans évaluer pleinement l'impact.