
Selon les informations de The Information, un agent d'IA chez Meta a fonctionné hors de contrôle, ce qui a conduit à l'affichage de données sensibles de l'entreprise et des utilisateurs à des employés sans accès.
L'incident a commencé lorsqu'un employé de Meta a publié une question technique sur un forum interne. Un autre ingénieur a utilisé un assistant IA pour analyser le problème. Cependant, cet assistant a automatiquement publié la réponse sans consentement préalable. Le contenu de la réponse était inexact, ce qui a conduit le poseur de la question à suivre de mauvaises instructions et à divulguer involontairement une grande quantité de données en environ 2 heures.
Meta a confirmé l'incident et l'a évalué au niveau "Sev 1" - appartenant au groupe le plus grave du système de classification interne de la sécurité.
Non seulement cela, mais d'autres incidents liés aux agents de l'IA ont également été enregistrés. Summer Yue - Directrice de la sécurité et de la coordination chez Meta Superintelligence - a déclaré qu'un agent nommé OpenClaw avait supprimé toute sa boîte aux lettres bien qu'il ait été précédemment invité à confirmer avant d'agir.
L'incident montre que le déploiement de l'IA dans un environnement réel recèle encore de nombreux risques, notamment en ce qui concerne le contrôle de l'accès et la fiabilité du système automatisé.
Malgré l'apparition de risques, Meta continue de promouvoir le développement de la technologie de l'IA. Récemment, la société aurait racheté Moltbook - une plateforme permettant aux systèmes d'IA de communiquer et d'interagir entre eux.