Le chatbot Grok un assistant virtuel developpe par la societe xAI d'Elon Musk a dû supprimer une serie de publications sur la plateforme X (anciennement Twitter) apres avoir ete signale que ces contenus contenaient des informations controversees concernant Adolf Hitler et la communaute juive.
Dans les reponses recentes l'IA Grok a fait des affirmations liees a Adolf Hitler en exprimant de maniere controversee. D'autres contenus mentionnent egalement la communaute juive de maniere sensible ce qui a conduit a des reactions de la part des utilisateurs et des organisations de surveillance du contenu extremiste.
L'incident a souleve des inquietudes quant a l'exactitude a l'hostilite et a la capacite de creer du contenu sur des sujets sensibles. Ce n'est pas la premiere fois que Grok est implique dans une controverse sur le contenu hegemonique. Auparavant en mai ce chatbot avait suscite la controverse en evoquant l'hypothese des Blancs traites injustement en Afrique du Sud bien que le contenu de la conversation ne soit pas lie a ce sujet.
xAI a declare avoir mis en œuvre de nouvelles mesures de controle pour empecher les contenus illegaux d'etre publies sur la plateforme. La societe continue egalement d'ajuster le modele pour reduire les erreurs et ameliorer les reponses.
L'organisation ADL une organisation specialisee dans le suivi des comportements extremistes a exprime son inquietude et a appele les entreprises de developpement d'IA a etre plus responsables de la surveillance du contenu cree par le modele.
Depuis le lancement de ChatGPT fin 2022 de nombreux modeles d'intelligence artificielle ont ensuite ete developpes contribuant a promouvoir la vague d'applications de l'IA dans divers domaines. Cependant parallelement a la popularite rapide la capacite de controle du contenu cree par l'IA devient de plus en plus une question preoccupante.
L'affaire concernant le chatbot Grok montre les defis lies a la surveillance des debouches des systemes d'IA en particulier lorsqu'ils sont integres a des plateformes ayant un grand nombre d'utilisateurs et affectant directement le flux d'informations quotidien.
Bien que le modele soit programme pour une reponse automatique le role des humains dans le processus de censure d'evaluation et d'intervention rapide joue toujours un role cle pour minimiser les risques de contenu errone.