Selon le dossier du tribunal fédéral de Californie (États-Unis), une enquête auprès des utilisateurs de Meta montre que 19% des adolescents âgés de 13 à 15 ans utilisant Instagram reconnaissent avoir vu des photos nues ou du contenu pornographique qu'ils ne voulaient pas voir sur cette plateforme.
Le document a été publié dans le cadre d'un procès contre Meta, comprenant un extrait du témoignage de mars 2025 d'Adam Mosseri, le chef d'Instagram.
En conséquence, les données proviennent d'une enquête auprès des utilisateurs en 2021 visant à évaluer l'expérience pratique sur la plateforme, et non d'un examen direct du contenu publié.
Non seulement la question du contenu sensible, mais le témoignage montre également qu'environ 8% des utilisateurs du groupe d'âge 13-15 ans ont déclaré avoir vu des messages liés à des comportements d'automutilation ou de menaces d'automutilation sur Instagram au cours de la même enquête.
Un autre document interne a également été publié dans le procès, montrant qu'un chercheur de Meta avait recommandé à l'entreprise de se concentrer fortement sur le groupe d'utilisateurs adolescents car ils sont considérés comme des "catalyseurs" au sein de la famille, ce qui affecte l'utilisation de l'application par les parents et les jeunes enfants.
Le protocole d'accord daté du 20 janvier 2021 souligne que l'attraction et le maintien de nouveaux utilisateurs dépendent considérablement de l'influence de ce groupe d'âge.
Actuellement, Meta est confronté à de nombreuses critiques de la part des décideurs politiques et des agences de gestion du monde entier concernant l'impact des réseaux sociaux sur la santé mentale des jeunes.
Aux États-Unis, des milliers de plaintes au niveau fédéral et étatique accusent l'entreprise de concevoir des produits addictifs, contribuant à aggraver la crise psychologique chez les adolescents.
M. Andy Stone, porte-parole de Meta, a déclaré que les données sur l'exposition au contenu sensible ne reflètent que les résultats des enquêtes sur l'expérience utilisateur, et non l'évaluation globale du niveau d'apparition du contenu sur la plateforme.
La société n'a pas encore répondu au protocole d'accord interne relatif à la stratégie axée sur les jeunes.
Fin 2025, Meta a annoncé qu'il renforcerait les mesures de protection des jeunes utilisateurs en supprimant les images et les vidéos contenant du contenu nu ou des activités sexuelles explicites, même celles créées avec l'intelligence artificielle, à l'exception de certains cas éducatifs ou médicaux.
Dans son témoignage, M. Mosseri a également déclaré que la plupart du contenu sensible était partagé par messages privés entre les utilisateurs, ce qui obligeait l'entreprise à faire le compromis entre le contrôle du contenu et la protection de la vie privée.