En 2022 Apple a abandonne son projet de detecter les documents d'abus sexuels sur enfants (CSAM) apres les accusations selon lesquelles ce systeme pourrait etre utilise pour surveiller les utilisateurs.
Au lieu de cela Apple s'est tourne vers une suite de fonctionnalites appelee Securite de la communication qui aide a estomper les photos nues envoyees aux enfants. Cependant ces mesures ne suffisent pas a empecher completement l'abus et le signalement d'incidents CSAM.
Selon The Guardian l'Association nationale britannique de lutte contre les crimes contre l'enfant (NSPCC) a declare qu'Apple avait sous-estime de nombreux incidents CSAM sur ses services tels que iCloud FaceTime et iMessage.
Toutes les entreprises technologiques americaines sont tenues de signaler les cas de CSAM detectes au Centre national des enfants disparus et exploites (NCMEC) et en 2023 Apple a effectue 267 rapports.
Cependant le NSPCC a decouvert que rien qu'au Royaume-Uni et au Pays de Galles Apple a ete implique dans 337 violations entre avril 2022 et mars 2023.
Richard Collard chef de la politique en ligne sur la securite des enfants au NSPCC a exprime son inquietude : 'Il existe une difference inquietante entre le nombre de crimes d'imagerie d'abus sexuels sur enfants en Angleterre sur les services d'Apple et le nombre de rapports mondiaux presque insignifiants sur le contenu abusif qu'ils envoient aux autorites. Apple suit clairement de nombreuses entreprises du meme secteur dans la resolution du probleme des abus sexuels sur enfants alors que toutes les entreprises technologiques devraient investir dans la
Par rapport a Apple d'autres entreprises technologiques ont signale un nombre considerable de cas de CSAM suspects. Google a signale plus de 1 458 958 cas en 2023. Au cours de la meme periode Meta a signale 17 823 822 cas sur Facebook et 11 433 077 cas sur Instagram. Il est a noter que WhatsApp de Meta egalement crypte comme iMessage d'Apple a signale environ 1 386 918 cas de CSAM suspects en 2023.
Cet ecart a souleve de nombreuses questions sur l'engagement d'Apple a proteger les enfants sur sa plateforme. Certains experts en maltraitance infantile craignent qu'Apple ne reagisse pas reellement efficacement a ce probleme et que le manque de transparence de ses rapports ne aggrave la situation.
Pendant ce temps Apple n'a mentionne que The Guardian ses declarations precedentes sur la vie privee globale des utilisateurs sans expliquer clairement le faible nombre de rapports par rapport aux autres entreprises.
Un autre facteur egalement mentionne est l'inquietude concernant les images CSAM creees par l'IA. Alors que la technologie se developpe de plus en plus fortement la capacite de creer des images authentiques grace a l'intelligence artificielle augmente egalement. Cependant Apple Intelligence qui devrait etre lance ne creera pas ces images authentiques ce qui reduira une partie des inquietudes de la communaute.
Dans un contexte de pression croissante du public et des organisations de protection de l'enfance Apple devra prendre des mesures plus specifiques et transparentes pour faire face au probleme de l'abus sexuel sur les enfants dans ses services.
Le manque de transparence et de rapports complets peut entraîner de graves consequences non seulement pour l'entreprise mais aussi pour des millions d'enfants utilisant les services d'Apple dans le monde entier. Investir dans des mesures de protection et de surveillance efficaces sera une etape necessaire pour assurer la securite des jeunes utilisateurs tout en maintenant la reputation et la responsabilite d'Apple dans l'industrie technologique.