Selon un nouveau rapport du Tech Transparency Project (TTP), un organisme de surveillance des grandes plateformes technologiques, les chercheurs ont decouvert 55 applications deepfake « nues » sur le Google Play Store et 47 applications sur l'Apple App Store.
Ces applications permettent aux utilisateurs de supprimer les vetements numeriques ou de greffer un vrai visage dans un corps nu grace a la technologie d'IA creative.
Ce qui inquiete particulierement l'opinion publique, c'est que les applications ci-dessus peuvent etre telechargees facilement, en utilisant simplement des photos personnelles qui sont generalement partagees ouvertement sur les reseaux sociaux.
TTP a declare que lors de la recherche avec des mots-cles tels que "nudify" ou "undress", une serie d'applications apparaissent toujours sur les deux magasins d'applications les plus populaires au monde.
Au cours des tests, l'equipe de recherche a decouvert que de nombreuses applications avaient la capacite de creer des images suggestives ou nues assez realistes, meme si les photos originales n'avaient absolument aucun element sensible.
Il s'agit d'une forme de deepfake d'image, une technologie qui suscite une vive controverse en raison de la violation de la vie privee et de l'honneur personnel.
Il est a noter que le nombre total de telechargements de ces applications a depasse les 700 millions de fois, rapportant plus de 117 millions de dollars de revenus.
Apple et Google, en tant qu'intermediaires de distribution, beneficient egalement d'une partie des benefices des transactions dans les applications.
Ce chiffre rend la question de la responsabilite de la censure du contenu des deux geants de la technologie encore plus severe.
L'enquete a egalement revele une realite alarmante: de nombreuses applications sont classees comme adaptees aux adolescents, voire aux enfants.
Par exemple, l'application DreamFace est consideree comme destinee aux utilisateurs a partir de 13 ans sur Google Play et a partir de 9 ans sur l'Apple App Store, mais elle a la fonction de creer des images sensibles avec l'IA.
Face a la pression de l'opinion publique, Apple a declare avoir supprime 24 applications apres la publication du rapport, mais ce chiffre reste bien inferieur aux 47 applications identifiees par TTP.
Google a confirme avoir temporairement suspendu certaines applications qui violent la politique, mais a refuse de reveler le nombre exact de celles qui ont ete supprimees.
Le rapport de TTP a ete publie dans un contexte ou l'outil d'IA Grok de xAI a egalement ete decouvert creant une grande quantite d'images sensibles sans consentement, y compris du contenu lie aux enfants.
Cela souleve encore plus d'inquietudes quant au fait que les plateformes technologiques ne controlent pas efficacement les risques que l'IA cree.
Selon les experts, l'application de "nudite" par l'IA non seulement cause de graves dommages a la sante mentale, mais contribue egalement a accroître la violence et la discrimination a l'egard des femmes et des filles, qui sont des groupes cibles qui deviennent frequemment victimes de la pornographie deepfake.
Face a cette situation, de nombreux pays, dont le Royaume-Uni, envisagent d'interdire completement les outils d'IA pour supprimer les vetements numeriques, considerant la creation et la distribution de ces outils comme un acte illegal.