Quelques jours seulement apres son lancement l'application de creation de videos a l'intelligence artificielle Sora d'OpenAI a suscite une vive controverse lorsque les utilisateurs l'ont utilisee pour creer une serie de videos contrefaites mais extremement realistes allant de la fraude electorale a la criminalite de rue en passant par des manifestations sans precedent.
Comme Veo 3 de Google ou d'autres outils d'apprentissage video de l'IA Sora est considere comme capable de transformer n'importe quelle idee en image animee avec une seule ligne de commande.
Les utilisateurs peuvent telecharger leurs photos leurs voix et laisser l'IA les inserer dans un contexte totalement imaginaire.
Cet outil peut meme recreer des images de celebrites de logos de marques ou de personnages historiques decedes.
Les experts en cybersecurite et les universitaires avertissent que la capacite de Sora accelere le risque de propagation d'informations erronees a une echelle sans precedent.
Je suis preoccupe par l'economie et les institutions sociales' a souligne le professeur Hany Farid (Universite de Californie Berkeley).
Selon M. Farid les videos hautement realistes peuvent faire perdre au public sa confiance en la vision alors que tout peut etre falsifie.
OpenAI a declare que Sora est sorti apres un processus de test de securite rigoureux avec des mesures de protection du contenu telles que le refus d'images violentes politiques ou de celebrites non autorisees.
L'application attache egalement des images animees pour identifier les videos creees par l'IA.
Cependant les experts estiment que ces mesures sont facilement depassees et que les utilisateurs peuvent toujours s'inscrire a des comptes anonymes creer des videos erronees sur des personnalites publiques disparues ou des evenements inedits.
L'essai du New York Times montre que Sora peut toujours creer des videos sensibles telles que des scenes de vol de magasins des bombes explosives ou meme des fausses images du PDG d'OpenAI Sam Altman volant tout est mis en scene avec de l'IA.
De telles videos lorsqu'elles se repandent sur les reseaux sociaux peuvent manipuler l'opinion publique et declencher des theories du complot.
Le professeur Kristian Hammond (Universite Northwestern) a qualifie cela de 'effet de trompeur' car lorsque les fausses videos se repandent les telespectateurs douteront meme des preuves veridiques.
Lucas Hansen fondateur de l'organisation CivAI a declare que 'la derniere forteresse de la verite est la video qui s'effondre'.
Bien qu'OpenAI s'engage a deployer Sora de maniere approfondie et responsable de nombreux chercheurs estiment que la nouvelle ere des videos d'IA super realistes obligera la societe a reconstruire le concept de confiance et de veracite.
Il y a un an je pouvais encore distinguer les vraies et les fausses photos a l'œil nu. Mais maintenant meme les experts ne sont plus sûrs' a declare le professeur Farid.