La naissance de Sora le dernier outil de creation de videos a l'aide de l'intelligence artificielle (IA) d'OpenAI change completement la façon dont les gens perçoivent la realite.
Comme ChatGPT dans le domaine linguistique Sora ouvre une nouvelle ere de l'image animee ou la frontiere entre la vraie et la fausse devient de plus en plus mince.
L'application Sora actuellement gratuite sur iPhone permet aux utilisateurs de creer des videos authentiques simplement en saisissant une courte description comme 'enregistrement de la camera de voyage enregistrant un chien capture pour avoir vole des pattes de bœuf'.
Les videos creees par Sora sont si vives et incroyables que les spectateurs ne peuvent pas distinguer quelle est la scene reelle et quelle est le produit de l'IA. Quelques jours seulement apres son lancement Sora est devenue l'application la plus telechargee sur l'App Store.
Cependant derriere cet enthousiasme se cachent de graves inquietudes. Outre une serie de videos de divertissement humoristiques partagees sur TikTok ou Reddit de nombreuses personnes ont profite de Sora pour diffuser de fausses informations et creer de fausses preuves telles que des scenes de crime des reportages televises inventes ou des videos diffamatoires sur d'autres personnes.
Les experts avertissent que cette technologie pourrait marquer la fin de la confiance dans l'image visuelle qui etait autrefois consideree comme la norme d'authenticite de l'ere numerique.
Le professeur Ren Ng de l'Universite de Californie a Berkeley a declare : 'Le cerveau humain est programme pour croire en ce qu'on voit. Mais a partir de maintenant nous devons nous arreter et nous demander si cette video se produit reellement ou non'.
Non seulement Sora suscite la controverse quant a l'authenticite mais elle inquiete egalement Hollywood car de nombreuses videos peuvent violer les droits d'auteur des personnages des films et des emissions de television.
Le PDG d'OpenAI Sam Altman a declare que l'entreprise recueillait des commentaires et qu'elle autoriserait bientot les proprietaires de droits a controler la façon dont leurs images sont utilisees ainsi que la façon dont ils gagnent de l'argent grace a cette plateforme.
Du cote des utilisateurs OpenAI affirme avoir applique des mesures pour limiter le contenu nocif allant des videos pornographiques et de la propagande terroriste aux informations erronees sur la sante.
Cependant apres seulement quelques heures de test les gens peuvent encore creer des clips falsifies sophistiques tels que des accidents de la route ou des declarations inventees.
Bien que les videos de Sora contiennent des images floues d'identification les utilisateurs peuvent toujours les couper facilement avant de les partager.
Selon les experts la technologie de l'IA se developpe trop rapidement pour pouvoir prendre des mesures de controle rapides. Hany Farid professeur de mathematiques a l'universite de Californie estime : 'Les astuces pour distinguer les fausses videos deviendront rapidement inutiles car l'IA s'ameliore de jour en jour'.
Sora est une preuve claire de la puissance et du risque de l'intelligence artificielle moderne. A une epoque ou toutes les photos ou videos peuvent etre creees avec seulement quelques lignes d'explication ce que nous voyons ne signifiera peut-etre plus que 'ça s'est vraiment produit'.