La dernière publication de l'indice de sécurité de l'IA publié récemment par l'Institut pour l'avenir de la vie (Future of Life Institute) montre que les mesures de sécurité de nombreux groupes d'intelligence artificielle de premier plan notamment : Anthropic OpenAI xAI et Meta restent loin des normes mondiales qui se forment progressivement pour garantir un développement sûr de l'IA.
Les résultats de l'évaluation ont été réalisés par un groupe d'experts indépendants après un processus d'analyse de nombreuses politiques stratégiques et rapports publics sur l'IA.
Selon le groupe de recherche bien que la course au développement de systèmes de superintelligence soit féroce aucune entreprise ne possède une stratégie complète pour contrôler les modèles d'IA capables de surpasser les humains en termes de raisonnement et de pensée logique.
Cela accroît les inquiétudes du public en particulier après certains cas d'utilisateurs se suicidant ou se faisant du mal en interagissant avec des chatbots.
Le professeur Max Tegmark président du Future of Life Institute et conférencier au MIT a souligné : 'Malgré les controverses sur le fait que les pirates informatiques et les comportements dangereux utilisent l'IA les entreprises américaines d'IA sont toujours gérées plus lâchement que les restaurants tout en continuant à lutter contre l'application de normes de sécurité contraignantes'.
Les avertissements apparaissent dans un contexte où la course à l'IA ne montre aucun signe d'accélération. Les grands groupes technologiques continuent de s'engager à investir des centaines de milliards de dollars pour étendre les infrastructures et les capacités d'apprentissage automatique.
Cependant selon les experts le rythme de développement trop rapide de la technologie dépasse de loin les efforts de contrôle des risques des entreprises elles-mêmes.
Future of Life Institute a été fondé en 2014 et a reçu le soutien d'Elon Musk qui est depuis longtemps une organisation pionnière dans l'alerte aux risques liés à l'IA.
En octobre dernier de nombreux scientifiques célèbres dont Geoffrey Hinton et Yoshua Bengio ont appelé à la suspension temporaire du développement de l'intelligence artificielle super intelligente jusqu'à ce que la société parvienne à un consensus et que la science trouve une voie sûre.