OpenAI met en garde contre les risques lies a l'IA super intelligente et appelle a la surveillance mondiale

Cát Tiên |

OpenAI avertit que les systemes d'IA super intelligents pourraient causer des catastrophes s'ils ne sont pas strictement controles.

OpenAI (developpeur ChatGPT) vient d'avertir que la naissance de systemes d'IA super intelligents pourrait entraîner des risques de catastrophes s'ils ne sont pas controles.

Cette entreprise souligne que l'industrie se rapproche de la borne 'l'IA s'ameliore progressivement' c'est-a-dire la capacite d'apprendre et de se perfectionner sans intervention humaine ce qui pourrait entraîner des consequences hors de controle.

OpenAI estime qu'aucune organisation ne devrait deployer des systemes super intelligents qui n'ont pas prouve leur capacite de controle et de liaison sûre.

C'est l'avertissement le plus fort de l'entreprise depuis le debut de la course mondiale a l'IA dans laquelle les nouveaux modeles sont de plus en plus puissants et imprevisibles.

Selon OpenAI les risques potentiels ne se limitent pas a l'erreur d'information ou a l'abus de technologie mais concernent egalement le risque de genocide biologique de violation de la vie privee et de cyberattaques a grande echelle.

La societe recommande aux laboratoires d'IA de partager des informations des normes de securite et de nouvelles leçons de risque afin de construire une base de defense commune pour l'ensemble du secteur.

OpenAI propose egalement un systeme de surveillance mondiale coordonne entre le gouvernement les organisations de recherche et le secteur prive afin de creer un ecosysteme de restauration de l'IA similaire au modele actuel de cybersecurite.

Ce systeme comprendra des logiciels de cryptage des normes de securite une equipe de reponse d'urgence et un mecanisme de prevention de l'utilisation illegale.

La societe appelle egalement les organismes de gestion internationaux a eviter les lois modifiees et les reglementations fragmentees et a adopter un cadre juridique unifie pour l'IA afin d'assurer a la fois la promotion de l'innovation et la protection des utilisateurs contre les risques.

L'avertissement d'OpenAI intervient dans un contexte ou de nombreux personnalites publiques du prince Harry Meghan Markle aux scientifiques et politiciens americains appellent egalement a une suspension temporaire du developpement de l'intelligence artificielle. Ils estiment que cette technologie pourrait depasser le controle et menacer l'existence humaine.

Cependant le scientifique en IA Andrej Karpathy estime que l'AIG (intelligence artificielle generale) est encore a une decennie de nous. Il estime que les systemes actuels manquent encore de capacite d'apprentissage continu ce qui est un facteur cle pour atteindre l'intelligence humaine.

Avec un point de vue prudent mais optimiste OpenAI predit que d'ici 2026 l'IA pourra realiser de petites decouvertes scientifiques et d'ici 2028 elle pourra realiser des decouvertes plus importantes.

Cependant l'entreprise reconnaît que la transformation socio-economique apportee par l'IA ne sera pas facile et que l'humanite doit etre prete a la possibilite que les fondations socio-economiques actuelles doivent changer fondamentalement.

Nous devons agir des aujourd'hui pour garantir que l'avenir de l'IA soit sûr et profite a l'ensemble de l'humanite' conclut OpenAI.

Cát Tiên
Nouvelles connexes

OpenAI publie le kit de normes IndQA pour saisir l'identite culturelle indienne

|

OpenAI presente la norme IndQA visant a evaluer les capacites culturelles et linguistiques du modele d'IA en vue de reduire l'ecart entre les LLM Indic et le monde.

Zico Kolter et la mission de maintenir la securite des utilisateurs face a la puissance de l'IA a OpenAI

|

Le professeur Zico Kolter expert a l'universite Carnegie Mellon est actuellement en tete du groupe de securite OpenAI avec le droit d'empecher l'emission de modeles d'IA non sûrs.

Couverture d'informations supplementaires sur le projet de creation de musique avec l'IA d'OpenAI

|

Des informations supplementaires sur le projet d'ecriture de musique a l'aide de l'intelligence artificielle (IA) d'OpenAI sont apparues.

Le Vietnam U22 répond activement aux changements de calendrier des matchs

|

L'équipe vietnamienne U22 a stabilisé ses forces s'est rapidement adaptée aux changements de calendrier et s'est orientée vers le match d'ouverture des SEA Games 33 contre l'équipe laotienne U22.

Les centaines de cadres et de fonctionnaires de Hô Chi Minh-Ville sont formés à la maîtrise et au doctorat en métro

|

Hô Chi Minh-Ville forme des centaines de cadres de fonctionnaires et d'employés à la maîtrise et au doctorat spécialisés dans les chemins de fer urbains pour maîtriser la technologie la conception la construction et l'exploitation.

Partagez vos forces avec les femmes vietnamiennes pour créer des entreprises innovantes et développer l'économie

|

Le matin du 30 novembre la conférence pour résumer le projet 939 la mise en œuvre du projet 2415 et féliciter les exemples de coopératives gérées par des femmes en 2025 s'est tenue à Hanoï.

Le Nord est sur le point d'accueillir une nouvelle vague de froid avec des endroits descendant en dessous de 11 degrés C

|

Selon les prévisions à partir de la nuit du 3 décembre en raison de l'impact de l'air froid renforcé le Nord et le Centre-Nord seront froids les hautes montagnes du Nord auront un froid intense en dessous de 11 degrés C.

La maison à Hai Phong a été déplacée par le « génie » du terrain mal construit

|

Hai Phong - La maison de M. Do Van Huu a été déplacée par le génie vers un emplacement mal construit.

OpenAI publie le kit de normes IndQA pour saisir l'identite culturelle indienne

Cát Tiên |

OpenAI presente la norme IndQA visant a evaluer les capacites culturelles et linguistiques du modele d'IA en vue de reduire l'ecart entre les LLM Indic et le monde.

Zico Kolter et la mission de maintenir la securite des utilisateurs face a la puissance de l'IA a OpenAI

Cát Tiên |

Le professeur Zico Kolter expert a l'universite Carnegie Mellon est actuellement en tete du groupe de securite OpenAI avec le droit d'empecher l'emission de modeles d'IA non sûrs.

Couverture d'informations supplementaires sur le projet de creation de musique avec l'IA d'OpenAI

TÙNG LÂM |

Des informations supplementaires sur le projet d'ecriture de musique a l'aide de l'intelligence artificielle (IA) d'OpenAI sont apparues.