Le gouverneur de Californie, M. Gavin Newsom, vient de signer un décret exécutif considéré comme la mesure la plus énergique jamais prise pour contrôler l'intelligence artificielle (IA) au niveau de l'État.
Le décret exige que toutes les entreprises technologiques souhaitant signer des contrats avec le gouvernement de l'État remplissent des normes strictes en matière de transparence et de sécurité.
Ceci est considéré comme faisant partie des efforts visant à faire de la Californie une localité pionnière dans la construction d'un cadre juridique pour l'IA, un domaine en développement rapide mais potentiellement risqué.
L'un des points notables est la réglementation sur la vérification des antécédents et des politiques d'exploitation des entrepreneurs en IA.
Les entreprises doivent rendre publics les méthodes dont leurs systèmes traitent les données, empêcher les actes d'abus, en particulier les contenus dangereux tels que les documents d'abus sur enfants.
En outre, l'État de Californie évaluera également attentivement si les technologies d'IA, y compris les chatbots et les modèles linguistiques, sont utilisées pour surveiller les citoyens ou censurer les déclarations.
Les entreprises sont obligées de prouver que leur système minimise les préjugés et assure l'équité dans le processus opérationnel.
Le décret de Californie souligne également le droit d'évaluer de manière indépendante les entrepreneurs, même si le gouvernement fédéral émet un avertissement de risque.
Ceci est particulièrement remarquable dans le contexte du différend entre le Pentagone et la société d'IA Anthropic.
Auparavant, le Pentagone avait mis fin à son contrat avec Anthropic après que cette société a refusé d'autoriser l'utilisation de sa technologie pour la surveillance intérieure à grande échelle et les armes automatiques.
Cependant, selon le nouveau décret, la Californie peut réévaluer elle-même et continuer à autoriser la coopération si aucun risque similaire n'est détecté.
Cette initiative montre une différence de plus en plus claire entre les gouvernements d'État et fédéral dans l'approche de l'IA, en particulier en ce qui concerne les applications militaires et de surveillance.
Une autre nouveauté est l'exigence d'apposer un marquage d'eau (watermark) sur le contenu créé ou modifié par l'IA, en particulier les vidéos.
L'objectif est de limiter la propagation des informations erronées et d'aider les gens à distinguer facilement le contenu réel du contenu créé par la machine.
Les experts estiment qu'il s'agit d'une étape nécessaire dans un contexte où la technologie deepfake est de plus en plus sophistiquée, ce qui rend difficile la vérification des informations sur le cyberespace.