Le modèle d'intelligence artificielle (IA) Claude d'Anthropic a été utilisé dans l'opération militaire américaine visant à arrêter le président vénézuélien Nicolás Maduro.
Les informations ont été publiées par le journal américain Wall Street Journal, citant de nombreuses sources bien informées.
Le déploiement de Claude se déroule grâce à une coopération entre Anthropic et la société de données Palantir Technologies - une entité qui possède des plateformes logicielles largement utilisées par le ministère américain de la Défense et les forces de l'ordre fédérales.
Le Pentagone encourage les principales entreprises d'IA - notamment OpenAI et Anthropic - à introduire des outils d'intelligence artificielle dans les réseaux de sécurité sans imposer de nombreuses restrictions aux normes destinées aux utilisateurs ordinaires.
De nombreuses entreprises d'IA construisent leurs propres outils pour l'armée américaine, mais la plupart ne fonctionnent que sur des réseaux non sécurisés, généralement utilisés pour le travail administratif militaire.
Anthropic est la seule entreprise à disposer d'outils déployés dans un environnement sécurisé par l'intermédiaire de tiers, mais le gouvernement doit toujours se conformer aux politiques d'utilisation de l'entreprise.
La politique d'utilisation d'Anthropic - une société qui vient de lever 30 milliards de dollars lors du dernier cycle de financement et qui est évaluée à environ 380 milliards de dollars - interdit d'utiliser Claude pour soutenir la violence, concevoir des armes ou mener des activités de surveillance.
Les États-Unis ont arrêté le président vénézuélien Nicolás Maduro lors d'une opération de raid au début du mois de janvier, puis l'ont emmené à New York. M. Maduro est actuellement accusé de trafic de drogue.