OpenAI vient d'annoncer deux nouvelles mesures de sécurité pour ChatGPT, notamment le mode verrouillé (Lockdown mode) et le système d'alerte de risque élevé, afin de renforcer la protection des données et d'aider les utilisateurs à mieux contrôler l'utilisation de l'intelligence artificielle au travail.
Mode de verrouillage pour les environnements à haut risque
Selon OpenAI, ces deux fonctionnalités fonctionnent en parallèle pour fournir des informations plus claires sur les risques de sécurité, tout en ajoutant une couche de contrôle système plus stricte aux organisations et aux individus à haut risque de cyberattaques.
Le mode verrouillage est une fonctionnalité de sécurité avancée, optionnelle et actuellement réservée à un petit groupe d'utilisateurs ayant des exigences de sécurité élevées tels que les chefs d'entreprise, les experts en sécurité ou les grandes organisations.
Une fois activé, ce mode limitera strictement la capacité de ChatGPT à interagir avec les systèmes externes, neutralisant certains outils qui peuvent être exploités par des commandes malveillantes.
Par exemple, lors de la navigation sur le Web en mode verrouillé, le système n'accédera qu'au contenu enregistré dans le cache au lieu d'envoyer des demandes de réseau directement à l'extérieur de l'environnement de sécurité d'OpenAI.
Si une fonctionnalité ne peut pas garantir un niveau de protection des données suffisamment fort, elle peut être complètement désactivée.
Les administrateurs d'espace de travail peuvent activer le mode de verrouillage en créant un rôle spécialisé dans les paramètres du système.
Une fois activé, ce mode applique des restrictions supplémentaires au-dessus des paramètres de sécurité existants, tout en permettant aux administrateurs de choisir de manière flexible quelles applications ou actions sont autorisées à être utilisées.
En outre, des outils de tenue de jour de conformité sont également fournis pour suivre l'utilisation des applications, les données partagées et les systèmes connectés, aidant les entreprises à répondre aux exigences de gestion et d'audit.
Alerte claire pour les fonctionnalités à haut risque
La deuxième mise à jour se concentre sur la transparence de l'information. Certaines fonctionnalités d'IA capables d'accéder à Internet ou à des systèmes externes peuvent présenter des risques de sécurité plus élevés.
Pour que les utilisateurs comprennent mieux, OpenAI attribuera une étiquette d'avertissement "risque élevé" cohérente aux fonctionnalités de ChatGPT, ChatGPT Atlas et Codex.
Ces avertissements expliquent spécifiquement ce qui est affecté lors de l'activation de la fonctionnalité, les risques potentiels et le moment où il faut l'utiliser.
Par exemple, autoriser l'accès au réseau via un outil de programmation peut augmenter le risque de failles de sécurité, et le système le précisera.
OpenAI a déclaré que les mesures de sécurité continueraient d'être développées en fonction des nouvelles menaces.
Lorsque le risque est réduit ou que la technologie de protection est améliorée, l'étiquette « risque élevé » peut être supprimée de certaines fonctionnalités.
L'ajout d'un mode de verrouillage et d'un nouveau système d'alerte montre que l'objectif d'OpenAI est de mieux protéger les utilisateurs, tout en offrant des options plus claires à mesure que l'IA s'intègre de plus en plus profondément dans l'environnement de travail et les activités commerciales.