Claude fait un pas de plus important
Anthropic a annoncé une fonctionnalité notable pour l'assistant en IA Claude avec la possibilité de contrôler directement l'ordinateur de l'utilisateur pour effectuer des tâches spécifiques.
Ceci est considéré comme une étape importante, allant de l'IA du rôle de réponse aux questions à la manipulation active en tant qu'assistant numérique réel.
Selon Anthropic, les utilisateurs n'ont qu'à s'inscrire à des forfaits de services appropriés pour permettre à Claude d'accéder à l'ordinateur pour effectuer des tâches telles que la recherche et l'envoi de fichiers, l'ouverture d'applications ou les opérations sur le navigateur.
Cette IA peut interagir avec le système en faisant défiler, cliquer ou taper des touches, de la même manière que les humains utilisent le clavier et la souris.
La démarche d'Anthropic intervient dans un contexte où les plateformes d'IA se tournent vers la capacité autonome.
Auparavant, l'écosystème open source OpenClaw avait créé une vague d'outils permettant à l'IA d'effectuer automatiquement des tâches sur un ordinateur.
Récemment, Nvidia a également rejoint le jeu avec NemoClaw, ce qui facilite le déploiement de ces outils avec des couches de sécurité.
Claude est conçu pour se connecter à de nombreuses applications populaires telles que Google Calendar ou Slack.
En l'absence d'outils disponibles, l'IA peut toujours opérer manuellement sur l'interface, élargissant ainsi les capacités de traitement des tâches de manière plus flexible.
Anthropic intègre également une fonctionnalité avec Dispatch, permettant aux utilisateurs de confier des tâches à distance via leur téléphone, comme vérifier les e-mails du matin ou lancer des séances de travail.
Cette combinaison permet à Claude de gérer le travail même lorsque l'utilisateur n'utilise pas directement l'ordinateur.
Utilité associée au risque
Bien qu'elle apporte de nombreuses commodités, le fait de permettre à l'IA d'accéder et de contrôler des ordinateurs personnels suscite également des inquiétudes quant à la sécurité.
Les experts mettent en garde contre le fait que l'IA peut effectuer des actions à grande échelle en peu de temps, voire au-delà des prévisions des utilisateurs.
Le risque est encore plus grand si le système est exploité par des pirates informatiques, ce qui entraîne l'utilisation illégale de données personnelles ou de ressources informatiques.
En particulier, les formes d'attaque telles que l'insertion de logiciels malveillants instantanés peuvent profiter de l'IA pour se propager rapidement.
Anthropic a déclaré avoir mis en place de nombreuses couches de protection, notamment un mécanisme pour détecter les failles et prévenir les attaques.
Cependant, la société reconnaît également que cette fonctionnalité est toujours en phase de test et qu'il peut y avoir des erreurs.
Test limité, prudence lors de l'utilisation
Actuellement, la fonctionnalité de contrôle de l'ordinateur de Claude n'est proposée que sous forme de prévisualisation de recherche pour les utilisateurs de Claude Pro et Claude Max, et est limitée aux appareils exécutant macOS.
Anthropic recommande aux utilisateurs de ne pas utiliser cette fonctionnalité avec des applications contenant des données sensibles.
Certaines fonctions relatives aux informations importantes ont même été désactivées par défaut pour minimiser les risques.
Malgré de nombreuses limitations, cette démarche montre que la tendance claire est que l'IA passe progressivement d'un outil de soutien à une entité capable d'agir de manière indépendante.
S'il est perfectionné, des systèmes comme Claude pourraient changer la façon dont les humains interagissent avec les ordinateurs, mais cela s'accompagne d'exigences plus élevées en matière de contrôle et de sécurité.