Google a limité ou temporairement verrouillé certains comptes d'utilisateurs liés à la plateforme de programmation d'IA Antigravity, en raison de la découverte d'une augmentation significative des activités considérées comme "d'usage nuisible", en particulier lors de l'accès aux modèles Gemini via l'outil open source OpenClaw.
Cette décision a surpris de nombreux utilisateurs lorsqu'ils ont soudainement perdu l'accès à des services tels que Gmail, Google Workspace ou la version AI haut de gamme Gemini 2.5 Pro.
L'affaire a commencé lorsque certains utilisateurs ont publié sur le forum des développeurs de Google qu'ils ne pouvaient pas accéder à leur compte même s'ils payaient toujours pour le forfait Gemini AI Ultra.
Varun Mohan - ancien PDG de Windsurf et ingénieur chez DeepMind - a déclaré que la principale raison est que le système détecte une grande quantité d'activités inhabituelles provenant de la plateforme Antigravity. Il a déclaré que cette situation avait gravement affecté la qualité générale du service.
Selon Google, certains développeurs ont utilisé des outils tiers tels que OpenClaw pour se connecter aux modèles Gemini, ce qui est considéré comme une violation des conditions d'utilisation.
La société a déclaré qu'il était nécessaire de bloquer rapidement l'accès des comptes qui utilisent des services à des fins inappropriées afin de garantir que les ressources des utilisateurs soient valides.
Cependant, la société a également reconnu que certains utilisateurs ne savaient pas que cela violait la politique et s'est engagée à les aider à rétablir l'accès dans certains cas.
Non seulement Google, mais la société AI Anthropic a également récemment mis à jour la clause de service pour interdire explicitement l'utilisation du code de notification OAuth du compte Claude dans des outils tiers, notamment OpenClaw.
Des mesures similaires de nombreuses entreprises montrent une tendance à renforcer le contrôle de l'écosystème de l'IA, dans un contexte de concurrence de plus en plus féroce entre les plateformes technologiques.
OpenClaw est une forme d'"acteur IA" capable d'effectuer automatiquement de nombreuses tâches à la place de l'utilisateur, telles que la gestion de l'e-mail, les transactions d'assurance ou l'enregistrement des vols.
Cet outil a rapidement attiré une grande attention après son lancement fin 2025, avec plus de 100 000 marquages d'étoiles sur GitHub et des millions de visites en peu de temps.
Cependant, la capacité d'automatisation puissante inquiète également les agences de gestion et les entreprises technologiques.
Certains avertissements indiquent que si la configuration n'est pas correcte, les agents d'IA open source peuvent créer des risques de sécurité, divulguer des données personnelles ou créer des opportunités pour les cyberattaques.
Peter Steinberger - développeur du framework Antigravity - a critiqué la décision de Google comme étant trop dure et a déclaré qu'il pourrait arrêter de soutenir le projet.
Pendant ce temps, le PDG d'OpenAI, Sam Altman, a annoncé que Steinberger rejoindrait l'entreprise pour développer une nouvelle génération d'assistants virtuels, tandis qu'OpenClaw continuera d'exister sous forme de projet open source pris en charge.
Cet événement montre que la course à l'IA ne se déroule pas seulement dans la technologie, mais aussi dans le contrôle de l'écosystème, lorsque les grandes entreprises resserrent de plus en plus l'accès afin de protéger leurs ressources et leurs avantages commerciaux.