Tout en encourageant activement les clients professionnels à utiliser Copilot (un assistant IA intelligent, qui aide à automatiser les tâches, à rédiger des documents, à créer des photos et à analyser les données via l'interface de chat), Microsoft est confronté à une vague de controverses concernant les conditions d'utilisation de cet outil.
Selon le contenu qui aurait été mis à jour le plus récemment en octobre 2025, Copilot est décrit par Microsoft comme "uniquement destiné à des fins de divertissement".
La société souligne également que le système peut être défectueux, ne fonctionne pas comme prévu et ne doit pas être utilisé pour prendre des décisions importantes. Il est recommandé aux utilisateurs de prendre leurs risques lorsqu'ils l'utilisent.
Face à la réaction de la communauté, un représentant de Microsoft a déclaré qu'il s'agissait d'un "ancien langage" et qu'il serait mis à jour pour refléter correctement l'utilisation actuelle de Copilot.
En fait, Microsoft n'est pas le seul cas. De nombreuses grandes entreprises d'IA ont également émis des avertissements similaires.
OpenAI recommande de ne pas considérer l'IA comme la seule source d'informations sur la vérité, tandis que xAI souligne que le résultat n'est pas une "vérité absolue".
Les experts estiment qu'il s'agit d'une façon pour les entreprises de minimiser les risques juridiques, tout en rappelant aux utilisateurs que l'IA peut toujours créer de fausses informations.