Meta teste une nouvelle approche dans la course à l'intelligence artificielle en utilisant les données d'opération des employés eux-mêmes pour former des modèles d'IA.
L'entreprise prévoit de collecter des informations sur les mouvements de la souris, les opérations du clavier et la façon dont les utilisateurs naviguent sur l'ordinateur.
Cela fait partie des efforts visant à trouver de nouvelles sources de données de formation, un facteur considéré comme le "carburant" de base pour aider l'IA à apprendre à gérer les tâches et à répondre aux utilisateurs plus efficacement.
Un représentant de Meta a déclaré que si l'objectif est de construire des assistants virtuels capables de prendre en charge le travail quotidien sur l'ordinateur, les modèles doivent être formés à partir d'exemples concrets. Des données telles que les clics, l'ouverture de menus ou la saisie de texte aideront l'IA à mieux comprendre comment les humains interagissent avec le logiciel.
Pour atteindre cet objectif, Meta déploie un outil interne visant à collecter des données d'entrée sur certaines applications.
La société affirme avoir pris des mesures pour protéger les informations sensibles et que les données ne sont utilisées qu'à des fins de formation à l'IA, et non à d'autres fins.
Cependant, cette décision soulève également de nombreuses inquiétudes quant à la vie privée dans le secteur technologique. Le fait que les activités internes, autrefois considérées comme des données confidentielles, soient désormais devenues une ressource pour l'IA montre que la frontière entre les données personnelles et les données de formation s'estompe de plus en plus.
Non seulement Meta, mais la tendance à l'exploitation de données internes se répand dans le monde de la technologie. Récemment, de nombreux rapports ont montré que les entreprises, en particulier les startups, deviennent la cible de la collecte de données à partir de plateformes de travail telles que Slack ou les systèmes de gestion du travail. Ces informations peuvent être transformées en données de formation pour l'IA.
Dans un contexte de concurrence féroce, la recherche de nouvelles sources de données est compréhensible. Cependant, la grande question qui se pose est de savoir quelle sera la limite raisonnable entre l'innovation technologique et la protection de la vie privée des utilisateurs?