Ces dernières années, Google a modifié le fonctionnement de son moteur de recherche en privilégiant l'affichage des réponses créées par l'intelligence artificielle en haut de la page.
La fonctionnalité AI Overviews montre que Google passe de l'orientation des utilisateurs vers les sources d'information à la création et à la fourniture directe de contenu.
Ce changement permet aux utilisateurs d'accéder plus rapidement à l'information, mais suscite également de nombreux débats sur la précision, la transparence et la fiabilité des réponses créées par l'IA.
Une analyse récente de la start-up dans le domaine de l'intelligence artificielle - Oumi (États-Unis), montre que les réponses d'AI Overviews sont précises à environ 85% lors de l'utilisation de la technologie Gemini 2 et augmentent à 91% avec la version améliorée de Gemini 3.
Malgré cela, avec plus de 5 000 milliards de recherches par an, ce petit taux d'erreur peut encore équivalent à des dizaines de millions de mauvaises réponses par heure.
Il est à noter que plus de la moitié des bonnes réponses ont été jugées « sans fondement clair », c'est-à-dire que les liens source ne soutiennent pas entièrement les informations fournies. Cela rend difficile la vérification pour les utilisateurs.
L'analyse d'Oumi est basée sur le test standard SimpleQA, qui est un outil populaire pour évaluer la précision des systèmes d'IA.
Cependant, Google a réfuté ce résultat, affirmant que la méthode d'évaluation présentait une "faille grave", car l'ensemble de questions de test lui-même pourrait contenir des informations erronées.
Outre la question de la précision, la source de données est également un facteur controversé.
Sur plus de 5 000 sources citées, des plateformes telles que Facebook et Reddit apparaissent avec une fréquence élevée.
Il est à noter que lorsque l'IA donne une mauvaise réponse, le taux de citation de Facebook est encore plus élevé que lorsque la réponse est correcte, ce qui soulève des questions sur la qualité de la source de référence.
Un autre problème réside dans la manière dont l'IA est évaluée. Des entreprises comme Oumi utilisent souvent d'autres systèmes d'IA pour vérifier les réponses.
Cependant, cette méthode comporte des risques lorsque "l'IA teste l'IA" peut également faire des erreurs, ce qui fait que les résultats de l'évaluation ne sont pas totalement absolus.
Bien qu'il y ait encore beaucoup de controverses, on ne peut nier que les AI Overviews s'améliorent de jour en jour et deviennent une partie importante de l'expérience de recherche.
Cependant, les experts mettent en garde contre le fait que les utilisateurs ne doivent pas être totalement dépendants de ces réponses, mais doivent maintenir l'habitude de vérifier les informations provenant de diverses sources.