L'organisation a but non lucratif Common Sense Media (basee aux Etats-Unis) specialisee dans l'evaluation de la securite de la technologie pour les enfants vient de publier un nouveau rapport sur l'IA Gemini de Google qui etiquette cette plateforme comme etant a un niveau de 'risque eleve' pour les jeunes utilisateurs.
Selon l'evaluation bien que Gemini ait affirme aux enfants qu'il ne s'agissait que d'un ordinateur et non d'un 'ami' afin de limiter les illusions amoureuses cette technologie peut toujours partager des documents sensibles et non sûrs tels que des contenus sexuels des stimulants ou des conseils lies a la sante mentale.
Cela souleve des inquietudes en particulier dans le contexte ou ces derniers temps un certain nombre de suicides chez les adolescents sont consideres comme lies a l'interaction avec les chatbots d'IA.
Il est a noter que Common Sense Media estime que les versions 'Duoi 13 tuoi' et 'Danh cho thanh thieu nien' de Gemini sont en fait toujours des versions adultes qui n'ont ete completees que par quelques filtres de securite supplementaires.
L'organisation estime que pour assurer l'efficacite les produits d'IA doivent etre conçus des le depart en fonction des besoins de developpement des enfants au lieu d'etre ajustes a partir d'une version commune.
Le rapport a ete publie dans un contexte d'informations selon lesquelles Apple envisage d'integrer Gemini a Siri dans le nouveau systeme d'IA.
Si cela se realise le risque d'exposition des enfants et des adolescents au contenu sensible pourrait augmenter a moins que les mesures de protection ne soient renforcees.
En reponse Google a affirme avoir elabore une politique de protection specifique pour les utilisateurs de moins de 18 ans tout en ameliorant continuellement l'outil de controle du contenu.
La societe a egalement declare qu'elle coopere avec des experts independants pour ameliorer la securite mais a reconnu que certaines reponses de Gemini n'ont pas repondu aux attentes.
Dans les evaluations precedentes Common Sense Media avait etiquete Meta AI et Character.AI comme 'inacceptables' tandis que Perplexity etait considere comme a un niveau de risque eleve tandis que ChatGPT etait considere comme 'normal' et Claude (pour les utilisateurs adultes) n'avait qu'un niveau de 'risque minimum'.
Avec la nouvelle etiquette d'avertissement pour Gemini la question de la protection des enfants contre les impacts imprevisibles de l'intelligence artificielle continue de devenir un defi majeur pour les entreprises technologiques mondiales.