Alors que des millions de personnes se rendent sur ChatGPT pour obtenir des conseils psychologiques partager des emotions ou se detendre recemment le PDG d'OpenAI M. Sam Altman a emis un avertissement notable : les conversations avec ChatGPT ne sont pas aussi securisees que beaucoup de gens le pensent.
S'exprimant dans un episode recent du podcast This Past Weekend anime par Theo Von Altman a reconnu qu'il n'existait pas encore de cadre juridique suffisamment clair pour proteger la vie privee dans les conversations entre les utilisateurs et les chatbots d'IA.
Si vous parlez a un medecin un avocat ou un therapeute cette relation est protegee par la loi. Mais avec ChatGPT ce n'est pas le cas' a-t-il declare.
Le probleme devient plus grave lorsque l'IA devient de plus en plus un « compagnon » populaire en particulier pour les jeunes. De la resolution des conflits dans les relations aux problemes psychologiques graves les utilisateurs placent involontairement leur confiance dans une plateforme qui n'est pas pleinement protegee juridiquement.
En cas de litige juridique nous pourrions etre tenus de fournir des informations aux utilisateurs et je pense que c'est terrible' a souligne M. Altman.
Contrairement aux applications cryptees a l'extreme comme WhatsApp ou Signal les donnees de conversation avec ChatGPT peuvent etre stockees accessibles et utilisees par OpenAI pour former le modele ou censurer les violations.
Bien que l'entreprise s'engage a supprimer les conversations gratuites dans les 30 jours elles peuvent toujours etre conservees pour des raisons legales en particulier dans les cas lies a la securite ou aux litiges juridiques.
Cette realite souleve des questions serieuses sur la vie privee et l'ethique dans l'utilisation de l'IA comme outil de traitement ou de conseil emotionnel.
Lorsque la frontiere entre la technologie et la vie personnelle devient de plus en plus floue les utilisateurs doivent examiner attentivement avant de partager des informations sensibles avec le chatbot peu importe a quel point il vous ecoute.