Vous ne devriez pas faire confiance à toutes les réponses qu’un chatbot vous envoie. Et vous ne devriez probablement pas non plus lui faire confiance avec vos informations personnelles. C’est particulièrement vrai pour les « petites amies IA » ou les « petits amis IA », selon une nouvelle étude. Une analyse de 11 chatbots dits romantiques et compagnons, publiée mercredi par la Fondation Mozilla, a révélé une multitude de préoccupations en matière de sécurité et de confidentialité liées à ces bots. Collectivement, les applications, qui ont été téléchargées plus de 100 millions de fois sur des appareils Android, collectent d’énormes quantités de données personnelles ; utilisent des traqueurs qui envoient des informations à Google, Facebook et des entreprises en Russie et en Chine ; permettent aux utilisateurs d’utiliser des mots de passe faibles ; et manquent de transparence quant à leur propriété et aux modèles IA qui les alimentent. Depuis que OpenAI a lancé ChatGPT dans le monde en novembre 2022, les développeurs se sont précipités pour déployer de grands modèles de langage et créer des chatbots avec lesquels les gens peuvent interagir et payer pour s’abonner. La recherche de Mozilla donne un aperçu de la façon dont cette ruée vers l’or a peut-être négligé la vie privée des gens, et des tensions entre les technologies émergentes et la collecte et l’utilisation des données. Elle indique également comment les messages de chat des personnes pourraient être exploités par des pirates informatiques. De nombreux services de chatbots « petite amie IA » ou romantiques se ressemblent. Ils présentent souvent des images générées par IA de femmes qui peuvent être sexualisées ou accompagnées de messages provocateurs. Les chercheurs de Mozilla ont examiné divers chatbots, y compris de grandes et petites applications, dont certaines prétendent être des « petites amies ». D’autres offrent aux gens du soutien à travers l’amitié ou l’intimité, ou permettent le jeu de rôle et d’autres fantasmes. « Ces applications sont conçues pour collecter une tonne d’informations personnelles », explique Jen Caltrider, responsable du projet de l’équipe Mozilla Privacy Not Included, qui a effectué l’analyse. « Elles vous poussent vers le jeu de rôle, beaucoup de sexe, beaucoup d’intimité, beaucoup de partage. » Par exemple, des captures d’écran du chatbot EVA AI montrent du texte disant « J’adore quand tu m’envoies tes photos et ta voix », et demande si quelqu’un est « prêt à partager tous ses secrets et désirs ».
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du