»Beurk : Slack a scanné vos messages pour entraîner ses modèles d’IA »

Voici la traduction en français du texte :

« Slack entraîne des modèles d’apprentissage automatique sur les messages des utilisateurs, les fichiers et autres contenus sans permission explicite. L’entraînement est facultatif, ce qui signifie que vos données privées seront collectées par défaut. Pour aggraver les choses, vous devrez demander à l’administrateur de Slack de votre organisation (ressources humaines, informatique, etc.) d’envoyer un e-mail à l’entreprise pour demander d’arrêter cela. (Vous ne pouvez pas le faire vous-même.) Bienvenue du côté obscur de la ruée vers l’or des nouvelles données de formation pour l’IA. Corey Quinn, un dirigeant de DuckBill Group, a repéré la politique dans un bref passage des Principes de confidentialité de Slack et en a parlé sur X (via PCMag). La section se lit comme suit (nous soulignons), «Pour développer des modèles IA/ML, nos systèmes analysent les Données Client (par ex. messages, contenus et fichiers) soumises à Slack ainsi que d’autres informations (y compris des informations d’utilisation) telles que définies dans notre Politique de confidentialité et dans votre accord client.» Le processus de retrait facultatif vous oblige à faire tout le travail pour protéger vos données. Selon l’avis de confidentialité, «Pour retirer votre consentement, veuillez demander à l’Admin Org ou Workspace Owners ou Primary Owner de contacter notre équipe Customer Experience à l’adresse feedback@slack.com avec l’URL de votre Workspace/Org et la mention ‘Demande de retrait du modèle global Slack.’ Nous traiterons votre demande et vous répondrons une fois le retrait effectué.» Désolé Slack, vous faites quoi avec les DMs, messages et fichiers des utilisateurs ? Je suis certain de ne pas lire cela correctement. »

Share the Post: