« Algospeak » est une évasion tactique pour la modération automatisée sur les médias sociaux, où les utilisateurs créent de nouveaux mots pour les utiliser à la place de mots-clés qui pourraient être captés par des filtres alimentés par AI. Les gens peuvent faire référence à la mort comme étant « non-vivante », ou au sexe comme étant « seggs », ou à la pornographie comme étant « maïs » (ou simplement l’émoticône de maïs). Il existe également un terme algospeak pour les Palestiniens: « P * les + in1ans ». Sa seule existence témoigne d’un souci de la part de nombreuses personnes postant et partageant du contenu pro-palestinien pendant la guerre entre le Hamas et Israël, qu’elles craignent que leurs messages ne soient pas supprimés de manière équitable. Certains utilisateurs pensent que leurs comptes, ainsi que certains hashtags, ont été « shadowbannis » en conséquence.
Algospeak n’est qu’une des nombreuses méthodes développées par les utilisateurs d’efficacité variable censées éviter la suppression sur des plateformes comme TikTok, Instagram et Facebook. Les gens peuvent utiliser des hashtags non liés, faire des captures d’écran au lieu de reposter ou éviter d’utiliser des hashtags en arabe pour tenter d’éviter les apparents mais flous limitations du contenu sur la Palestine. Il n’est pas clair si ces méthodes fonctionnent réellement, mais leur propagation parmi les activistes et sur Internet témoigne de la véritable peur de voir ce contenu caché au reste du monde. « Shadowbanning » est beaucoup utilisé comme idée, est difficile à prouver et n’est pas toujours facile à définir. Ci-dessous se trouve un guide de son histoire, de sa manifestation et de ce que vous, en tant qu’utilisateur des médias sociaux, pouvez y faire.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du