« Algospeak » est une technique d’évasion pour la modération automatisée sur les réseaux sociaux, où les utilisateurs créent de nouveaux mots pour les utiliser à la place de mots clés qui pourraient être captés par des filtres alimentés par l’IA. Les gens peuvent se référer à la mort comme étant « non-vivante », au sexe comme étant « des seggs » ou à la pornographie comme étant « du maïs » (ou simplement l’émoji du maïs). Il existe un terme algospeak pour les Palestiniens également : « P * les + in1ans ». Sa simple existence témoigne d’une préoccupation parmi de nombreuses personnes qui publient et partagent du contenu pro-palestinien pendant la guerre entre le Hamas et Israël, à savoir que leurs publications sont supprimées de manière injuste. Certains utilisateurs pensent que leurs comptes, ainsi que certains hashtags, ont été « shadowbannis » à cette fin.
Algospeak n’est qu’une des nombreuses méthodes développées par les utilisateurs et dont l’efficacité varie, censées contourner la suppression sur des plateformes comme TikTok, Instagram et Facebook. Les gens peuvent utiliser des hashtags sans rapport, faire des captures d’écran au lieu de reposter ou éviter d’utiliser des hashtags en arabe pour tenter d’éviter des limitations apparemment mais floues sur le contenu concernant la Palestine. Il n’est pas clair si ces méthodes fonctionnent réellement, mais leur propagation parmi les activistes et sur Internet témoigne de la réelle peur de voir ce contenu caché au reste du monde. Le terme « shadowbanning » est beaucoup utilisé en tant qu’idée, est difficile à prouver et n’est pas toujours facile à définir. Ci-dessous, vous trouverez un guide de son histoire, de sa manifestation et de ce que vous, en tant qu’utilisateur de réseaux sociaux, pouvez faire à ce sujet.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du