« Algospeak » est une technique d’évasion pour la modération automatisée sur les réseaux sociaux, où les utilisateurs créent de nouveaux mots pour les utiliser à la place de mots clés qui pourraient être repérés par des filtres alimentés par IA. Les gens peuvent faire référence à la mort comme étant « non-vivante », ou au sexe comme étant « seggs », ou à la pornographie comme étant « du maïs » (ou simplement l’émoticône du maïs). Il existe également un terme algospeak pour les Palestiniens : « P * les + in1ans ». Sa simple existence témoigne de l’inquiétude de nombreuses personnes postant et partageant du contenu pro-palestinien pendant la guerre entre le Hamas et Israël, craignant que leurs publications ne soient pas traitées de manière équitable. Certains utilisateurs pensent que leurs comptes, ainsi que certains hashtags, ont été « shadowbannis » à la suite de cela.
Algospeak n’est qu’une des nombreuses méthodes développées par les utilisateurs et dont l’efficacité est variable, censées contourner la suppression sur des plateformes comme TikTok, Instagram et Facebook. Les gens peuvent utiliser des hashtags non pertinents, faire des captures d’écran au lieu de reposter, ou éviter d’utiliser des hashtags en arabe pour tenter de contourner les apparentes mais vagues limitations de contenu concernant la Palestine. Il n’est pas clair si ces méthodes fonctionnent vraiment, mais leur diffusion parmi les activistes et sur Internet témoigne de la réelle peur d’un blocage de ce contenu par le reste du monde. Le « shadowbanning » est beaucoup utilisé comme idée, il est difficile à prouver et n’est pas toujours facile à définir. Voici un guide de son histoire, de sa manifestation et de ce que vous, en tant qu’utilisateur de réseaux sociaux, pouvez faire à ce sujet.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du