« Algospeak » est une tactique d’évasion pour la modération automatisée sur les réseaux sociaux, où les utilisateurs créent de nouveaux mots pour les utiliser à la place de mots-clés qui pourraient être pris en compte par des filtres alimentés par AI. Les gens peuvent se référer à la mort comme étant « non-vivante », ou au sexe comme étant des « seggs », ou au porno comme étant du « maïs » (ou simplement l’emoji de maïs). Il existe un terme algospeak pour les Palestiniens également: « P*les+in1ans ». Son existence même témoigne d’une préoccupation parmi de nombreuses personnes qui partagent du contenu pro-palestinien pendant la guerre entre le Hamas et Israël, que leurs messages soient injustement supprimés. Certains utilisateurs pensent que leurs comptes, ainsi que certains hashtags, ont été « shadowbannis » en conséquence.
Algospeak est juste une des nombreuses méthodes développées par les utilisateurs dont l’efficacité est variable et qui sont censées éviter la suppression sur des plateformes comme TikTok, Instagram et Facebook. Les gens peuvent utiliser des hashtags sans rapport, faire des captures d’écran au lieu de reposter ou éviter d’utiliser des hashtags en arabe pour tenter d’éviter les limites apparentes mais floues sur le contenu sur la Palestine. Il n’est pas clair si ces méthodes fonctionnent vraiment, mais leur propagation parmi les activistes et sur Internet témoigne de la véritable peur de voir ce contenu être caché au reste du monde. Le « shadowbanning » est beaucoup utilisé comme idée, il est difficile à prouver et il n’est pas toujours facile à définir. Ci-dessous se trouve un guide de son histoire, de sa manifestation et de ce que vous, en tant qu’utilisateur des réseaux sociaux, pouvez faire à ce sujet.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du