« Algospeak » est une tactique d’évasion pour la modération automatisée sur les réseaux sociaux, où les utilisateurs créent de nouveaux mots pour les utiliser à la place de mots-clés qui pourraient être capturés par les filtres alimentés par l’IA. Les gens peuvent faire référence à la mort comme étant « non-vivante », ou au sexe comme étant des « seggs », ou à la pornographie comme étant du « maïs » (ou simplement l’emoji du maïs). Il existe un terme algospeak pour les Palestiniens: « P*les+in1ans ». Son existence même témoigne d’une préoccupation parmi de nombreuses personnes qui publient et partagent du contenu pro-palestinien pendant la guerre entre le Hamas et Israël, craignant que leurs publications ne soient pas traitées de manière équitable. Certains utilisateurs pensent que leurs comptes, ainsi que certains hashtags, ont été « shadowbannis » en conséquence.
Algospeak n’est qu’une des nombreuses méthodes développées par les utilisateurs et dont l’efficacité varie, censées éviter la suppression sur des plateformes comme TikTok, Instagram et Facebook. Les gens peuvent utiliser des hashtags non liés, faire des captures d’écran au lieu de reposts, ou éviter d’utiliser des hashtags en arabe pour tenter d’éviter des limitations apparentes mais floues sur le contenu concernant la Palestine. Il n’est pas clair si ces méthodes fonctionnent vraiment, mais leur diffusion parmi les activistes et sur Internet témoigne de la réelle crainte de voir ce contenu caché au reste du monde. Le « shadowbanning » est beaucoup utilisé comme idée, il est difficile à prouver et pas toujours facile à définir. Voici un guide de son histoire, de sa manifestation et de ce que vous, en tant qu’utilisateur de réseaux sociaux, pouvez faire à ce sujet.
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation