« Algospeak » est une technique d’évasion pour la modération automatisée sur les réseaux sociaux, où les utilisateurs créent de nouveaux mots pour les utiliser à la place de mots-clés qui pourraient être capturés par des filtres alimentés par IA. Les gens pourraient référer à la mort comme étant « non-vivante », ou au sexe comme étant des « seggs », ou à la pornographie comme étant du « maïs » (ou simplement l’émoticône du maïs). Il existe un terme algospeak pour les Palestiniens: « P*les+in1ans ». Sa simple existence témoigne du souci de nombreuses personnes qui postent et partagent du contenu pro-palestinien pendant la guerre entre le Hamas et Israël, craignant que leurs messages ne soient pas traités de manière équitable. Certains utilisateurs pensent que leurs comptes, ainsi que certains hashtags, ont été « shadowbannis » en conséquence.
Algospeak est l’une des nombreuses méthodes développées par des utilisateurs et dont l’efficacité varie, censées éviter la suppression sur des plateformes comme TikTok, Instagram et Facebook. Les gens peuvent utiliser des hashtags non liés, faire des captures d’écran au lieu de reposter, ou éviter d’utiliser des hashtags en arabe pour tenter d’éviter les apparentes mais floues limitations du contenu sur la Palestine. Il n’est pas clair si ces méthodes fonctionnent vraiment, mais leur propagation parmi les activistes et sur Internet témoigne de la réelle peur de voir ce contenu caché au reste du monde. Le « shadowbanning » est beaucoup utilisé comme idée, il est difficile à prouver et n’est pas toujours facile à définir. Ci-dessous, un guide de son histoire, de sa manifestation et de ce que vous, utilisateur des réseaux sociaux, pouvez faire à ce sujet.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)