« Algospeak » est une tactique d’évasion pour la modération automatisée sur les réseaux sociaux, où les utilisateurs créent de nouveaux mots pour les utiliser à la place de mots clés qui pourraient être repérés par des filtres alimentés par l’IA. Les gens peuvent faire référence à la mort comme étant « non-vivante », ou au sexe comme étant « seggs », ou à la pornographie comme étant « du maïs » (ou simplement l’émoji du maïs). Il existe un terme algospeak pour les Palestiniens également: « P * les + in1ans ». Sa simple existence témoigne du souci de nombreuses personnes postant et partageant du contenu pro-palestinien pendant la guerre entre le Hamas et Israël que leurs messages soient supprimés de manière injuste. Certains utilisateurs pensent que leurs comptes, ainsi que certains hashtags, ont été « shadowbannis » à cette fin.
Algospeak est une des nombreuses méthodes développées par les utilisateurs et d’efficacité variable censées esquiver la suppression sur des plateformes comme TikTok, Instagram et Facebook. Les gens peuvent utiliser des hashtags non pertinents, faire des captures d’écran au lieu de reposter ou éviter d’utiliser des hashtags arabes pour tenter d’éviter les apparentes mais floues limitations sur le contenu sur la Palestine. Il n’est pas clair si ces méthodes fonctionnent réellement, mais leur diffusion parmi les activistes et sur Internet témoigne de la réelle peur d’avoir ce contenu caché au reste du monde. Le « shadowbanning » est souvent utilisé comme idée, est difficile à prouver et n’est pas toujours facile à définir. Ci-dessous se trouve un guide de son histoire, de sa manifestation et de ce que vous, en tant qu’utilisateur des médias sociaux, pouvez faire à ce sujet.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)