« Algospeak » est une tactique d’évasion pour la modération automatisée sur les réseaux sociaux, où les utilisateurs créent de nouveaux mots pour les utiliser à la place de mots-clés qui pourraient être détectés par des filtres alimentés par IA. Les gens peuvent parler de morts comme de « non-vivants », de sexe comme de « seggs », de porno comme de « maïs » (ou simplement de l’émoticône de maïs). Il y a un terme algospeak pour les Palestiniens aussi: « P*les+in1ans ». Son existence même témoigne d’une inquiétude parmi les nombreuses personnes qui postent et partagent du contenu pro-palestinien pendant la guerre entre le Hamas et Israël, à savoir que leurs messages sont supprimés de manière injuste. Certains utilisateurs pensent que leurs comptes, ainsi que certains hashtags, ont été « shadowbannis » à la suite de cela.
Algospeak n’est qu’une des nombreuses méthodes développées par les utilisateurs, d’efficacité variable, qui sont censées éviter la suppression sur des plateformes comme TikTok, Instagram et Facebook. Les gens peuvent utiliser des hashtags non liés, faire des captures d’écran au lieu de reposter, ou éviter d’utiliser des hashtags en arabe pour tenter d’éviter des limitations apparentes mais floues sur le contenu concernant la Palestine. Il n’est pas clair si ces méthodes fonctionnent réellement, mais leur diffusion parmi les activistes et sur tout le Web témoigne de la véritable peur de voir ce contenu caché au reste du monde. Le terme « shadowbanning » est souvent utilisé à tort, est difficile à prouver et n’est pas toujours facile à définir. Voici un guide de son histoire, de sa manifestation et de ce que vous, en tant qu’utilisateur de réseaux sociaux, pouvez faire à ce sujet.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)