« Algospeak » est une tactique d’évasion pour la modération automatisée sur les réseaux sociaux, où les utilisateurs créent de nouveaux mots pour les utiliser à la place de mots-clés qui pourraient être détectés par des filtres alimentés par AI. Les gens peuvent parler de morts comme étant « morts », de sexe comme étant « seggs », de porno comme étant « maïs » (ou simplement de l’émoji de maïs). Il existe un terme d’algospeak pour les Palestiniens: « P * les + in1ans ». Son existence même témoigne du souci de nombreuses personnes postant et partageant des contenus pro-palestiniens pendant la guerre entre le Hamas et Israël qu’ils estiment que leurs messages sont injustement supprimés. Certains utilisateurs pensent que leurs comptes, ainsi que certains hashtags, ont été « shadowbannis » à cette fin.
Algospeak n’est qu’une des nombreuses méthodes développées par des utilisateurs et dont l’efficacité est variable, destinées à éviter la suppression sur des plateformes comme TikTok, Instagram et Facebook. Les gens peuvent utiliser des hashtags non liés, faire des captures d’écran au lieu de reposter, ou éviter d’utiliser des hashtags en arabe pour tenter d’éviter les apparents mais flous limitations sur le contenu concernant la Palestine. Il n’est pas clair si ces méthodes fonctionnent réellement, mais leur diffusion parmi les activistes et sur Internet témoigne de la véritable peur de voir ce contenu caché au reste du monde.Le « shadowbanning » est souvent cité comme une idée, il est difficile à prouver et n’est pas toujours facile à définir. Ci-dessous, vous trouverez un guide de son histoire, de sa manifestation et de ce que vous pouvez faire en tant qu’utilisateur de réseaux sociaux.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)