Les applications de Meta continuent de promouvoir le contenu de la pédophilie, selon un rapport.

Selon un nouveau rapport du Wall Street Journal, Meta n’arrive pas à empêcher les vastes réseaux de personnes d’utiliser sa plateforme pour promouvoir le contenu pédopornographique, citant de nombreux exemples perturbants d’exploitation d’enfants qu’elle a découverts sur Facebook et Instagram. Le rapport, publié alors que Meta fait face à une nouvelle pression de la part des régulateurs de l’Union européenne en matière de sécurité des enfants, suscite un nouvel examen. Dans son rapport, le Wall Street Journal a détaillé les tests qu’il a effectués avec le Centre canadien de protection de l’enfance pour montrer comment les recommandations de Meta peuvent suggérer des groupes Facebook, des hashtags Instagram et d’autres comptes utilisés pour promouvoir et partager du contenu pédopornographique. Selon leurs tests, Meta a été lent à réagir aux signalements de ce type de contenu, et ses propres algorithmes ont souvent facilité la mise en relation avec ce contenu et d’autres personnes intéressées par celui-ci. Par exemple, le Centre canadien de protection de l’enfance a déclaré au journal que «un réseau de comptes Instagram avec jusqu’à 10 millions de followers chacun a continué à diffuser en direct des vidéos d’abus sexuels sur des enfants des mois après que Meta a été informé de leur existence». Dans un autre exemple perturbant, Meta a d’abord refusé d’agir sur un signalement d’utilisateur concernant un groupe Facebook ouvert au public intitulé «Inceste». Ce groupe a finalement été supprimé, ainsi que d’autres communautés similaires. Dans une longue mise à jour publiée sur son site Web, Meta a déclaré que «les prédateurs sont des criminels déterminés qui testent les systèmes de défense des applications, des sites Web et des plates-formes», et que de nombreux de ses systèmes internes ont été améliorés pour «restreindre les adultes potentiellement suspects». La société a déclaré qu’elle avait «élargi la liste existante de termes, de phrases et d’émoticônes liés à la sécurité des enfants pour que nos systèmes puissent les trouver» et avait utilisé l’apprentissage automatique pour découvrir de nouveaux termes de recherche qui pourraient être exploités par des prédateurs d’enfants. La société a déclaré qu’elle utilisait des technologies pour identifier les «adultes potentiellement suspects» afin de les empêcher de se connecter entre eux, notamment dans les groupes Facebook, et de voir le contenu des uns et des autres dans les recommandations. Meta a également déclaré au Wall Street Journal qu’elle «avait commencé à désactiver les comptes individuels qui ont un score supérieur à un certain seuil de comportement suspect».

Share the Post: