Des vastes réseaux de personnes utilisent toujours la plateforme de Meta pour promouvoir du contenu pédopornographique, selon un nouveau rapport du Wall Street Journal qui cite de nombreux exemples troublants d’exploitation d’enfants sur Facebook et Instagram. Le rapport, publié alors que Meta fait face à une nouvelle pression de la part des régulateurs de l’Union européenne, a suscité un nouvel examen de la part de ces derniers. Dans son rapport, le Wall Street Journal a détaillé les tests qu’il a effectués avec le Centre canadien de protection de l’enfance montrant comment les recommandations de Meta peuvent suggérer des groupes Facebook, des hashtags Instagram et d’autres comptes utilisés pour promouvoir et partager du contenu pédopornographique. Selon leurs tests, Meta a été lent à réagir aux signalements de ce type de contenu et ses propres algorithmes ont souvent rendu plus facile pour les gens de se connecter avec ce contenu et d’autres intéressés par celui-ci. Par exemple, le Centre canadien de protection de l’enfance a déclaré au journal qu’un «réseau de comptes Instagram avec jusqu’à 10 millions de followers chacun a continué à diffuser en direct des vidéos d’abus sexuels sur des enfants des mois après que Meta a été informé de leur existence». Dans un autre exemple troublant, Meta a d’abord refusé d’agir sur un signalement d’utilisateur concernant un groupe Facebook public intitulé «Inceste». Ce groupe a finalement été supprimé, ainsi que d’autres communautés similaires. Dans une longue mise à jour sur son site web, Meta a déclaré que «les prédateurs sont des criminels déterminés qui testent les défenses des applications, des sites web et des plateformes», et qu’elle avait amélioré de nombreux de ses systèmes internes pour restreindre «les adultes potentiellement suspects». La société a déclaré qu’elle avait «élargi la liste existante de termes, de phrases et d’émoticônes liés à la protection de l’enfance que nos systèmes doivent trouver» et avait employé l’apprentissage machine pour découvrir de nouveaux termes de recherche qui pourraient être potentiellement exploités par des prédateurs d’enfants. La société a déclaré qu’elle utilisait des technologies pour identifier «les adultes potentiellement suspects» afin de les empêcher de se connecter entre eux, y compris dans les groupes Facebook, et de voir le contenu de l’un et de l’autre dans les recommandations. Meta a également déclaré au Wall Street Journal qu’elle «a commencé à désactiver les comptes individuels qui ont un score supérieur à un certain seuil de comportement suspect».
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)