Les plateformes de médias sociaux ne sont pas équipées pour faire face aux effets négatifs de leurs algorithmes à l’étranger. De même, la loi ne l’est pas.

Juste après que l’horloge ait sonné minuit, un homme est entré dans une boîte de nuit à Istanbul, où des centaines de fêtards ont accueilli le premier jour de 2017. Il a ensuite rapidement abattu et tué 39 personnes et en a blessé 69 autres – tout au nom de l’État islamique d’Irak et de Syrie (ISIS). Parmi les personnes tuées se trouvait le citoyen jordanien Nawras Alassaf. En réponse, sa famille a intenté un procès civil plus tard cette année-là contre Facebook, Twitter et Google, qui possède YouTube. Ils croyaient que ces entreprises technologiques permettaient sciemment à ISIS et à ses partisans d’utiliser les algorithmes de « recommandation » de chaque plateforme pour recruter, collecter des fonds et propager de la propagande, normalisant la radicalisation et les attaques comme celle qui a coûté la vie à leur fils. Leur affaire, Twitter contre Taamneh, soutenait que les entreprises technologiques profitent des algorithmes qui affichent sélectivement du contenu en fonction des données personnelles de chaque utilisateur. Alors que ces algorithmes présentent de manière soignée des recommandations dans les flux d’actualités et les publications promues, en servant continuellement du divertissement hyper-spécifique pour beaucoup, les avocats de la famille soutenaient que des acteurs de mauvaise foi avaient manipulé ces systèmes pour promouvoir davantage des campagnes extrémistes. Notant l’histoire démontrée de radicalisation en ligne de Twitter, le procès reposait sur cette question: si les plateformes de médias sociaux sont utilisées pour promouvoir du contenu terroriste, leur incapacité à intervenir constitue-t-elle une complicité? La réponse, décidée à l’unanimité par la Cour suprême l’année dernière, était non.

Share the Post: