OpenAI indique qu’il a arrêté plusieurs opérations d’influence secrètes qui ont abusé de ses modèles d’IA.

OpenAI a déclaré qu’il avait arrêté cinq opérations d’influence secrètes qui utilisaient ses modèles d’IA pour des activités trompeuses à travers internet. Ces opérations, que OpenAI a arrêtées entre 2023 et 2024, provenaient de la Russie, de la Chine, de l’Iran et d’Israël et tentaient de manipuler l’opinion publique et d’influencer les résultats politiques sans révéler leurs véritables identités ou intentions, a déclaré l’entreprise jeudi. « À partir de mai 2024, ces campagnes ne semblent pas avoir augmenté de manière significative leur engagement ou leur portée auprès de leur public grâce à nos services », a déclaré OpenAI dans un rapport sur l’opération, ajoutant qu’elle avait travaillé avec des personnes de l’industrie technologique, de la société civile et des gouvernements pour mettre fin à ces mauvais acteurs. Le rapport d’OpenAI intervient alors que des préoccupations existent sur l’impact de l’IA générative sur plusieurs élections dans le monde prévues pour cette année, notamment aux États-Unis. Dans ses conclusions, OpenAI a révélé comment des réseaux de personnes impliquées dans des opérations d’influence ont utilisé l’IA générative pour générer du texte et des images à un volume bien plus important qu’auparavant, et créer des interactions factices en utilisant l’IA pour générer de faux commentaires sur les publications des réseaux sociaux. « Au cours de l’année écoulée, il y a eu beaucoup de questions sur ce qui pourrait se passer si les opérations d’influence utilisaient l’IA générative », a déclaré Ben Nimmo, enquêteur principal au sein de l’équipe Intelligence et Investigations d’OpenAI, aux médias lors d’un point presse, selon Bloomberg. « Avec ce rapport, nous voulons vraiment commencer à combler certaines des lacunes. » OpenAI a déclaré que l’opération russe appelée « Doppelganger » avait utilisé les modèles de l’entreprise pour générer des titres, convertir des articles d’actualité en publications Facebook et créer des commentaires dans plusieurs langues afin de saper le soutien à l’Ukraine. Un autre groupe russe a utilisé les modèles d’OpenAI pour déboguer le code d’un bot Telegram qui publiait de courts commentaires politiques en anglais et en russe, ciblant l’Ukraine, la Moldavie, les États-Unis et les États baltes. Le réseau chinois « Spamouflage », connu pour ses efforts d’influence sur Facebook et Instagram, a utilisé les modèles d’OpenAI pour étudier l’activité sur les réseaux sociaux et générer du contenu textuel dans plusieurs langues sur différentes plateformes. L' »Union internationale des médias virtuels » iranienne a également utilisé l’IA pour générer du contenu dans plusieurs langues. La divulgation d’OpenAI est similaire à celles que d’autres entreprises technologiques font de temps en temps. Par exemple, mercredi, Meta a publié son dernier rapport sur un comportement inauthentique coordonné détaillant comment une société de marketing israélienne avait utilisé de faux comptes Facebook pour mener une campagne d’influence sur sa plateforme ciblant les personnes aux États-Unis et au Canada.

Share the Post: