OpenAI dit avoir arrêté plusieurs opérations d’influence secrètes qui ont abusé de ses modèles d’IA.

OpenAI a déclaré qu’il avait arrêté cinq opérations d’influence secrètes qui utilisaient ses modèles d’IA pour des activités trompeuses à travers Internet. Ces opérations, que OpenAI a fermées entre 2023 et 2024, venaient de Russie, de Chine, d’Iran et d’Israël et tentaient de manipuler l’opinion publique et d’influencer les résultats politiques sans révéler leurs vraies identités ou intentions, a déclaré la société jeudi. « À partir de mai 2024, ces campagnes ne semblent pas avoir significativement augmenté l’engagement de leur public ou leur portée grâce à nos services », a déclaré OpenAI dans un rapport sur l’opération, ajoutant qu’elle avait travaillé avec des personnes de l’industrie technologique, de la société civile et des gouvernements pour mettre fin à ces mauvais acteurs. Le rapport d’OpenAI intervient alors que des préoccupations persistent quant à l’impact de l’IA générative sur plusieurs élections dans le monde prévues pour cette année, y compris aux États-Unis. Dans ses conclusions, OpenAI a révélé comment des réseaux de personnes engagées dans des opérations d’influence ont utilisé l’IA générative pour générer du texte et des images à un volume nettement supérieur qu’auparavant, et simuler un engagement en utilisant l’IA pour générer de faux commentaires sur les publications des réseaux sociaux. « Au cours de l’année et demie écoulée, de nombreuses questions se sont posées sur ce qui pourrait se produire si des opérations d’influence utilisent l’IA générative », a déclaré Ben Nimmo, enquêteur principal au sein de l’équipe Intelligence et Enquêtes d’OpenAI, aux membres des médias lors d’un briefing de presse, selon Bloomberg. « Avec ce rapport, nous souhaitons vraiment commencer à combler certaines des lacunes. » OpenAI a déclaré que l’opération russe appelée « Doppelganger » avait utilisé les modèles de l’entreprise pour générer des gros titres, convertir des articles de presse en publications Facebook et créer des commentaires dans plusieurs langues pour saper le soutien à l’Ukraine. Un autre groupe russe a utilisé les modèles d’OpenAI pour déboguer du code pour un bot Telegram qui postait de brefs commentaires politiques en anglais et en russe, ciblant l’Ukraine, la Moldavie, les États-Unis et les États baltes. Le réseau chinois « Spamouflage, » connu pour ses efforts d’influence sur Facebook et Instagram, a utilisé les modèles d’OpenAI pour rechercher l’activité sur les réseaux sociaux et générer du contenu textuel dans plusieurs langues sur diverses plates-formes. L’Iranien « Union Internationale des Médias Virtuels » a également utilisé l’IA pour générer du contenu dans plusieurs langues. La divulgation d’OpenAI est similaire à celles que d’autres entreprises technologiques font de temps en temps. Par exemple, mercredi, Meta a publié son dernier rapport sur le comportement inauthentique coordonné en détaillant comment une société de marketing israélienne avait utilisé de faux comptes Facebook pour mener une campagne d’influence sur sa plateforme ciblant des personnes aux États-Unis et au Canada.

Share the Post: