OpenAI a déclaré jeudi qu’elle avait perturbé cinq opérations d’influence secrètes qui cherchaient à utiliser ses services d’IA pour manipuler l’opinion publique et les élections. Ces opérations d’influence (OI), a affirmé le super laboratoire, n’ont pas eu un effet significatif sur l’engagement du public ou sur l’amplification de la portée des messages manipulateurs. « Au cours des trois derniers mois, notre travail contre les acteurs des OI a perturbé des opérations d’influence secrètes qui cherchaient à utiliser des modèles d’IA pour diverses tâches, telles que la génération de courts commentaires et d’articles plus longs dans différentes langues, l’invention de noms et bios pour des comptes de médias sociaux, la réalisation de recherches en open source, le débogage de code simple, et la traduction et la relecture de textes, » a déclaré l’entreprise. Les campagnes sont liées à deux opérations en Russie, une en Chine, une en Iran, et une entreprise commerciale en Israël. Une opération en provenance de Russie appelée « Mauvaise Grammaire » s’est concentrée sur Telegram, ciblant les gens en Ukraine, Moldavie, les États baltes et aux États-Unis. L’autre, connue sous le nom de « Doppelganger, » a publié du contenu sur l’Ukraine sur divers sites Internet.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)