OpenAI a déclaré jeudi qu’elle avait perturbé cinq opérations d’influence secrètes qui cherchaient à utiliser ses services d’IA pour manipuler l’opinion publique et les élections. Ces opérations d’influence (OI), a affirmé le super laboratoire, n’ont pas eu un effet significatif sur l’engagement du public ou sur l’amplification de la portée des messages manipulateurs. « Au cours des trois derniers mois, notre travail contre les acteurs des OI a perturbé des opérations d’influence secrètes qui cherchaient à utiliser des modèles d’IA pour diverses tâches, telles que la génération de courts commentaires et d’articles plus longs dans différentes langues, l’invention de noms et bios pour des comptes de médias sociaux, la réalisation de recherches en open source, le débogage de code simple, et la traduction et la relecture de textes, » a déclaré l’entreprise. Les campagnes sont liées à deux opérations en Russie, une en Chine, une en Iran, et une entreprise commerciale en Israël. Une opération en provenance de Russie appelée « Mauvaise Grammaire » s’est concentrée sur Telegram, ciblant les gens en Ukraine, Moldavie, les États baltes et aux États-Unis. L’autre, connue sous le nom de « Doppelganger, » a publié du contenu sur l’Ukraine sur divers sites Internet.
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation