OpenAI a fermé cinq comptes qu’il affirme avoir été utilisés par des agents gouvernementaux pour générer des courriels de phishing et des scripts de logiciels malveillants, ainsi que pour rechercher des moyens d’éviter la détection de logiciels malveillants. Plus précisément, la Chine, l’Iran, la Russie et la Corée du Nord semblaient « interroger des informations accessibles au public, traduire, trouver des erreurs de codage et exécuter des tâches de codage de base » en utilisant les modèles du super-laboratoire. Nous, les « vautours », pensions que c’était tout l’intérêt des offres d’OpenAI, mais apparemment, ces pays ont franchi une limite en utilisant ces systèmes à des fins nuisibles ou en étant carrément persona non grata. L’entreprise a mis en avant les résiliations de services dans une annonce mercredi, indiquant qu’elle avait travaillé avec son méga soutien, Microsoft, pour identifier et mettre fin à ces comptes. « Nous avons perturbé cinq acteurs malveillants affiliés à des États : deux acteurs de menace affiliés à la Chine connus sous le nom de Charcoal Typhoon et Salmon Typhoon ; l’acteur de menace affilié à l’Iran connu sous le nom de Crimson Sandstorm ; l’acteur affilié à la Corée du Nord connu sous le nom de Emerald Sleet ; et l’acteur affilié à la Russie connu sous le nom de Forest Blizzard », ont écrit les membres de l’équipe OpenAI. Des modèles linguistiques conversationnels de grande envergure tels que le GPT-4 d’OpenAI peuvent être utilisés pour des choses telles que l’extraction et la synthèse d’informations, la rédaction de messages et la rédaction de code. OpenAI essaie d’éviter les abus de son logiciel en filtrant les demandes d’informations nuisibles et de code malveillant.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du