OpenAI a fermé cinq comptes qu’elle affirme avoir été utilisés par des agents gouvernementaux pour générer des courriels d’hameçonnage et des scripts de logiciels malveillants, ainsi que pour rechercher des moyens d’éviter la détection de logiciels malveillants. Plus précisément, la Chine, l’Iran, la Russie et la Corée du Nord semblaient « interroger des informations open-source, traduire, trouver des erreurs de codage et effectuer des tâches de codage de base » à l’aide des modèles du super laboratoire. Nous, les vautours, pensions que c’était toute l’essence de ce que proposait OpenAI, mais apparemment, ces nations ont franchi une limite en utilisant ces systèmes à des fins néfastes ou en étant carrément persona non grata. L’entreprise a souligné les résiliations de service dans une annonce mercredi, indiquant qu’elle avait collaboré avec son méga-commanditaire Microsoft pour identifier et bloquer ces comptes. « Nous avons perturbé cinq acteurs malveillants affiliés à des États : deux acteurs de menace affiliés à la Chine connus sous les noms de Charcoal Typhoon et Salmon Typhoon ; l’acteur de menace affilié à l’Iran connu sous le nom de Crimson Sandstorm ; l’acteur affilié à la Corée du Nord connu sous le nom de Emerald Sleet ; et l’acteur affilié à la Russie connu sous le nom de Forest Blizzard », a écrit l’équipe d’OpenAI. Des modèles de langage conversationnels de grande envergure comme le GPT-4 d’OpenAI peuvent être utilisés pour des choses comme extraire et résumer des informations, rédiger des messages et du code. OpenAI tente de prévenir les abus de ses logiciels en filtrant les demandes d’informations nuisibles et de codes malveillants.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du