Entretien
Parfois, les gens veulent abuser des systèmes d’IA pour divulguer des secrets d’entreprise. D’autres fois, ils veulent simplement forcer un LLM à parler comme un pirate. Dans les deux cas, c’est le rôle de l’équipe rouge d’IA d’anticiper comment quelqu’un pourrait tenter de weaponiser ces systèmes, puis d’aider à résoudre ces problèmes. Ram Shankar Siva Kumar a fondé l’équipe rouge d’IA de Microsoft en 2019, bien avant l’essor de ChatGPT. Kumar et ses collègues ont rencontré divers échecs d’IA, et vous pouvez en savoir plus dans une interview avec The Register ci-dessous.
Vidéo YouTube
« La fausse idée commune est la suivante : les équipes rouges d’IA peuvent remplacer tous les tests d’intrusion traditionnels », a-t-il déclaré. « Ce n’est absolument pas le cas. »
« La Croisade acharnée d’un couple pour arrêter un tueur génétique »
En y repensant, cela aurait pu être un indice. Mais au début de l’année 2010, lorsque Kamni Vallabh a commencé