Des chercheurs et des experts juridiques veulent que les entreprises d’IA se soumettent à des vérifications de sécurité.

Plus de 150 chercheurs de premier plan en intelligence artificielle (IA), éthiciens et autres ont signé une lettre ouverte appelant les entreprises d’IA générative (genAI) à se soumettre à des évaluations indépendantes de leurs systèmes, le manque de celles-ci ayant suscité des inquiétudes concernant les protections de base. La lettre, rédigée par des chercheurs du MIT, de Princeton et de l’Université Stanford, a appelé à des protections légales et techniques pour la recherche de bonne foi sur les modèles genAI, ce qui, selon eux, entrave les mesures de sécurité qui pourraient aider à protéger le public. La lettre, ainsi qu’une étude qui la soutient, ont été créées avec l’aide d’une vingtaine de professeurs et de chercheurs qui ont appelé à un « havre de sécurité » juridique pour l’évaluation indépendante des produits genAI. La lettre a été envoyée à des entreprises telles que OpenAI, Anthropic, Google, Meta et Midjourney, et leur demande de permettre aux chercheurs d’enquêter sur leurs produits afin de garantir que les consommateurs soient protégés contre les biais, les allégations de violation de copyright et les images intimes non consenties. « L’évaluation indépendante des modèles d’IA déjà déployés est largement considérée comme essentielle pour garantir la sécurité, la sûreté et la confiance », ont écrit deux des chercheurs responsables de la lettre dans un blog post. « La recherche indépendante de type red teaming sur les modèles d’IA a mis en lumière des vulnérabilités liées aux langues à faibles ressources, au contournement des mesures de sécurité et à une large gamme de contournements de sécurité. »

Share the Post: