‘Les tribunaux peuvent-ils nous sauver de l’IA dangereuse ?’

Une citation sur l’IA à laquelle je pense beaucoup est quelque chose que m’a dit Jack Clark, co-fondateur de la société d’intelligence artificielle Anthropic, l’année dernière : « C’est vraiment étrange que ce ne soit pas un projet gouvernemental. » Le point de Clark était que le personnel d’Anthropic, et une grande partie du personnel des principaux concurrents comme OpenAI et Google DeepMind, croit sincèrement que l’IA n’est pas seulement une innovation majeure mais un énorme changement dans l’histoire humaine, effectivement la création d’une nouvelle espèce qui finira par surpasser l’intelligence humaine et aura le pouvoir de déterminer notre destin. Ce n’est pas un produit ordinaire qu’une entreprise peut vendre à des clients consentants sans trop déranger les autres. C’est quelque chose de très différent. Vous pouvez penser que ce point de vue est raisonnable ; peut-être pensez-vous qu’il est grandiloquent, trop important et délirant. Honnêtement, je pense qu’il est trop tôt pour le dire. En 2050, nous pourrions regarder en arrière ces avertissements alarmants sur l’IA comme des technologues se laissant emporter par leurs propres produits, ou nous pourrions regarder autour de nous une société gouvernée par des IA omniprésentes et penser : « Ils avaient raison. » Mais le cas pour que les gouvernements jouent un rôle plus actif, spécifiquement au cas où ce dernier scénario se réalise, est plutôt solide. J’ai écrit un peu sur la forme que ce rôle gouvernemental pourrait prendre, et jusqu’à présent, la plupart des propositions impliquent la mise en place de tests pour détecter certains dangers des IA suffisamment grandes : biais contre certains groupes, vulnérabilités en matière de sécurité, la capacité d’être utilisées à des fins dangereuses comme la fabrication d’armes, et des propriétés « agentiques » indiquant qu’elles poursuivent des objectifs autres que ceux que nous les humains leur avons donnés délibérément. Réguler pour ces risques nécessiterait la mise en place de nouvelles institutions gouvernementales majeures et leur demanderait beaucoup, notamment qu’elles ne soient pas capturées par les entreprises d’IA qu’elles doivent réglementer. (À noter que le lobbying des entreprises liées à l’IA a augmenté de 185 % en 2023 par rapport à l’année précédente, selon les données recueillies par OpenSecrets pour CNBC.) En ce qui concerne les efforts de réglementation, celui-ci est de haut niveau de difficulté. C’est pourquoi un nouvel article passionnant du professeur de droit Gabriel Weil suggérant un tout autre type de parcours, qui ne repose pas sur la mise en place de cette capacité gouvernementale, est si important. L’idée clé est simple : les entreprises d’IA devraient désormais être responsables des dommages que leurs produits produisent ou pourraient produire à l’avenir.

Share the Post: