« Les tribunaux peuvent-ils nous sauver de l’IA dangereuse ? »

Une citation sur l’IA à laquelle je pense souvent est quelque chose que Jack Clark, cofondateur de la société d’intelligence artificielle Anthropic, m’a dit l’année dernière : « C’est une chose vraiment étrange que ce ne soit pas un projet gouvernemental. » L’argument de Clark était que le personnel d’Anthropic, ainsi que la plupart du personnel des principaux concurrents tels que OpenAI et Google DeepMind, croit sincèrement que l’IA n’est pas seulement une grande innovation mais un énorme changement dans l’histoire humaine, effectivement la création d’une nouvelle espèce qui dépassera éventuellement l’intelligence humaine et aura le pouvoir de déterminer notre destin. Ce n’est pas un produit ordinaire qu’une entreprise peut vendre à des clients volontaires sans ennuyer trop de monde. C’est quelque chose de très différent. Peut-être que vous trouvez ce point de vue raisonnable ; peut-être le trouvez-vous grandiose, imbu de soi et illusoire. Honnêtement, je pense qu’il est encore trop tôt pour le dire. En 2050, nous pourrions regarder en arrière et considérer ces avertissements alarmants sur l’IA comme des technologistes qui se sont enivrés de leurs propres produits, ou nous pourrions regarder autour de nous dans une société gouvernée par des IA omniprésentes et penser : « Ils avaient raison. » Cependant, l’argument en faveur d’une implication plus active des gouvernements, en particulier dans le cas où le dernier scénario se réalise, est assez solide. J’ai écrit un peu sur la forme que pourrait prendre ce rôle gouvernemental, et jusqu’à présent, la plupart des propositions impliquent de faire en sorte que des IA suffisamment grandes soient testées pour certains dangers : le biais envers certains groupes, les vulnérabilités en matière de sécurité, la capacité à être utilisées à des fins dangereuses comme la fabrication d’armes, et des propriétés « agentiques » indiquant qu’elles poursuivent des objectifs autres que ceux que nous, humains, leur donnons délibérément. Réglementer ces risques nécessiterait la mise en place de grandes institutions gouvernementales nouvelles et leur demanderait beaucoup, notamment de ne pas être capturées par les entreprises d’IA qu’elles doivent réguler. (Il est notable que le lobbying des entreprises liées à l’IA a augmenté de 185 pour cent en 2023 par rapport à l’année précédente, selon des données rassemblées par OpenSecrets pour CNBC.) En matière d’efforts de réglementation, celui-ci est particulièrement difficile. C’est pourquoi un nouvel article fascinant du professeur de droit Gabriel Weil suggérant un tout autre type de chemin, qui ne repose pas sur le développement de ce type de capacité gouvernementale, est si important. L’idée clé est simple : les entreprises d’IA devraient être désormais responsables des dommages que leurs produits produisent ou pourraient produire à l’avenir.

Share the Post: