« Les tribunaux peuvent-ils nous sauver de l’IA dangereuse? »

Une citation sur l’intelligence artificielle à laquelle je pense beaucoup est quelque chose que Jack Clark, co-fondateur de la société d’intelligence artificielle Anthropic, m’a dit l’année dernière : « C’est vraiment bizarre que ce ne soit pas un projet gouvernemental. » Le point de Clark était que le personnel d’Anthropic, et une grande partie du personnel des principaux concurrents comme OpenAI et Google DeepMind, croient sincèrement que l’IA n’est pas seulement une grande innovation mais un énorme changement dans l’histoire humaine, effectivement la création d’une nouvelle espèce qui finira par surpasser l’intelligence humaine et aura le pouvoir de déterminer notre destin. Ce n’est pas un produit ordinaire qu’une entreprise peut vendre à des clients volontaires sans importuner les autres. C’est quelque chose de très différent. Peut-être pensez-vous que ce point de vue est raisonnable ; peut-être pensez-vous qu’il est grandiose, prétentieux et délirant. Honnêtement, je pense qu’il est trop tôt pour le dire. En 2050, nous pourrions regarder en arrière ces mises en garde concernant l’IA comme des technologistes planant sur leurs propres produits, ou nous pourrions regarder autour de nous une société gouvernée par des IA omniprésentes et penser : « Ils avaient raison. » Mais le cas pour que les gouvernements jouent un rôle plus actif spécifiquement dans le cas où le dernier scénario se réalise est assez solide. J’ai écrit un peu sur la forme que ce rôle gouvernemental pourrait prendre, et jusqu’à présent la plupart des propositions impliquent de rendre obligatoire le test des IA suffisamment grandes pour certains dangers : biais contre certains groupes, vulnérabilités de sécurité, la capacité à être utilisées à des fins dangereuses comme la construction d’armes, et des propriétés « agentiques » indiquant qu’elles poursuivent des objectifs autres que ceux que nous, humains, leur donnons intentionnellement. Réguler ces risques nécessiterait la création de grandes nouvelles institutions gouvernementales et leur demanderait beaucoup, notamment de ne pas être capturées par les entreprises d’IA qu’elles doivent réguler. (Il est important de noter que le lobbying des entreprises liées à l’IA a augmenté de 185 % en 2023 par rapport à l’année précédente, selon les données recueillies par OpenSecrets pour CNBC.) En termes d’efforts réglementaires, celui-ci est de haut niveau de difficulté. C’est pourquoi un nouvel article fascinant du professeur de droit Gabriel Weil suggérant un tout autre type de chemin, un qui ne repose pas sur la création de cette capacité gouvernementale, est si important. L’idée clé est simple : les entreprises d’IA devraient être maintenant responsables des dommages que leurs produits produisent ou pourraient produire à l’avenir.

Share the Post: