« Les tribunaux peuvent-ils nous protéger contre l’IA dangereuse ? »

Une citation concernant l’IA à laquelle je pense souvent est quelque chose que Jack Clark, co-fondateur de la société d’intelligence artificielle Anthropic, m’a dit l’année dernière : « C’est vraiment étrange que ce ne soit pas un projet gouvernemental ». Le point de Clark était que le personnel de Anthropic, ainsi que celui des principaux concurrents comme OpenAI et Google DeepMind, croient vraiment que l’IA n’est pas seulement une innovation majeure mais aussi un énorme changement dans l’histoire humaine, effectivement la création d’une nouvelle espèce qui finira par dépasser l’intelligence humaine et aura le pouvoir de déterminer notre destin. Ce n’est pas juste un produit ordinaire qu’une entreprise peut vendre à des clients consentants sans déranger grand monde. C’est quelque chose de très différent. Peut-être que vous pensez que ce point de vue est raisonnable ; peut-être que vous pensez qu’il est grandiose, plein d’importance et illusoire. Je pense honnêtement qu’il est trop tôt pour le dire. En 2050, nous pourrions regarder en arrière ces avertissements alarmants sur l’IA comme des technologistes se perdant dans leurs propres produits, ou nous pourrions regarder autour de nous une société gouvernée par des IA omniprésents et penser : « Ils avaient raison ». Mais le cas pour les gouvernements de jouer un rôle plus actif spécifiquement dans le cas où ce dernier scénario se réalise est assez solide. J’ai écrit un peu sur la forme que ce rôle gouvernemental pourrait prendre, et jusqu’à présent la plupart des propositions impliquent que les IA suffisamment grandes soient testées pour certains dangers : biais contre certains groupes, vulnérabilités en matière de sécurité, la possibilité d’être utilisées à des fins dangereuses comme la construction d’armes, et les propriétés « agentiques » indiquant qu’elles poursuivent des objectifs autres que ceux que nous humains leur donnons exprès. Réglementer pour ces risques exigerait la mise en place de nouvelles institutions gouvernementales majeures et leur demanderait beaucoup, notamment qu’elles ne soient pas capturées par les entreprises d’IA qu’elles doivent réguler. (Remarquons que le lobbying des entreprises liées à l’IA a augmenté de 185 pour cent en 2023 par rapport à l’année précédente, selon des données recueillies par OpenSecrets pour CNBC.) En termes d’efforts de réglementation, celui-ci est de haute difficulté. C’est pourquoi un nouvel article fascinant du professeur de droit Gabriel Weil suggérant un type de chemin totalement différent, n’appuyant pas sur la construction de ce genre de capacité gouvernementale, est si important. L’idée clé est simple : les entreprises d’IA devraient être tenues responsables dès maintenant des dommages que leurs produits produisent ou pourraient produire à l’avenir.

Share the Post: