« Les tribunaux peuvent-ils nous protéger contre une IA dangereuse ? »

Une citation à propos de l’IA à laquelle je pense beaucoup est quelque chose que Jack Clark, cofondateur de la compagnie d’intelligence artificielle Anthropic, m’a dit l’année dernière : « C’est une chose vraiment étrange que ce ne soit pas un projet gouvernemental. » Le point de Clark était que le personnel d’Anthropic, ainsi que la plupart du personnel des principaux concurrents comme OpenAI et Google DeepMind, croient sincèrement que l’IA n’est pas simplement une grande innovation mais un énorme changement dans l’histoire humaine, effectivement la création d’une nouvelle espèce qui finira par surpasser l’intelligence humaine et aura le pouvoir de déterminer notre destin. Ce n’est pas un produit ordinaire qu’une entreprise peut vendre à des clients consentants sans trop déranger les autres. C’est quelque chose de très différent. Peut-être que vous trouvez cette perspective raisonnable ; peut-être que vous la trouvez grandiose, arrogante et délirante. Honnêtement, je pense qu’il est trop tôt pour le dire. En 2050, nous pourrions regarder en arrière ces avertissements alarmants sur l’IA comme des technologistes se laissant emporter par leurs propres produits, ou nous pourrions regarder autour de nous une société gouvernée par des IA omniprésentes et penser, « Ils avaient raison. » Mais le cas pour que les gouvernements jouent un rôle plus actif spécifiquement au cas où ce dernier scénario se réalise est assez solide. J’ai écrit un peu sur la forme que ce rôle gouvernemental pourrait prendre, et à ce jour, la plupart des propositions impliquent de demander que des IA suffisamment grandes soient testées pour certains dangers : un biais contre certains groupes, des vulnérabilités en termes de sécurité, la capacité à être utilisées à des fins dangereuses comme la construction d’armes, et des propriétés « agentic » indiquant qu’elles poursuivent des objectifs autres que ceux que nous leur donnons à dessein en tant qu’humains. Réglementer pour ces risques nécessiterait de mettre en place de nouvelles institutions gouvernementales importantes et leur demanderait beaucoup, notamment qu’elles ne soient pas influencées par les compagnies d’IA qu’elles doivent réguler. (Il est à noter que le lobbying des compagnies liées à l’IA a augmenté de 185 pour cent en 2023 par rapport à l’année précédente, selon les données recueillies par OpenSecrets pour CNBC.) En termes d’efforts réglementaires, celui-ci est particulièrement difficile. C’est pourquoi un nouveau document fascinant du professeur de droit Gabriel Weil suggérant un tout autre type de voie, qui ne repose pas sur la constitution de cette sorte de capacité gouvernementale, est si important. L’idée clef est simple : les compagnies d’IA devraient être tenues responsables dès maintenant des dommages que leurs produits produisent ou pourraient produire à l’avenir.

Share the Post: