Une citation sur l’IA à laquelle je pense beaucoup est celle que Jack Clark, co-fondateur de l’entreprise d’intelligence artificielle Anthropic, m’a dite l’année dernière : « C’est une chose vraiment étrange que ce ne soit pas un projet gouvernemental. » Le point de Clark était que le personnel d’Anthropic, ainsi que celui des principaux concurrents tels que OpenAI et Google DeepMind, croit sincèrement que l’IA n’est pas seulement une innovation majeure, mais aussi un énorme bouleversement dans l’histoire humaine, créant effectivement une nouvelle espèce qui finira par surpasser l’intelligence humaine et aura le pouvoir de déterminer notre destin. Ce n’est pas un produit ordinaire que l’on peut vendre à des clients volontaires sans dérange personne d’autre. C’est quelque chose de très différent. Peut-être pensez-vous que ce point de vue est raisonnable ; peut-être pensez-vous qu’il est grandiose, vaniteux et illusoire. Honnêtement, je pense qu’il est encore trop tôt pour le dire. En 2050, nous pourrions considérer ces avertissements alarmants sur l’IA comme des technologistes se droguant avec leurs propres produits, ou nous pourrions regarder autour de nous une société contrôlée par des IA omniprésentes et penser : « Ils avaient raison. » Mais les arguments en faveur d’une participation plus active des gouvernements, notamment dans le cas où ce dernier scénario se réalise, sont assez forts. J’ai un peu écrit sur la forme que pourrait prendre ce rôle gouvernemental, et jusqu’à présent, la plupart des propositions consistent à exiger que les IA suffisamment grandes soient testées pour certains dangers : partialité envers certains groupes, failles de sécurité, la capacité d’être utilisées à des fins dangereuses comme la construction d’armes, et des propriétés « agentic » indiquant qu’elles poursuivent des objectifs autres que ceux que nous leur donnons délibérément. Réglementer ces risques nécessiterait la création de nouvelles institutions gouvernementales majeures et leur demanderait beaucoup, notamment de ne pas être capturées par les entreprises d’IA qu’elles doivent réguler. (Il est à noter que le lobbying des sociétés liées à l’IA a augmenté de 185% en 2023 par rapport à l’année précédente, selon les données recueillies par OpenSecrets pour CNBC.) En matière d’efforts de réglementation, celui-ci est particulièrement difficile. C’est pourquoi un document fascinant du professeur de droit Gabriel Weil suggérant une toute autre voie, qui ne repose pas sur la création de cette capacité gouvernementale, est si important. L’idée clé est simple : les entreprises d’IA devraient être tenues dès maintenant responsables des préjudices que leurs produits causent ou pourraient causer à l’avenir.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du