Une citation sur l’IA à laquelle je pense beaucoup est quelque chose que Jack Clark, co-fondateur de la société d’intelligence artificielle Anthropic, m’a dit l’année dernière : « C’est une chose vraiment étrange que ce ne soit pas un projet gouvernemental. » Le point de Clark était que le personnel d’Anthropic, ainsi que la majeure partie du personnel des principaux concurrents tels que OpenAI et Google DeepMind, croient sincèrement que l’IA n’est pas seulement une innovation majeure mais un énorme changement dans l’histoire humaine, effectivement la création d’une nouvelle espèce qui surpassera éventuellement l’intelligence humaine et aura le pouvoir de déterminer notre destin. Ce n’est pas un produit ordinaire qu’une entreprise peut vendre à des clients consentants sans déranger grand-chose. C’est quelque chose de très différent. Peut-être que vous trouvez ce point de vue raisonnable ; peut-être que vous le trouvez grandiose, imbu de lui-même et illusoire. Honnêtement, je pense qu’il est trop tôt pour le dire. En 2050, nous pourrions regarder en arrière ces mises en garde alarmistes sur l’IA comme des technologistes qui s’enflamment pour leurs propres produits, ou nous pourrions regarder autour de nous une société gouvernée par des IA omniprésentes et penser : « Ils avaient raison. » Mais le cas pour les gouvernements de jouer un rôle plus actif spécifiquement au cas où le second scénario se réaliserait est plutôt solide. J’ai écrit un peu sur la forme que ce rôle gouvernemental pourrait prendre, et jusqu’à présent, la plupart des propositions impliquent de rendre obligatoire le test de certaines dangers pour des IA suffisamment grandes : biais contre certains groupes, vulnérabilités en termes de sécurité, la capacité à être utilisées à des fins dangereuses comme la construction d’armes, et des propriétés « agentiques » indiquant qu’elles poursuivent des objectifs autres que ceux que nous, êtres humains, leur avons donnés à dessein. Réglementer ces risques nécessiterait la création de nouvelles institutions gouvernementales majeures et leur demanderait beaucoup, notamment de ne pas être capturées par les entreprises d’IA qu’elles doivent réguler. (Il est à noter que le lobbying des entreprises liées à l’IA a augmenté de 185 pour cent en 2023 par rapport à l’année précédente, selon les données recueillies par OpenSecrets pour CNBC). En matière d’efforts réglementaires, celui-ci est très difficile. C’est pourquoi un nouvel article fascinant du professeur de droit Gabriel Weil suggérant un tout autre type de voie, qui ne repose pas sur la création de cette capacité gouvernementale, est si important. L’idée clé est simple : les entreprises d’IA devraient être désormais responsables des dommages que leurs produits produisent ou (plus crucialement) pourraient produire à l’avenir.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du