Une citation sur l’IA à laquelle je pense beaucoup est quelque chose que Jack Clark, cofondateur de la société d’intelligence artificielle Anthropic, m’a dit l’année dernière : « C’est une chose étrange que ce ne soit pas un projet gouvernemental. » Le point de Clark était que le personnel d’Anthropic, et une grande partie du personnel des principaux concurrents comme OpenAI et Google DeepMind, croient vraiment que l’IA n’est pas seulement une innovation majeure mais un changement énorme dans l’histoire humaine, effectivement la création d’une nouvelle espèce qui finira par surpasser l’intelligence humaine et aura le pouvoir de déterminer notre destin. Ce n’est pas un produit ordinaire qu’une entreprise peut vendre à des clients consentants sans déranger grand monde. C’est quelque chose de très différent. Peut-être que vous trouvez ce point de vue raisonnable ; peut-être que vous le trouvez grandiose, plein d’importance personnelle et délirant. Honnêtement, je pense qu’il est trop tôt pour le dire. En 2050, nous pourrions regarder en arrière ces avertissements alarmants sur l’IA comme des technologistes s’enivrant de leurs propres produits, ou nous pourrions regarder autour de nous une société gouvernée par des IA omniprésentes et penser, « Ils avaient raison. » Mais le cas pour les gouvernements d’adopter un rôle plus actif spécifiquement dans le cas où ce dernier scénario se réaliserait est assez solide. J’ai écrit un peu sur la forme que ce rôle gouvernemental pourrait prendre, et à ce jour la plupart des propositions impliquent de rendre obligatoire le test de certaines dangers par des IA suffisamment grandes : biais contre certains groupes, vulnérabilités en matière de sécurité, la capacité d’être utilisées à des fins dangereuses telles que la fabrication d’armes, et des propriétés « agentiques » indiquant qu’elles poursuivent des objectifs autres que ceux que nous leur donnons délibérément. Réguler ces risques nécessiterait la mise en place de nouvelles institutions gouvernementales majeures et leur demanderait beaucoup, notamment de ne pas être capturées par les sociétés d’IA qu’elles doivent réguler. (Notamment, le lobbying des sociétés liées à l’IA a augmenté de 185 % en 2023 par rapport à l’année précédente, selon les données recueillies par OpenSecrets pour CNBC.) En ce qui concerne les efforts de régulation, celui-ci est très difficile. C’est pourquoi un nouvel article fascinant du professeur de droit Gabriel Weil suggérant un tout autre type de voie, une qui ne repose pas sur le renforcement de ce type de capacité gouvernementale, est si important. L’idée clé est simple : les sociétés d’IA devraient être tenues maintenant responsables des dommages que leurs produits produisent ou pourraient produire à l’avenir.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)