La semaine dernière, le sénateur de l’État de Californie Scott Wiener (D-San Francisco) a présenté une nouvelle législation historique en matière d’IA visant à « établir des normes de sécurité claires, prévisibles et sensées pour les développeurs des systèmes d’IA les plus grands et les plus puissants ». Il s’agit d’une approche bien écrite et politiquement astucieuse pour réglementer l’IA, se concentrant étroitement sur les entreprises construisant les modèles à grande échelle les plus importants et la possibilité que ces efforts massifs puissent causer des dommages de masse. Comme ce fut le cas dans des domaines tels que les émissions de voitures ou le changement climatique, la législation de la Californie pourrait fournir un modèle pour la réglementation nationale, qui pourrait prendre beaucoup plus de temps. Mais que le projet de loi de Wiener passe ou non à l’Assemblée législative dans sa forme actuelle, son existence reflète le fait que les politiciens commencent à prendre au sérieux les dirigeants technologiques lorsqu’ils prétendent vouloir développer des technologies radicalement transformantes qui présentent des risques importants pour la sécurité – et cessent de les prendre au sérieux lorsqu’ils affirment, comme certains le font, qu’ils devraient le faire sans aucune supervision. Un défi de la régulation des systèmes d’IA puissants est de définir ce que l’on entend par « systèmes d’IA puissants ». Nous sommes au cœur du cycle de la surenchère actuelle en matière d’IA, et chaque entreprise de la Silicon Valley prétend utiliser l’IA, que ce soit en construisant des chatbots pour le service client, des algorithmes de trading automatisé, des intelligences générales capables de mimer de manière convaincante les humains, voire même des robots tueurs littéraux. Définir la question est essentiel, car l’IA a un énorme potentiel économique, et une réglementation maladroite et excessivement contraignante qui réprime les systèmes bénéfiques pourrait causer d’énormes dommages économiques tout en ne résolvant pas grand-chose en ce qui concerne les préoccupations de sécurité très réelles.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du