« La Californie peut-elle montrer la voie à suivre en matière de sécurité de l’IA ? »

La semaine dernière, le sénateur de l’État de Californie Scott Wiener (D-San Francisco) a présenté un nouveau texte de loi révolutionnaire sur l’intelligence artificielle visant à « établir des normes de sécurité claires, prévisibles et sensées pour les développeurs des plus grands et des plus puissants systèmes d’IA ». Il s’agit d’une approche bien rédigée et politiquement astucieuse en matière de régulation de l’IA, qui se concentre étroitement sur les entreprises construisant les modèles à grande échelle les plus importants et la possibilité que ces efforts massifs puissent causer des dommages massifs. Comme ce fut le cas dans des domaines tels que les émissions de voitures ou le changement climatique, la législation de la Californie pourrait servir de modèle pour une réglementation nationale, qui semble devoir prendre beaucoup plus de temps. Mais que le projet de loi de Wiener soit adopté ou non tel quel par l’assemblée législative de l’État, son existence témoigne du fait que les politiciens commencent à prendre au sérieux les leaders technologiques lorsqu’ils prétendent vouloir construire des technologies révolutionnaires susceptibles de poser des risques importants pour la sécurité – et cessent de les prendre au sérieux lorsqu’ils affirment, comme certains le font, qu’ils devraient le faire sans aucune surveillance. Un défi de la régulation des systèmes d’IA puissants est de définir ce que l’on entend par « systèmes d’IA puissants ». Nous sommes en plein milieu du cycle d’excitation actuelle autour de l’IA, et chaque entreprise de la Silicon Valley prétend utiliser l’IA, que ce soit pour construire des chatbots de service client, des algorithmes de trading automatisé, des intelligences générales capables d’imiter de manière convaincante les humains, voire des robots tueurs littéraux. Définir la question est essentiel, car l’IA a un potentiel économique énorme, et des réglementations maladroites et excessivement contraignantes qui entravent les systèmes bénéfiques pourraient causer d’énormes dommages économiques tout en traitant de manière assez limitée les préoccupations très réelles en matière de sécurité.

Share the Post: