‘La Californie peut-elle montrer la voie à suivre en matière de sécurité de l’IA ?’

La semaine dernière, le sénateur de l’État de Californie, Scott Wiener (D-San Francisco), a présenté un nouveau texte de loi révolutionnaire sur l’IA visant à « établir des normes de sécurité claires, prévisibles et sensées pour les développeurs des systèmes d’IA les plus grands et les plus puissants ». C’est une approche politiquement astucieuse et bien rédigée pour réglementer l’IA, se concentrant étroitement sur les entreprises construisant les modèles à grande échelle et la possibilité que ces efforts massifs pourraient causer des dommages en masse. Comme dans les domaines des émissions de voitures ou du changement climatique, la législation californienne pourrait servir de modèle pour une réglementation nationale, qui semble prendre beaucoup plus de temps. Mais que le projet de loi de Wiener soit adopté ou non à l’assemblée législative dans sa forme actuelle, son existence reflète que les politiciens commencent à prendre au sérieux les dirigeants de la tech lorsqu’ils prétendent vouloir créer des technologies révolutionnaires qui posent des risques importants pour la sécurité – et cessent de les prendre au sérieux lorsqu’ils prétendent, comme certains le font, qu’ils devraient le faire sans aucun contrôle. Un défi pour la régulation des systèmes d’IA puissants est de définir exactement ce que l’on entend par « systèmes d’IA puissants ». Nous nous trouvons en plein milieu du cycle de hype actuel de l’IA, et chaque entreprise de la Silicon Valley prétend utiliser l’IA, que ce soit pour construire des chatbots de service client, des algorithmes de trading quotidien, des intelligences générales capables d’imiter convaincante des humains ou même des robots tueurs littéraux. Définir la question est crucial, car l’IA a un énorme potentiel économique et des régulations maladroites et excessivement strictes qui répriment des systèmes bénéfiques pourraient causer d’énormes dommages économiques tout en n’apportant que des réponses limitées aux préoccupations de sécurité très réelles.

Share the Post: