« La Californie peut-elle montrer la voie à suivre en matière de sécurité de l’IA ? »

La semaine dernière, le sénateur de l’État de Californie Scott Wiener (D-San Francisco) a introduit un nouveau projet de loi historique sur l’IA visant à « établir des normes de sécurité claires, prévisibles et de bon sens pour les développeurs des plus grands et des plus puissants systèmes d’IA ». Il s’agit d’une approche bien écrite et politiquement astucieuse pour réglementer l’IA, se concentrant étroitement sur les entreprises construisant les modèles à grande échelle les plus importants et la possibilité que ces efforts massifs puissent causer des dommages massifs. Comme cela a été le cas dans des domaines tels que les émissions de voitures ou le changement climatique, la législation californienne pourrait servir de modèle pour une réglementation nationale, qui semble devoir prendre beaucoup plus de temps. Mais que le projet de loi de Wiener aboutisse ou non à l’assemblée législative dans sa forme actuelle, son existence reflète le fait que les politiciens commencent à prendre au sérieux les leaders de la technologie lorsqu’ils affirment qu’ils ont l’intention de construire des technologies radicales transformant le monde et posant des risques importants pour la sécurité, et à ne plus les prendre au sérieux lorsqu’ils affirment, comme certains le font, qu’ils devraient le faire sans aucun contrôle. Un défi de la régulation des systèmes d’IA puissants est de définir ce que l’on entend par « systèmes d’IA puissants ». Nous sommes en plein milieu du cycle de hype actuel de l’IA, et chaque entreprise de la Silicon Valley prétend qu’elle utilise l’IA, que cela signifie construire des chatbots pour le service client, des algorithmes de day trading, des intelligences générales capables de mimer de manière convaincante les humains, voire même des robots tueurs littéraux. Définir la question est vital, car l’IA a un énorme potentiel économique, et des réglementations maladroites et excessivement strictes qui s’attaquent aux systèmes bénéfiques pourraient causer d’énormes dommages économiques tout en ne répondant que très peu aux préoccupations de sécurité très réelles.

Share the Post: