« La Californie peut-elle montrer la voie à suivre en matière de sécurité de l’IA ? »

La semaine dernière, le sénateur de l’État de Californie, Scott Wiener (D-San Francisco), a introduit une nouvelle législation révolutionnaire sur l’intelligence artificielle visant à « établir des normes de sécurité claires, prévisibles et de bon sens pour les développeurs des plus grands et plus puissants systèmes d’IA ». Il s’agit d’une approche bien écrite et politiquement avisée pour réglementer l’IA, étroitement axée sur les entreprises construisant les modèles à grande échelle les plus importants et la possibilité que ces efforts massifs pourraient causer des dommages de masse. Comme cela a été le cas dans des domaines tels que les émissions de voitures ou le changement climatique, la législation de la Californie pourrait servir de modèle pour une régulation nationale, qui semble prendre beaucoup plus de temps. Mais que le projet de loi de Wiener parvienne ou non à être adopté en l’état à l’assemblée législative, son existence témoigne du fait que les politiciens commencent à prendre au sérieux les leaders technologiques lorsqu’ils affirment avoir l’intention de construire des technologies radicales transformant le monde et posant des risques de sécurité importants, et qu’ils cessent de les prendre au sérieux lorsqu’ils affirment, comme certains le font, qu’ils devraient le faire sans aucune supervision. L’un des défis de réguler des systèmes IA puissants est de définir ce que l’on entend par « systèmes IA puissants ». Nous sommes en plein milieu du cycle d’engouement actuel pour l’IA, et chaque entreprise de la Silicon Valley prétend utiliser l’IA, que ce soit pour construire des chatbots pour le service client, des algorithmes de trading, des intelligences générales capables de reproduire de manière convaincante des comportements humains, ou même des robots tueurs littéraux. Définir la question est crucial, car l’IA a un énorme potentiel économique, et des réglementations maladroites et excessivement strictes qui réprimeraient des systèmes bénéfiques pourraient causer de graves dommages économiques tout en ne résolvant que très peu les préoccupations réelles en matière de sécurité.

Share the Post: