« La Californie peut-elle montrer la voie à suivre en matière de sécurité de l’IA ? »

La semaine dernière, le sénateur de l’État de Californie Scott Wiener (D-San Francisco) a introduit une nouvelle loi historique sur l’IA visant à « établir des normes de sécurité claires, prévisibles et sensées pour les développeurs des plus grands et des plus puissants systèmes d’IA. » C’est une approche bien écrite et politiquement astucieuse pour réglementer l’IA, centrée étroitement sur les entreprises construisant les modèles à grande échelle et la possibilité que ces efforts massifs puissent causer des dommages de masse. Comme cela a été le cas dans des domaines tels que les émissions de voitures ou le changement climatique, la législation californienne pourrait servir de modèle pour une réglementation nationale, qui devrait prendre beaucoup plus de temps. Mais que le projet de loi de Wiener réussisse ou non à être adopté par l’assemblée législative dans sa forme actuelle, son existence reflète que les politiciens commencent à prendre au sérieux les leaders technologiques lorsqu’ils prétendent vouloir construire des technologies radicales transformant le monde qui présentent des risques importants pour la sécurité – et à ne plus les prendre au sérieux lorsqu’ils affirment, comme certains le font, qu’ils devraient le faire sans aucun contrôle. Un défi de la réglementation des systèmes d’IA puissants consiste à définir ce que l’on entend par « systèmes d’IA puissants. » Nous sommes au coeur du cycle de l’engouement actuel pour l’IA, et chaque entreprise de la Silicon Valley prétend utiliser l’IA, que ce soit pour construire des chatbots de service client, des algorithmes de trading automatique, des intelligences générales capables de mimer de manière convaincante les humains, ou même des robots tueurs littéraux. Définir la question est essentiel, car l’IA a un énorme potentiel économique, et des réglementations maladroites et excessivement contraignantes qui s’attaqueraient aux systèmes bénéfiques pourraient causer d’énormes dommages économiques tout en faisant étrangement peu pour répondre aux préoccupations réelles en matière de sécurité.

Share the Post: