Nous sommes toujours en lutte pour notre survie en ce qui concerne la sécurité de l’IA.

Le récent décret présidentiel sur l’intelligence artificielle du président Joe Biden a fait une grande sensation de façon inattendue. Cela malgré le fait que le décret lui-même ne fait pas vraiment grand-chose : il comporte quelques bonnes dispositions en matière de gouvernance et de petites subventions, comme 2 millions de dollars pour un prix bonus du Concours du Fonds d’Accélération de la Croissance, mais surtout il appelle à la rédaction de rapports. Malgré cette utilisation limitée de la force, le décret s’est avéré étonnamment divisif dans le monde de la technologie. Certains l’ont vivement applaudi. D’autres, beaucoup d’entre eux se décrivant comme accélérationnistes ou techno-optimistes, ont laissé entendre que le décret était effectivement une interdiction des mathématiques et ont diffusé des memes de résistance inspirés de la Révolution américaine. Pourquoi cette réaction absurde ? Une exigence de rapport pour le travail sur l’IA en particulier. Le décret de Biden exige que ceux qui effectuent des essais suffisamment importants en matière d’IA, beaucoup plus importants que tout ce que nous avons fait dans le passé, doivent indiquer les précautions de sécurité qu’ils prennent. Les centres de données géants qui pourraient permettre de tels essais ont également des obligations de déclaration et doivent indiquer à quels parties étrangères ils vendent des services. Tout le monde voit que ce seuil de déclaration pourrait devenir quelque chose de plus fort et de plus restrictif au fil du temps. Mais alors que ceux des deux côtés du clivage dans le domaine de la technologie concernant le décret considèrent les enjeux comme existentiels, ils s’inquiètent de menaces différentes. L’IA sera au centre de l’avenir. Elle deviendra progressivement plus intelligente et plus capable, supérieure aux meilleurs d’entre nous dans un nombre croissant de tâches et peut-être, finalement, bien plus intelligente que nous.

Share the Post: