Nous sommes toujours en pleine lutte pour la sécurité de l’IA lorsque notre survie est en jeu.

L’ordonnance exécutive récente du président Joe Biden sur l’intelligence artificielle a provoqué une réaction inattendue. Cela malgré le fait que l’ordonnance elle-même ne fait en réalité que très peu de choses : elle contient quelques bonnes dispositions de gouvernance et de petites subventions, comme 2 millions de dollars pour un concours de prix bonus du Fonds d’accélération de la croissance. Mais surtout, elle appelle à la création de rapports. Malgré cette utilisation parcimonieuse de la force, l’ordonnance s’est révélée étonnamment divisive dans le monde de la technologie. Certains l’ont vivement appréciée. D’autres, beaucoup d’entre eux se décrivant comme des accélérationnistes ou des techno-optimistes, ont laissé entendre que l’ordonnance équivalait effectivement à une interdiction des mathématiques et ont propagé des mèmes de résistance inspirés de la Révolution américaine. Pourquoi cette réaction absurde ? En particulier, une exigence de rapport pour le travail sur l’IA. L’ordonnance de Biden exige que ceux qui effectuent des exécutions d’entraînement sur l’IA suffisamment importantes, bien plus importantes que celles que nous avons réalisées par le passé, indiquent les précautions de sécurité qu’ils prennent. Les centres de données géants qui pourraient permettre de telles exécutions ont également des obligations de rapport et doivent déclarer à quels acteurs étrangers ils fournissent des services. Tout le monde voit que ce seuil de rapport pourrait devenir quelque chose de plus fort et de plus restrictif au fil du temps. Mais tandis que ceux des deux côtés de la fracture technologique concernant l’ordonnance considèrent les enjeux comme existentiels, ils s’inquiètent de différentes menaces. L’IA sera au cœur de l’avenir. Elle deviendra progressivement plus intelligente et plus capable, supérieure à nous dans un nombre croissant de tâches et peut-être, au final, bien plus intelligente que nous.

Share the Post: