Nous sommes toujours en lutte pour la survie en ce qui concerne la sécurité de l’IA.

L’ordonnance récente du président Joe Biden sur l’intelligence artificielle a suscité une réaction inattendue. Cela malgré le fait que l’ordonnance en elle-même ne fait pas grand-chose : elle comporte quelques bonnes dispositions en matière de gouvernance et de petites subventions, telles que 2 millions de dollars pour un prix bonus de concours du Fonds pour l’accélération de la croissance, mais elle appelle principalement à la création de rapports. Malgré cette utilisation limitée de la force, l’ordonnance s’est avérée étonnamment diviseuse dans le monde de la technologie. Certains l’ont ardemment saluée. D’autres, dont beaucoup se qualifient d’accélérationnistes ou de techno-optimistes, ont laissé entendre que l’ordonnance équivalait en réalité à une interdiction des mathématiques et ont répandu des mèmes de résistance inspirés de la Révolution américaine. Pourquoi une réaction aussi absurde ? Une exigence de rapport spécifique au travail de l’IA en particulier. L’ordonnance de Biden exige que ceux qui effectuent des séries d’entraînement à l’IA suffisamment importantes, beaucoup plus grandes que celles que nous avons connues par le passé, doivent rendre compte des précautions de sécurité qu’ils prennent. Les centres de données géants qui pourraient permettre de telles séries d’entraînement ont également des obligations de rapport et doivent rendre compte des services vendus à des parties étrangères. Tout le monde voit que ce seuil de rapport pourrait devenir quelque chose de plus fort et plus restrictif avec le temps. Mais alors que ceux des deux côtés de la division dans la technologie considèrent les enjeux comme existentiels, ils s’inquiètent de différentes menaces. L’IA sera centrale pour l’avenir. Elle deviendra progressivement plus intelligente et compétente au fil du temps, supérieure aux meilleurs d’entre nous dans un nombre croissant de tâches et peut-être, en fin de compte, bien plus intelligente que nous.

Share the Post: