Nous sommes toujours en lutte pour notre survie en ce qui concerne la sécurité des IA.

Le dernier ordre exécutif du président Joe Biden sur l’intelligence artificielle a fait beaucoup plus de bruit que prévu. Cela était malgré le fait que l’ordre en lui-même ne fasse en réalité que très peu de choses : il contient quelques dispositions sur la bonne gouvernance et de petites subventions, comme 2 millions de dollars pour un prix bonus de concours de fonds d’accélération de la croissance, mais il appelle surtout à la création de rapports. Malgré cet usage limité de la force, l’ordre s’est avéré surprenamment divisé dans le monde des technologies. certains l’ont vivement loué. D’autres, dont beaucoup se désignent eux-mêmes comme accélérationnistes ou techno-optimistes, ont laissé entendre que l’ordre était en fait une interdiction des mathématiques et ont répandu des memes de résistance inspirés de la Révolution américaine. Pourquoi une telle réaction absurde ? Une exigence de rapportage pour le travail sur l’IA en particulier. L’ordonnance de Biden exige que ceux qui effectuent des runs d’apprentissage de l’IA suffisamment importants, beaucoup plus importants que ceux que nous avons effectués jusqu’à présent, rendent compte des mesures de sécurité qu’ils prennent. Les centres de données gigantesques qui pourraient permettre de telles sessions d’entraînement ont également des obligations de déclaration et doivent indiquer les parties étrangères à qui elles vendent des services. Tout le monde voit que ce seuil de déclaration pourrait devenir quelque chose de plus fort et de plus restrictif au fil du temps. Mais alors que ceux des deux côtés de la fracture technologique sur l’ordonnance voient les enjeux comme existentiels, ils s’inquiètent de différentes menaces. L’IA sera au centre de l’avenir. Elle deviendra progressivement plus intelligente et plus capable au fil du temps, supérieure aux meilleurs d’entre nous dans un nombre croissant de tâches et peut-être, à terme, beaucoup plus intelligente que nous.

Share the Post: