Nous sommes toujours en lutte pour notre survie en matière de sécurité des IA.

Le récent ordre exécutif du président Joe Biden sur l’intelligence artificielle a fait plus de bruit que prévu. Cela en dépit du fait que cet ordre en soi ne fait pas grand-chose : il comporte quelques dispositions en matière de bonne gouvernance et de petits subventions, comme 2 millions de dollars pour un prix de bonus de concours de fonds d’accélération de la croissance, mais il appelle surtout à la création de rapports. Malgré cet usage limité de la force, l’ordre s’est avéré surprenamment divisé dans le monde des technologies. certains l’ont chaleureusement salué. D’autres, nombreux parmi ceux qui se disent accélérationnistes ou techno-optimistes, ont laissé entendre que l’ordre était en fait une interdiction des mathématiques et ont diffusé des memes inspirés de la révolution américaine. Quelle est la raison de cette réaction absurde ? Un seul exigence de rapportage pour le travail en intelligence artificielle en particulier. L’ordre de Biden exige que ceux qui font des runs de formation en intelligence artificielle suffisamment importants, beaucoup plus importants que ceux que nous avons effectués par le passé, rapportent les mesures de sécurité qu’ils prennent. Les centres de données gigantesques qui pourraient permettre de telles sessions de formation ont également des obligations de reporting et doivent indiquer auxquelles parties étrangères ils vendent des services. Tout le monde voit que ce seuil de reporting pourrait devenir quelque chose de plus fort et de plus restrictif au fil du temps. Mais alors que ceux des deux côtés de la faille en technologie sur l’ordre considèrent les enjeux comme existentiels, ils s’inquiètent de différentes menaces. L’intelligence artificielle sera centrale pour l’avenir. Elle deviendra progressivement plus intelligente et plus capable au fil du temps, supérieure à la meilleure d’entre nous à un nombre croissant de tâches et peut-être, ultimement, beaucoup plus intelligente que nous.

Share the Post: