Le risque militarisé de l’IA est plus important que les « robots tueurs »

Les grandes nouvelles de la rencontre entre le président Joe Biden et le dirigeant chinois Xi Jinping sont sans aucun doute les pandas. Vingt ans plus tard, si quelqu’un en apprend davantage sur cette réunion, ce sera probablement à cause d’une plaque au zoo de San Diego. C’est-à-dire, s’il y a encore quelqu’un de vivant pour aller visiter les zoos. Et si certains d’entre nous sont toujours là dans 20 ans, c’est peut-être en raison d’un autre accord que les deux dirigeants ont conclu – des pourparlers sur les risques croissants de l’intelligence artificielle. Avant le sommet, le South China Morning Post a rapporté que Biden et Xi annonceraient un accord visant à interdire l’utilisation de l’intelligence artificielle dans plusieurs domaines, notamment le contrôle des armes nucléaires. Aucun tel accord n’a été conclu – et on ne s’attendait pas à ce qu’il en soit ainsi – mais les comptes rendus publiés par la Maison Blanche et le ministère chinois des Affaires étrangères ont mentionné la possibilité de pourparlers entre les États-Unis et la Chine sur l’IA. Après le sommet, dans ses remarques à la presse, Biden a expliqué que «nos experts se réuniront pour discuter des risques et des problèmes de sécurité associés à l’intelligence artificielle». Les officiels américains et chinois ont été peu loquaces quant aux experts qui seraient impliqués ou aux risques et problèmes de sécurité qui seraient discutés. Il y a, bien sûr, beaucoup à discuter entre les deux parties. Ces discussions pourraient aller des soi-disant «risques catastrophiques» des systèmes d’IA qui ne sont pas alignés sur les valeurs humaines – pensez à Skynet des films Terminator – à l’utilisation de plus en plus courante de systèmes d’armes autonomes létaux, que les activistes appellent parfois «robots tueurs». Et puis il y a le scénario situé quelque part entre les deux: la possibilité d’utiliser l’IA pour décider d’utiliser des armes nucléaires, d’ordonner un lancement nucléaire et d’en exécuter un.

Share the Post: