Le risque de l’IA militarisée qui est plus grand que les « robots tueurs »

La grande nouvelle du sommet entre le président Joe Biden et le dirigeant chinois Xi Jinping concerne certainement les pandas. Dans vingt ans, si quiconque apprend quoi que ce soit sur cette réunion, ce sera probablement grâce à une plaque au zoo de San Diego. C’est-à-dire, s’il reste quelqu’un en vie pour visiter les zoos. Et si certains d’entre nous sont encore là vingt ans plus tard, cela pourrait être à cause d’autre chose que les deux dirigeants auront convenu – des discussions sur les risques croissants de l’intelligence artificielle. Avant le sommet, le South China Morning Post a rapporté que Biden et Xi annonceraient un accord pour interdire l’utilisation de l’intelligence artificielle dans plusieurs domaines, y compris le contrôle des armes nucléaires. Aucun tel accord n’a été conclu – ni même attendu – mais les comptes rendus publiés par la Maison Blanche et le ministère chinois des Affaires étrangères mentionnaient la possibilité de discussions entre les États-Unis et la Chine sur l’IA. Après le sommet, dans ses déclarations à la presse, Biden a expliqué que « nous allons réunir nos experts pour discuter des risques et des problèmes de sécurité liés à l’intelligence artificielle. » Les responsables américains et chinois n’ont pas donné beaucoup de détails sur les experts impliqués ou sur les problèmes de risque et de sécurité qui seront abordés. Bien sûr, il y a beaucoup de sujets à discuter pour les deux parties. Ces discussions pourraient porter sur le risque soi-disant « catastrophique » des systèmes d’IA qui ne sont pas alignés sur les valeurs humaines – pensez à Skynet des films Terminator – à l’utilisation de plus en plus courante des systèmes d’armes autonomes létales, que certains militants appellent parfois les « robots tueurs ». Et puis il y a le scénario quelque part entre les deux : le potentiel d’utilisation de l’IA pour décider d’utiliser des armes nucléaires, ordonner une frappe nucléaire et en exécuter une.

Share the Post: