Le risque de l’IA militarisée, plus grand que les « robots tueurs »

Les grandes nouvelles du sommet entre le président Joe Biden et le dirigeant chinois Xi Jinping concernent certainement les pandas. Dans vingt ans, si quelqu’un entend parler de cette réunion, ce sera probablement sur une plaque au zoo de San Diego. C’est-à-dire s’il y a encore quelqu’un en vie pour visiter les zoos. Et si certains d’entre nous sont encore là dans vingt ans, cela pourrait être à cause d’autre chose sur laquelle les deux dirigeants se sont mis d’accord – des discussions sur les risques croissants de l’intelligence artificielle. Avant le sommet, le South China Morning Post a rapporté que Biden et Xi annonceraient un accord pour interdire l’utilisation de l’intelligence artificielle dans plusieurs domaines, y compris le contrôle des armes nucléaires. Aucun tel accord n’a été conclu – ni même attendu – mais les communiqués publiés par la Maison Blanche et le ministère des Affaires étrangères chinois mentionnaient la possibilité de négociations entre les États-Unis et la Chine sur l’IA. Après le sommet, dans ses remarques à la presse, Biden a expliqué que « nous allons réunir nos experts pour discuter des problèmes de risque et de sécurité liés à l’intelligence artificielle ». Les responsables américains et chinois ont été avares de détails sur les experts impliqués ou les problèmes de risque et de sécurité qui seraient abordés. Bien sûr, il y a beaucoup de choses dont les deux parties peuvent parler. Ces discussions pourraient aller du risque soi-disant « catastrophique » des systèmes d’IA qui ne sont pas alignés sur les valeurs humaines – pensons à Skynet dans les films Terminator – à l’utilisation de plus en plus courante des systèmes d’armes autonomes létales, que les militants appellent parfois des « robots tueurs ». Et puis il y a le scénario quelque part entre les deux : le potentiel d’utilisation de l’IA dans la prise de décision d’utiliser des armes nucléaires, d’ordonner une frappe nucléaire et d’en exécuter une.

Share the Post: