Le risque d’IA militarisée qui dépasse les « robots tueurs »

Les grandes nouvelles du sommet entre le président Joe Biden et le leader chinois Xi Jinping concernent sans aucun doute les pandas. Dans vingt ans, si quelqu’un en apprend davantage sur cette réunion, ce sera probablement grâce à une plaque au zoo de San Diego. C’est-à-dire s’il reste quelqu’un en vie pour aller visiter les zoos. Et si certains d’entre nous sommes toujours là dans vingt ans, c’est peut-être à cause d’autre chose dont les deux leaders ont convenu – les discussions sur les risques croissants liés à l’intelligence artificielle. Avant le sommet, le South China Morning Post a rapporté que Biden et Xi annonceraient un accord visant à interdire l’utilisation de l’intelligence artificielle dans un certain nombre de domaines, notamment le contrôle des armes nucléaires. Aucun tel accord n’a été conclu – ni même n’était attendu – mais les comptes rendus publiés par la Maison Blanche et le ministère chinois des Affaires étrangères ont mentionné la possibilité de pourparlers entre les États-Unis et la Chine sur l’IA. Après le sommet, dans ses remarques aux journalistes, Biden a expliqué que «nos experts vont se réunir pour discuter des risques et des questions de sécurité liés à l’intelligence artificielle». Les responsables américains et chinois n’ont fourni aucun détail sur les experts qui participeraient aux discussions ni sur les risques et les questions de sécurité qui seraient abordés. Il y a bien sûr beaucoup à discuter entre les deux parties. Ces discussions pourraient aller des risques «catastrophiques» liés aux systèmes d’IA qui ne sont pas alignés sur les valeurs humaines – pensez à Skynet dans les films Terminator – à l’utilisation de plus en plus courante de systèmes d’armes autonomes létaux, que les activistes appellent parfois «robots tueurs». Et puis il y a le scénario entre les deux: la possibilité d’utiliser l’IA pour prendre la décision d’utiliser des armes nucléaires, ordonner une frappe nucléaire et l’exécuter.

Share the Post: