Le risque d’IA militarisée qui dépasse les « robots tueurs »

Les grandes nouvelles de la rencontre entre le président Joe Biden et le dirigeant chinois Xi Jinping sont certainement les pandas. Dans vingt ans, si quelqu’un en apprend davantage sur cette réunion, ce sera probablement grâce à une plaque au zoo de San Diego. C’est-à-dire, s’il y a encore quelqu’un en vie pour aller visiter les zoos. Et, si certains d’entre nous sont toujours là dans vingt ans, c’est peut-être à cause d’autre chose dont les deux dirigeants ont convenu – les discussions sur les risques croissants de l’intelligence artificielle. Avant la rencontre, le South China Morning Post a rapporté que Biden et Xi annonceraient un accord pour interdire l’utilisation de l’intelligence artificielle dans plusieurs domaines, notamment le contrôle des armes nucléaires. Aucun accord de ce type n’a été conclu – et on ne s’y attendait pas – mais les comptes rendus publiés par la Maison Blanche et le ministère chinois des Affaires étrangères ont mentionné la possibilité de pourparlers américano-chinois sur l’IA. Après la rencontre, dans ses remarques à la presse, Biden a expliqué que «nos experts se réuniront pour discuter des risques et des problèmes de sécurité liés à l’intelligence artificielle». Les responsables américains et chinois n’ont pas fourni de détails sur les experts qui participeraient aux discussions ou sur les risques et les problèmes de sécurité qui seraient abordés. Il y a bien sûr beaucoup de sujets dont les deux parties peuvent discuter. Ces discussions pourraient aller du soi-disant «risque catastrophique» des systèmes d’IA qui ne sont pas alignés sur les valeurs humaines – pensez à Skynet des films Terminator – à l’utilisation de plus en plus courante de systèmes d’armes autonomes létaux, que les activistes appellent parfois «robots tueurs». Et puis il y a le scénario quelque part entre les deux: la possibilité d’utiliser l’IA pour décider d’utiliser des armes nucléaires, de donner l’ordre d’un bombardement nucléaire et de l’exécuter.

Share the Post: