« Des milliers d’experts en IA sont partagés quant à ce qu’ils ont créé, indique une nouvelle étude. »

En 2016, les chercheurs de AI Impacts, un projet visant à améliorer la compréhension du développement de l’IA avancée, ont publié une enquête auprès des chercheurs en apprentissage automatique. On leur a demandé quand ils s’attendaient au développement de systèmes d’IA comparables aux humains sur de nombreux aspects, ainsi que s’ils prévoyaient des résultats bons ou mauvais d’une telle réalisation. La conclusion principale : le répondant médian a donné une chance de 5 pour cent à une IA de niveau humain conduisant à des résultats « extrêmement mauvais, par exemple l’extinction humaine ». Cela signifie que la moitié des chercheurs ont donné une estimation supérieure à 5 pour cent en disant qu’ils considéraient extrêmement probable que l’IA puissante conduirait à l’extinction humaine et la moitié a donné une estimation inférieure. (L’autre moitié, semble-t-il, croyait que la chance était négligeable.) Si c’est vrai, cela serait sans précédent. Dans quel autre domaine des chercheurs modérés et du courant principal affirment-ils que le développement d’une technologie plus puissante – sur laquelle ils travaillent directement – a une chance de 5 pour cent de mettre fin à la vie humaine sur Terre pour toujours ? Chaque semaine, nous explorons des solutions uniques à certains des plus grands problèmes mondiaux. Vérifiez vos courriers électroniques pour un e-mail de bienvenue.

Share the Post: