En 2016, des chercheurs chez AI Impacts, un projet visant à améliorer la compréhension du développement de l’IA avancée, ont publié une enquête auprès de chercheurs en apprentissage automatique. On leur a demandé quand ils s’attendaient au développement de systèmes d’IA comparables à l’humain dans de nombreux domaines, ainsi que s’ils s’attendaient à des résultats positifs ou négatifs de cette réalisation. La conclusion principale : Le répondant médian a donné une chance de 5 pour cent à l’IA de niveau humain conduisant à des résultats « extrêmement mauvais, par exemple, une extinction humaine ». Cela signifie que la moitié des chercheurs a donné une estimation supérieure à 5 pour cent, indiquant qu’ils considéraient qu’il était extrêmement probable que l’IA puissante entraînerait l’extinction humaine, tandis que l’autre moitié a donné une estimation inférieure (La moitié restante croyait évidemment que la chance était négligeable). Si cela est vrai, cela serait sans précédent. Dans quel autre domaine des chercheurs modérés et prudents prétendent-ils que le développement d’une technologie plus puissante – une dont ils travaillent directement dessus – a une chance de 5 pour cent de mettre fin à la vie humaine sur Terre pour toujours ? Chaque semaine, nous explorons des solutions uniques à certains des problèmes les plus importants du monde. Vérifiez votre boîte de réception pour un email de bienvenue.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du