Des milliers d’experts en IA sont divisés quant à ce qu’ils ont créé, révèle une nouvelle étude.

En 2016, des chercheurs chez AI Impacts, un projet visant à améliorer la compréhension du développement de l’IA avancée, ont publié une enquête auprès de chercheurs en apprentissage automatique. On leur a demandé quand ils s’attendaient au développement de systèmes d’IA comparables à l’humain dans de nombreux domaines, ainsi que s’ils s’attendaient à des résultats positifs ou négatifs de cette réalisation. La conclusion principale : Le répondant médian a donné une chance de 5 pour cent à l’IA de niveau humain conduisant à des résultats « extrêmement mauvais, par exemple, une extinction humaine ». Cela signifie que la moitié des chercheurs a donné une estimation supérieure à 5 pour cent, indiquant qu’ils considéraient qu’il était extrêmement probable que l’IA puissante entraînerait l’extinction humaine, tandis que l’autre moitié a donné une estimation inférieure (La moitié restante croyait évidemment que la chance était négligeable). Si cela est vrai, cela serait sans précédent. Dans quel autre domaine des chercheurs modérés et prudents prétendent-ils que le développement d’une technologie plus puissante – une dont ils travaillent directement dessus – a une chance de 5 pour cent de mettre fin à la vie humaine sur Terre pour toujours ? Chaque semaine, nous explorons des solutions uniques à certains des problèmes les plus importants du monde. Vérifiez votre boîte de réception pour un email de bienvenue.

Share the Post: