En 2016, les chercheurs d’AI Impacts, un projet visant à améliorer la compréhension du développement de l’IA avancée, ont publié une enquête auprès de chercheurs en apprentissage automatique. On leur a demandé quand ils s’attendaient au développement de systèmes d’IA comparables aux humains sur de nombreux niveaux, ainsi que s’ils s’attendaient à de bons ou de mauvais résultats d’une telle réalisation. La conclusion principale : Le répondant médian a donné une probabilité de 5 pour cent à l’IA de niveau humain entraînant des résultats « extrêmement mauvais, par exemple l’extinction humaine. » Cela signifie que la moitié des chercheurs ont donné une estimation plus élevée que 5 pour cent en pensant qu’il était extrêmement probable qu’une IA puissante entraînerait l’extinction humaine, et l’autre moitié a donné une estimation plus basse. (L’autre moitié, évidemment, croyait que la probabilité était négligeable.) Si c’est vrai, cela serait sans précédent. Dans quel autre domaine des chercheurs modérés affirment-ils que le développement d’une technologie plus puissante – sur laquelle ils travaillent directement – a 5 pour cent de chances de mettre fin à la vie humaine sur Terre pour toujours ? Chaque semaine, nous explorons des solutions uniques à certains des plus grands problèmes mondiaux. Vérifiez votre boîte de réception pour un e-mail de bienvenue.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du