« Des milliers d’experts en intelligence artificielle sont partagés quant à ce qu’ils ont créé, révèle une nouvelle étude. »

En 2016, les chercheurs d’AI Impacts, un projet visant à améliorer la compréhension du développement de l’IA avancée, ont publié une enquête auprès des chercheurs en apprentissage automatique. On leur a demandé quand ils prévoyaient le développement de systèmes d’IA comparables aux humains sur de nombreux aspects, ainsi que s’ils s’attendaient à des résultats bons ou mauvais de cette réalisation. Le résultat principal : Le répondant médian a donné une chance de 5 pour cent à une IA de niveau humain entraînant des résultats « extrêmement mauvais, par exemple l’extinction de l’humanité. » Cela signifie que la moitié des chercheurs ont donné une estimation plus élevée que 5 pour cent, affirmant qu’ils considéraient très probable que l’IA puissante entraînerait l’extinction de l’humanité, tandis que l’autre moitié a donné une estimation inférieure. (L’autre moitié, évidemment, croyait que la chance était négligeable.) Si c’est vrai, ce serait sans précédent. Dans quel autre domaine des chercheurs modérés, du juste milieu affirment-ils que le développement d’une technologie plus puissante – sur laquelle ils travaillent directement – a une chance de 5 pour cent de mettre fin à la vie humaine sur Terre pour toujours ? Chaque semaine, nous explorons des solutions uniques à certains des plus grands problèmes mondiaux. Vérifiez votre boîte de réception pour un e-mail de bienvenue.

Share the Post: