« Des milliers d’experts en intelligence artificielle sont divisés sur ce qu’ils ont créé, indique une nouvelle étude. »

En 2016, les chercheurs chez AI Impacts, un projet qui vise à améliorer la compréhension du développement de l’IA avancée, ont publié une enquête auprès des chercheurs en apprentissage automatique. On leur a demandé à quel moment ils s’attendaient au développement de systèmes d’IA comparables à ceux des humains sur de nombreux aspects, ainsi que s’ils s’attendaient à des résultats bons ou mauvais de cette réalisation. La conclusion principale : Le répondant médian a donné une probabilité de 5 pour cent qu’une IA de niveau humain entraîne des résultats « extrêmement mauvais, tels que l’extinction humaine ». Cela signifie que la moitié des chercheurs ont donné une estimation plus élevée que 5 pour cent en affirmant qu’ils considéraient qu’il était extrêmement probable qu’une IA puissante entraîne l’extinction humaine, et la moitié a donné une estimation plus basse. (L’autre moitié croyait évidemment que la probabilité était négligeable.) Si cela est vrai, cela serait sans précédent. Dans quel autre domaine des chercheurs modérés et du juste milieu prétendent-ils que le développement d’une technologie plus puissante – sur laquelle ils travaillent directement – présente une probabilité de 5 pour cent de mettre fin à la vie humaine sur Terre pour toujours ? Chaque semaine, nous explorons des solutions uniques à certains des plus grands problèmes du monde. Vérifiez votre boîte de réception pour un e-mail de bienvenue.

Share the Post: