« Des milliers d’experts en intelligence artificielle sont déchirés par ce qu’ils ont créé, selon une nouvelle étude. »

En 2016, les chercheurs d’AI Impacts, un projet visant à améliorer la compréhension du développement de l’IA avancée, ont publié une enquête auprès de chercheurs en apprentissage automatique. On leur a demandé quand ils prévoyaient le développement de systèmes d’IA comparables à ceux des humains sur de nombreux aspects, ainsi que s’ils s’attendaient à des résultats positifs ou négatifs d’une telle réalisation. Le résultat principal : Le répondant médian a donné une chance de 5 pour cent qu’une IA de niveau humain conduise à des résultats « extrêmement mauvais, par exemple l’extinction humaine ». Cela signifie que la moitié des chercheurs ont donné une estimation plus élevée que 5 pour cent en indiquant qu’ils considéraient très probable que l’IA puissante mène à l’extinction humaine, et l’autre moitié a donné une estimation inférieure. (L’autre moitié, évidemment, a considéré que la chance était négligeable.) Si c’est vrai, cela serait sans précédent. Dans quel autre domaine des chercheurs modérés et neutres affirment-ils que le développement d’une technologie plus puissante – sur laquelle ils travaillent directement – a 5 pour cent de chance de mettre fin à la vie humaine sur Terre pour toujours ? Chaque semaine, nous explorons des solutions uniques à certains des plus grands problèmes du monde. Vérifiez votre boîte de réception pour un e-mail de bienvenue.

Share the Post: