« Des milliers d’experts en intelligence artificielle sont divisés sur ce qu’ils ont créé, selon une nouvelle étude. »

En 2016, des chercheurs à AI Impacts, un projet qui vise à améliorer la compréhension du développement de l’intelligence artificielle avancée, ont publié une enquête auprès de chercheurs en apprentissage automatique. On leur a demandé quand ils s’attendaient au développement de systèmes d’IA comparables aux humains sous de nombreux aspects, ainsi que s’ils prévoyaient des résultats positifs ou négatifs suite à une telle réalisation. La conclusion principale : Le répondant médian a donné une probabilité de 5 pour cent qu’une IA de niveau humain entraîne des résultats “extrêmement mauvais, par exemple l’extinction de l’espèce humaine.” Cela signifie que la moitié des chercheurs ont donné une estimation plus élevée que 5 pour cent, indiquant qu’ils considéraient très probable que l’IA puissante puisse causer l’extinction de l’espèce humaine et que l’autre moitié a donné une estimation plus basse. (L’autre moitié pensait évidemment que la probabilité était négligeable.) Si c’était vrai, cela serait sans précédent. Dans quel autre domaine des chercheurs modérés, du point de vue de la moyenne, affirment-ils que le développement d’une technologie plus puissante – une sur laquelle ils travaillent directement – a une probabilité de 5 pour cent de mettre fin à la vie humaine sur Terre pour toujours? Chaque semaine, nous explorons des solutions uniques à certains des plus grands problèmes mondiaux. Vérifiez votre boîte de réception pour un email de bienvenue.

Share the Post: