Stuart Russell a écrit le manuel sur la sécurité de l’IA. Il explique comment l’empêcher de spirale hors de contrôle.

L’une des parties les plus difficiles du travail des journalistes est de trouver un équilibre entre couvrir des histoires qui semblent importantes dans le moment et couvrir des histoires qui auront vraiment un impact à l’avenir. Et c’est dur parce que les choses les plus importantes qui se passent en ce moment sont souvent ennuyeuses ou difficiles à expliquer. L’intelligence artificielle en est un bon exemple. La révolution en cours de l’IA se déroule si rapidement qu’il est difficile de suivre, même si vous essayez. Chat GPT-4, par exemple, a été lancé en mars de cette année et a étonné presque tous ceux qui l’ont utilisé. Si ce dernier grand modèle de langage est un signe de ce qui va arriver, il est facile de s’imaginer toutes les manières dont il pourrait changer le monde – et puis toutes les manières dont il pourrait changer le monde que nous ne pouvons pas imaginer. Alors, qu’avons-nous besoin de savoir à propos de l’IA maintenant? Quelles sont les questions que nous devrions nous poser? Et comment devrions-nous nous préparer à ce qui va arriver? Pour obtenir des réponses, j’ai invité Stuart Russell sur The Gray Area. Russell est professeur de informatique à l’université de Californie à Berkeley et l’auteur de Human Compatible: Artificial Intelligence and the Problem of Control. Il était l’un des signataires d’une lettre ouverte en mars appelant à une pause de six mois sur l’entraînement en IA. Nous discutons des risques et des bénéfices potentiels de l’IA et de savoir s’il croit que nous pouvons construire des systèmes d’IA qui s’alignent avec nos valeurs et nos intérêts. Ci-dessous est un extrait de notre conversation, édité pour sa longueur et sa clarté. Comme toujours, il y a beaucoup plus dans le podcast complet, alors écoutez et suivez The Gray Area sur Apple Podcasts, Google Podcasts, Spotify, Stitcher ou là où vous trouvez des podcasts. Les nouveaux épisodes sortent tous les lundis.

Share the Post: