Stuart Russell a écrit le manuel sur la sécurité dans l’IA. Il explique comment l’empêcher de spirale hors de contrôle.

L’une des parties les plus difficiles du journalisme est de trouver un équilibre entre les histoires qui semblent importantes dans l’instant et celles qui seront vraiment importantes à l’avenir. Et c’est dur parce que les choses les plus importantes qui se passent en ce moment sont souvent ennuyeuses ou difficiles à expliquer. L’intelligence artificielle est un bon exemple de ce type de défi. La révolution en cours de l’IA se déroule si rapidement qu’il est difficile de suivre, même si vous essayez. Chat GPT-4, par exemple, a été publié en mars de cette année et a presque tout le monde qui l’a utilisé. Si ce dernier grand modèle linguistique est un signe de ce qui se prépare, il est facile d’imaginer toutes les façons dont il pourrait changer le monde – et puis il y a toutes les façons dont il pourrait changer le monde que nous ne pouvons pas imaginer. Alors, de quoi avons-nous besoin de savoir sur l’IA maintenant? Quels sont les questions que nous devrions nous poser? Et comment devrions-nous nous préparer à ce qui se prépare? Pour obtenir des réponses, j’ai invité Stuart Russell sur The Gray Area. Russell est professeur de informatique à l’université de Californie à Berkeley et l’auteur de Human Compatible: Artificial Intelligence and the Problem of Control. Il était l’un des signataires d’une lettre ouverte en mars appelant à une pause de six mois sur l’entraînement en IA. Nous discutons des risques et des avantages potentiels de l’IA et de savoir s’il croit que nous pouvons construire des systèmes d’IA qui s’alignent sur nos valeurs et nos intérêts. Ci-dessous est un extrait de notre conversation, édité pour la longueur et la clarté. Comme toujours, il y a beaucoup plus dans le podcast complet, alors écoutez et suivez The Gray Area sur Apple Podcasts, Google Podcasts, Spotify, Stitcher ou n’importe où vous trouverez des podcasts. Les nouveaux épisodes tombent tous les lundis.

Share the Post: