« Pourquoi j’ai laissé un chatbot IA s’entraîner sur mon livre »

Quatre ans auparavant, j’ai publié mon premier livre : End Times : A Brief Guide to the End of the World. Il a eu … okay ? J’ai eu droit à une entrevue avec le site que vous lisez maintenant – merci, Dylan! – et le livre m’a finalement aidé à obtenir le poste de directeur de Future Perfect. J’ai eu une journée où je passais d’une radio à l’autre, essayant de expliquer en segments de cinq minutes aux animateurs de radio de Philadelphie à Phoenix pourquoi nous devrions tous nous inquiéter davantage du risque de l’extinction de l’humanité et ce que nous pouvions faire pour l’empêcher. Mais un best-seller, ce n’était pas. Disons-le simplement – environ tous les six mois, je reçois une lettre de mon éditeur contenant une « déclaration de droits d’auteur non payés », ce qui est un peu comme recevoir une carte de Noël de vos parents, seulement au lieu d’argent, elle contient une note vous indiquant combien ils ont dépensé pour vous élever. Je dois donc admettre que j’étais un peu content quand j’ai reçu un e-mail il y a quelques mois de la part des gens de aisafety.info, qui ont pour objectif de créer un centre central pour expliquer les questions relatives à la sécurité et à l’alignement de l’IA – comment rendre l’IA responsable des objectifs humains – à un public en général. A cette fin, ils construisaient un grand modèle linguistique – avec le charmant nom de « Stampy » – qui pourrait agir en tant que chatbot, répondant aux questions que les gens pourraient se poser sur le sujet. (Le site vient d’être lancé en douceur, tandis que Stampy est toujours en phase de prototype.) Et ils me demandaient la permission d’utiliser mon livre End Times, qui contient un long chapitre sur les risques existentiels de l’IA, comme partie des données sur lesquelles Stampy serait formé. Ma première pensée, comme tout auteur : quelqu’un a vraiment lu (ou au moins est conscient de l’existence de) mon livre! Mais ensuite j’ai eu une deuxième pensée : en tant qu’écrivain, que signifie-t-il de permettre à un chatbot d’être formé sur son propre travail? (Et gratuitement, en plus.) Contribuais-je à un projet qui pourrait aider les gens à mieux comprendre un sujet complexe et important comme la sécurité de l’IA? Ou bien accélérais-je simplement le processus de mon propre obsolescence?

Share the Post: