Pourquoi j’ai laissé un chatbot IA s’entraîner sur mon livre

Quatre ans ago, j’ai publié mon premier livre: End Times: A Brief Guide to the End of the World. Ce n’était pas mal? J’ai eu droit à une entrevue avec le site que vous lisez en ce moment – merci, Dylan! – et le livre m’a finalement aidé à obtenir le poste de directeur de Future Perfect. J’avais une journée où je passais d’une émission de radio à une autre, essayant d’expliquer en segments de cinq minutes aux animateurs de radio du matin de Philadelphie à Phoenix pourquoi nous devrions tous nous inquiéter davantage du risque de l’extinction de l’humanité et ce que nous pourrions faire pour l’empêcher. Mais ce n’était pas un best-seller. Disons simplement que tous les six mois, je reçois une lettre de mon éditeur contenant une « déclaration de royalties non payées », qui est un peu comme de recevoir une carte de Noël de vos parents, sauf qu’au lieu de l’argent, il contient juste une note vous disant combien ils ont dépensé pour vous élever. J’avoue donc que j’étais un peu fier quand j’ai reçu un email il y a quelques mois de la part des gens de aisafety.info, qui ont pour objectif de créer un centre central pour expliquer les questions concernant la sécurité des IA et l’alignement des IA – comment rendre les IA responsables des objectifs humains – à un public plus large. À cet effet, ils construisaient un grand modèle de langage – avec le délicieux nom de « Stampy » – qui pouvait agir en tant que chatbot, répondant aux questions que les gens peuvent se poser sur le sujet. (Le site vient d’être lancé en soft, tandis que Stampy est toujours en phase de prototype.) Et ils me demandaient la permission d’utiliser mon livre End Times, qui contient un long chapitre sur les risques existentiels liés aux IA, comme partie des données sur lesquelles Stampy serait formé. Ma première pensée, comme celle de tout auteur: quelqu’un a vraiment lu (ou au moins est au courant de l’existence de) mon livre! Mais ensuite, j’ai eu une seconde pensée: en tant qu’écrivain, que signifie-t-il de permettre à un chatbot d’être formé sur son propre travail? (Et gratuitement, en plus.) Contribuais-je à un projet qui pourrait aider les gens à mieux comprendre un sujet complexe et important comme la sécurité des IA? Ou bien étais-je en train de hâter le processus de mon propre obsolescence?

Share the Post: