Pourquoi j’ai laissé un chatbot IA s’entraîner sur mon livre

Il y a quatre ans, j’ai publié mon premier livre: End Times: A Brief Guide to the End of the World. Ca allait … bien? J’ai eu droit à une entrevue avec le site que vous lisez en ce moment – merci, Dylan! – et le livre m’a finalement aidé à décrocher le poste de rédacteur en chef de Future Perfect. J’ai eu une journée où je passais d’une émission radio à l’autre, essayant d’expliquer en segments de cinq minutes aux animateurs de radio matinaux de Philadelphie à Phoenix pourquoi nous devrions tous nous inquiéter davantage du risque de l’extinction de l’espèce humaine et ce que nous pouvons faire pour l’empêcher. Mais ce n’était pas un best-seller. Disons-le comme ceci: environ tous les six mois, je reçois une lettre de mon éditeur contenant un « état de royalties non payé », ce qui est un peu comme recevoir une carte de Noël de vos parents, sauf qu’au lieu d’argent, elle ne contient qu’une note vous disant combien ils ont dépensé pour vous élever. J’avoue donc que j’étais un peu content quand j’ai reçu un email il y a quelques mois de la part des gens de aisafety.info, qui ont pour objectif de créer un point central pour expliquer les questions sur la sécurité des IA et l’alignement des IA – comment rendre les IA responsables des objectifs humains – à un public large. À cette fin, ils construisaient un grand modèle linguistique – avec le délicieux nom de « Stampy » – qui pourrait agir comme un chatbot, répondant aux questions que les gens se poseraient sur le sujet. (Le site vient d’être lancé en douceur, tandis que Stampy est toujours en phase de prototype.) Et ils me demandaient la permission d’utiliser mon livre End Times, qui contient un long chapitre sur les risques existentiels liés aux IA, comme partie des données sur lesquelles Stampy serait formé. Ma première pensée, comme celle de tout auteur: quelqu’un a vraiment lu (ou est au moins au courant de l’existence de) mon livre! Mais ensuite, j’ai eu une deuxième pensée: en tant qu’écrivain, qu’est-ce que cela signifie de permettre à un chatbot d’être formé sur son propre travail? (Et gratuitement, en plus.) Contribuais-je à un projet qui pourrait aider les gens à mieux comprendre un sujet complexe et important comme la sécurité des IA? Ou bien accélérais-je simplement le processus de mon propre obsolescence?

Share the Post: