Il y a quatre ans, j’ai publié mon premier livre: La fin des temps: un court guide de la fin du monde. Ca allait … bien? J’ai eu droit à une entrevue sur le site que vous êtes en train de lire – merci, Dylan! – et le livre m’a finalement aidé à décrocher le job de rédacteur en chef de Future Perfect. J’ai eu une journée où je suis passé d’une émission de radio à l’autre, essayant d’expliquer en segments de cinq minutes aux animateurs de radio du matin de Philadelphie à Phoenix pourquoi nous devrions tous nous inquiéter davantage du risque de l’extinction de l’humanité et ce que nous pouvons faire pour l’empêcher. Mais un best-seller, ce n’était pas. Mettons les choses ainsi – environ tous les six mois, je reçois une lettre de mon éditeur contenant un « rapport de redevance impayée », ce qui ressemble un peu à recevoir une carte de Noël de vos parents, seulement au lieu d’argent, il contient juste une note vous disant combien ils ont dépensé pour vous élever. J’avoue donc que j’étais un peu ravi quand j’ai reçu un email il y a quelques mois de la part des gens de aisafety.info, qui ont pour objectif de créer un centre central pour expliquer les questions relatives à la sécurité et à l’alignement de l’IA – comment rendre l’IA responsable des objectifs humains – à un public large. À cette fin, ils construisaient un grand modèle linguistique – avec le charmant nom de « Stampy » – qui pourrait agir en tant que chatbot, répondant aux questions que les gens pourraient se poser sur le sujet. (Le site vient d’être lancé en douceur, tandis que Stampy est toujours en phase de prototype.) Et ils me demandaient la permission d’utiliser mon livre La fin des temps, qui contient un long chapitre sur les risques existentiels de l’IA, comme partie des données sur lesquelles Stampy serait formé. Ma première pensée, comme pour tout auteur: quelqu’un a vraiment lu (ou au moins est conscient de l’existence de) mon livre! Mais ensuite j’ai eu une seconde pensée: en tant qu’écrivain, que signifie-t-il de permettre à un chatbot d’être formé sur son propre travail? (Et gratuitement, en plus.) Contribuais-je à un projet qui pourrait aider les gens à mieux comprendre un sujet complexe et important comme la sécurité de l’IA? Ou bien accélérais-je simplement le processus de mon propre obsolescence?
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du