Avec l’IA comme avec tout le reste, les histoires ont de l’importance. Les mythes ont de l’importance. Les entreprises d’IA adorent la narration de l’IA en tant que course aux armements – cela justifie leur ruée vers le marché. Mais cela laisse les gens penser que peut-être nous devons avancer rapidement dans le développement de l’IA avancée même si cela pourrait augmenter les chances d’extinction humaine. Katja Grace n’adhère pas à ce mythe. En tant que chercheuse principale chez AI Impacts, un projet de sécurité de l’IA au sein de l’Institut de recherche sur l’intelligence artificielle sans but lucratif, Grace a soutenu que l’IA n’est pas réellement une course aux armements. En mai, elle a écrit un article dans Time affirmant que « la situation de l’IA est différente de manière cruciale. Notamment, dans la course aux armements classique, une partie pourrait toujours théoriquement prendre de l’avance et gagner. Mais avec l’IA, le gagnant peut être l’IA avancée elle-même. Cela peut faire précipiter le coup perdant. » De plus, elle note que si un laboratoire ou une nation prend le temps de résoudre certains problèmes de sécurité de l’IA au lieu de précipiter les choses, d’autres laboratoires ou nations pourraient adopter ces améliorations, ce qui profiterait à tout le monde. Elle écrit : ‘
‘Tout ce que vous devez savoir pour commencer à affiner les LLMs dans l’intimité de votre maison’
‘Les modèles de langage de grande taille (LLMs) démontrent des capacités étonnantes dans la création de texte et la synthèse