Avec l’IA comme avec tout le reste, les histoires comptent. Les mythes comptent. Les entreprises d’IA adorent le récit de l’IA comme course aux armements – cela justifie leur hâte de se lancer sur le marché. Mais cela laisse les gens penser que peut-être nous devons nous précipiter pour développer une IA avancée même si cela pourrait augmenter les risques d’extinction de l’humanité. Katja Grace n’achète pas ce mythe. En tant que chercheuse principale d’AI Impacts, un projet de sécurité IA au sein de l’Institut de recherche en intelligence artificielle, Grace a fait valoir que l’IA n’était pas en fait une course aux armements. En mai, elle a écrit un article dans Time argumentant que «la situation de l’IA est différente de manière cruciale. Notamment, dans la course aux armements classique, une partie pourrait toujours théoriquement prendre l’avantage et gagner. Mais avec l’IA, le vainqueur peut être l’IA elle-même. Cela peut rendre la course une mauvaise idée. » De plus, note-t-elle, si un laboratoire ou une nation prend le temps de résoudre certains problèmes de sécurité de l’IA au lieu de se précipiter, d’autres laboratoires ou nations peuvent reprendre ces améliorations, ce qui serait bénéfique pour tout le monde. Elle écrit:
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation