Avec l’IA, comme dans tout autre domaine, les histoires ont de l’importance. Les mythes ont de l’importance. Les entreprises d’IA adorent la narration de l’IA comme une course aux armements – cela justifie leur hâte de commercialiser. Mais cela laisse les gens penser que nous devons peut-être nous précipiter pour développer une IA avancée, même si cela pourrait augmenter les chances de l’extinction de l’humanité. Katja Grace ne croit pas à ce mythe. En tant que chercheuse principale d’AI Impacts, un projet de sécurité IA au sein de l’Institut de recherche en intelligence artificielle (MIRI), Grace a fait valoir que l’IA n’est pas en fait une course aux armements. En mai, elle a écrit un article dans Time, faisant valoir que «la situation de l’IA est différente de manière cruciale. Notamment, dans la course aux armements classique, une partie pourrait toujours théoriquement prendre l’avantage et gagner. Mais avec l’IA, le vainqueur peut être l’IA elle-même. Cela peut rendre la course une mauvaise idée.» De plus, note-t-elle, si un laboratoire ou une nation prend le temps de résoudre certains problèmes de sécurité liés à l’IA au lieu de se précipiter, d’autres laboratoires ou nations peuvent adopter ces améliorations, ce qui serait bénéfique pour tout le monde. Elle écrit:
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)