Le 22 novembre, quelques jours après le licenciement (puis le réengagement) du PDG Sam Altman par OpenAI, The Information a rapporté qu’OpenAI avait fait une percée technique qui lui permettrait de « développer des modèles d’intelligence artificielle beaucoup plus puissants ». Appelé Q * (et prononcé « Q star »), le nouveau modèle était « capable de résoudre des problèmes mathématiques qu’il n’avait jamais vus auparavant ». Reuters a publié une histoire similaire, mais les détails étaient vagues. Les deux organes de presse ont lié cette prétendue percée à la décision du conseil d’administration de licencier Altman. Reuters a rapporté que plusieurs employés d’OpenAI ont envoyé au conseil une lettre « mettant en garde contre une importante découverte en intelligence artificielle qu’ils ont déclarée pouvant mettre en danger l’humanité ». Cependant, « Reuters n’a pas pu examiner une copie de la lettre », et les reportages ultérieurs n’ont pas relié le licenciement d’Altman aux inquiétudes concernant Q *. The Information a rapporté qu’au début de cette année, OpenAI avait construit « des systèmes qui pouvaient résoudre des problèmes mathématiques de base, une tâche difficile pour les modèles d’IA existants ». Reuters a décrit Q * comme « effectuant des calculs mathématiques au niveau des élèves du primaire ». Au lieu de me lancer immédiatement dans des spéculations, j’ai décidé de prendre quelques jours pour faire des lectures. OpenAI n’a pas publié de détails sur sa prétendue percée de Q *, mais il a publié deux papiers sur ses efforts pour résoudre des problèmes mathématiques de base. Et un certain nombre de chercheurs en dehors d’OpenAI, y compris ceux de DeepMind de Google, ont effectué un travail important dans ce domaine.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du