Les derniers modèles de génération de code de Google – AlphaCode 2, alimenté par son système Gemini Pro et faisant sa première apparition publique mercredi – ont rapporté avoir atteint le 99,5 percentile des participants à des concours de programmation en ligne. Les chercheurs de Google DeepMind ont affiné Gemini Pro sur un ensemble de données pour renforcer ses compétences en résolution de problèmes afin de créer AlphaCode 2. L’ensemble de données contenait environ 15 000 problèmes issus de CodeForces, site de programmation concurrentiel, et 30 millions d’échantillons de code écrits par des humains. Le modèle a été affiné davantage sur un ensemble de données supplémentaire de « meilleure qualité », mais il n’est pas vraiment clair quel type de données a été utilisé ou combien exactement, selon les maigres détails du rapport technique [PDF]. Lorsque AlphaCode 2 a été testé sur 77 problèmes répartis sur 12 concours CodeForces – où il a concouru contre plus de 8 000 programmeurs au total – il en a résolu 43%. AlphaCode 2 a soumis ses réponses en C ++. En comparaison, le précédent système AlphaCode a résolu 25% d’un autre ensemble de problèmes également défini par CodeForces. « En mapping cela sur les classements de compétition, nous estimons qu’AlphaCode 2 se situe au 85ème percentile en moyenne – c’est-à-dire qu’il fonctionne mieux que 85 [pour cent des participants], classé juste entre les catégories ‘Expert’ et ‘Candidate Master’ sur Codeforces », ont affirmé les chercheurs.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du