Le dernier modèle de génération de code de Google, AlphaCode 2, alimenté par son système Gemini Pro et faisant sa première apparition publique mercredi, aurait obtenu un score supérieur au 99,5% des participants à des concours de programmation en ligne. Les chercheurs de Google DeepMind ont affiné Gemini Pro sur un ensemble de données pour améliorer ses capacités de résolution de problèmes et créer AlphaCode 2. Le jeu de données contenait environ 15 000 problèmes tirés du site de programmation compétitive CodeForces et 30 millions d’échantillons de code écrits par des humains. Le modèle a été affiné davantage sur un autre ensemble de données de « meilleure qualité », mais il n’est pas vraiment clair quel type de données a été utilisé ou combien exactement, selon les maigres détails du rapport technique [PDF]. Lorsque AlphaCode 2 a été testé sur 77 problèmes répartis sur 12 concours CodeForces – où il a affronté plus de 8 000 programmeurs au total – il en a résolu 43%. AlphaCode 2 a soumis ses réponses en C ++. En comparaison, le précédent système AlphaCode a résolu 25% d’un autre ensemble de problèmes également définis par CodeForces. « En le comparant aux classements de la compétition, nous estimons que AlphaCode 2 se situe à la 85e percentile en moyenne, c’est-à-dire qu’il fonctionne mieux que 85 [pour cent des participants], classant juste entre les catégories « Expert » et « Candidate Master » sur Codeforces », ont affirmé les chercheurs.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du