Les derniers modèles de génération de code de Google, AlphaCode 2 alimenté par son système Gemini Pro et faisant sa première apparition publique mercredi, ont obtenu un score supérieur au 99,5% des participants à des concours de programmation en ligne. Les chercheurs de Google DeepMind ont affiné Gemini Pro sur un jeu de données pour améliorer ses capacités de résolution de problèmes et créer AlphaCode 2. Le jeu de données contenait environ 15 000 problèmes provenant du site de programmation concurrentiel CodeForces et 30 millions d’échantillons de code écrits par des humains. Le modèle a été affiné davantage sur un jeu de données supplémentaire de « meilleure qualité », mais il n’est pas vraiment clair quel type de données a été utilisé ou combien exactement, selon les rares détails fournis dans le rapport technique (PDF). Lorsqu’AlphaCode 2 a été testé sur 77 problèmes répartis sur 12 concours CodeForces, où il a été confronté à plus de 8 000 programmeurs au total, il a réussi à en résoudre 43%. AlphaCode 2 a soumis ses réponses en C ++. Pour comparaison, le précédent système AlphaCode a résolu 25% d’un autre ensemble de problèmes également définis par CodeForces. « En mappant cela sur les classements de concours, nous estimons qu’AlphaCode 2 se situe au 85e percentile en moyenne, c’est-à-dire qu’il fonctionne mieux que 85% des participants, classant entre les catégories « Expert » et « Candidate Master » sur Codeforces », ont affirmé les chercheurs.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du