Sam Altman, le PDG d’OpenAI, la société derrière ChatGPT, a écrit un article sur son blog personnel intitulé L’Ère de l’Intelligence. L’article porte sur sa vision de l’avenir de l’IA et, en plus de quelques prédictions raisonnables, il contient également des affirmations sérieusement extravagantes, allant de l’intelligence artificielle résolvant toute la physique à l’atteinte de la superintelligence par l’IA en seulement quelques milliers de jours à partir de maintenant.
Altman fait beaucoup d’affirmations, mais ont-elles une quelconque base dans la réalité, et quel est le véritable but de cet article? Nous examinons certaines des affirmations centrales pour voir si elles résistent à l’examen. Enfin, l’IA peut correctement compter les « R » dans fraise.
C’est l’une des affirmations les plus extravagantes de tout l’article, alors assurons-nous d’être précis. L’article d’Altman contient l’affirmation suivante : « Il est possible que nous ayons la superintelligence dans quelques milliers de jours (!) ; cela pourrait prendre plus de temps, mais je suis convaincu que nous y parviendrons. »
Quelques milliers de jours est une prédiction assez vague, mais dix ans entrerait dans cette fourchette. Il y a dix ans, la plupart d’entre nous n’avaient jamais entendu parler de l’IA générative, et il est juste de dire que les chatbots IA ont explosé sur la scène avec des capacités impressionnantes. Mais passer de là à la superintelligence en dix ans, ou même vingt, est extrêmement improbable, pour le moins que l’on puisse dire.
Il y a déjà trente ans, les programmes informatiques utilisant l’apprentissage automatique étaient capables de battre des joueurs professionnels de Go sans handicap. En 2017, AlphaGo de Google a battu le numéro un mondial. Le Go est considéré comme plus difficile pour les machines que les échecs ; DeepBlue a battu Garry Kasparov, le champion du monde d’échecs en titre, dès 1997.
L’apprentissage automatique était déjà capable de produire des résultats impressionnants il y a près de 30 ans. Les outils d’IA modernes sont tout aussi impressionnants, mais ils restent très limités, de nombreux chatbots IA actuellement populaires étant encore incapables de vous dire correctement combien de fois la lettre R apparaît dans le mot fraise. Même le nouveau modèle o1 d’OpenAI, doté de capacités de raisonnement améliorées, a mis sept secondes pour arriver à la bonne réponse, ce qui est plus lent qu’un petit enfant. S’attendre à passer de là où nous en sommes aujourd’hui à la superintelligence en seulement quelques milliers de jours relève de l’exagération maximale.
C’est une autre raison fondamentale pour laquelle l’objectif de la superintelligence est probablement bien plus éloigné que ce qu’Altman prédit. Dans son article, il affirme que l’IA va s’améliorer à grande échelle, et jusqu’à présent, cela est démontrablement vrai. Plus de données d’entraînement et plus de calcul conduisent à des modèles supérieurs capables de surpasser les modèles précédents.
Cependant, il y a un problème majeur. Nous arrivons rapidement à court de données d’entraînement, qui ne sont disponibles qu’en quantité limitée. Bien que la quantité d’informations disponibles pour entraîner les modèles IA soit vaste, elle n’est pas infinie, et nous atteignons déjà le point où plus est nécessaire.
Le problème est que la seule solution viable jusqu’à présent est d’utiliser des données synthétiques. Il s’agit de données générées par l’IA à partir de données réelles. En d’autres termes, l’IA atteint le point où elle doit s’entraîner sur des données qu’elle génère elle-même.
Si nous arrivons déjà au point où les données synthétiques sont nécessaires, il semble probable que les progrès de l’IA en termes d’échelle vont ralentir. Les ordinateurs peuvent devenir plus rapides et plus puissants, mais sans données utiles, le développement de l’IA va commencer à stagner.
Où commencer avec cette affirmation ? Regardons exactement ce qu’Altman a écrit. Bien que cela se produira de manière progressive, des triomphes étonnants – régler le climat, établir une colonie dans l’espace et découvrir toute la physique – deviendront éventuellement monnaie courante. Avec une intelligence presque illimitée et une énergie abondante – la capacité de générer de grandes idées et de les concrétiser – nous pouvons faire pas mal de choses.
Régler le climat ? Il n’est pas inconcevable que l’IA puisse contribuer à de nombreuses sciences liées au changement climatique, comme prédire les hausses de température ou modéliser l’impact de la réduction des émissions causées par l’homme. Elle pourrait même aider les scientifiques à trouver de nouvelles façons de traiter le problème. Il est très peu probable que l’IA résolve le problème toute seule, mais elle peut certainement être un outil utile.
Il en va de même pour l’établissement d’une colonie dans l’espace. L’IA peut être utile de nombreuses manières, que ce soit en aidant à concevoir des vaisseaux spatiaux et des habitats ou en prédisant les facteurs de risque potentiels et leur probabilité. Encore une fois, l’IA ne va pas construire une colonie sur Mars seule, mais elle peut être un outil utile.
En revanche, la découverte de toute la physique ? Sérieusement ? De nombreux scientifiques pensent que découvrir des règles qui contiennent toute la physique n’est jamais possible, encore moins à la portée de l’IA. En mathématiques, les théorèmes d’incomplétude de Gödel semblent montrer qu’il n’existe pas de système cohérent d’axiomes (vérités mathématiques) pouvant être utilisé pour prouver toutes les affirmations sur les nombres naturels. S’il n’est pas possible de créer un ensemble cohérent de règles pour décrire toute les mathématiques, qui est la base de la physique, découvrir toute la physique semble hautement improbable.
Voici une autre affirmation bizarre. Regardons exactement ce que Altman a dit. Avec ces nouvelles capacités, nous pouvons avoir une prospérité partagée à un degré qui semble inimaginable aujourd’hui ; à l’avenir, la vie de chacun peut être meilleure que celle de quiconque aujourd’hui. La prospérité seule ne rend pas nécessairement les gens heureux – il y a beaucoup de riches malheureux – mais cela améliorerait sensiblement la vie des gens à travers le monde.
Donc, nous allons tous voir une prospérité accrue, au point que la vie de chacun pourrait être meilleure que celle de quiconque aujourd’hui. Sérieusement ? En 2023, le footballeur Cristiano Ronaldo a gagné plus de 200 millions de dollars juste avec son salaire, sans compter ses lucratifs contrats de sponsoring. Il y a un être humain qui est payé 200 millions de dollars par an pour jouer au sport une fois par semaine, parfois deux fois, et Altman affirme que la vie de chacun peut être meilleure que cela.
Je ne suis pas économiste, mais il semble y avoir une autre faille ici. Si tout le monde était milliardaire, l’argent ne deviendrait-il pas incroyablement dévalué ? Le papier toilette coûterait 5 millions de dollars, car ce serait une broutille pour tous les milliardaires.
Toutes les affirmations de l’article d’Altman ne sont cependant pas aussi extravagantes. Il affirme également que les modèles d’IA serviront d’assistants personnels autonomes, et cela semble être quelque chose que nous verrons plus tôt que tard.
Des assistants personnels comme Siri existent depuis longtemps et l’IA ne fera que les améliorer. Il n’est pas difficile d’imaginer un assistant virtuel capable de planifier votre rendez-vous chez le dentiste ou de vous réserver une coupe de cheveux sans votre intervention. Ce n’est pas tout à fait le même défi que de résoudre toute la physique.
Ce n’est pas vraiment une prédiction, car cela se produit déjà. Si vous utilisez Duolingo sans abonnement, vous êtes bien trop familiarisé avec les innombrables publicités promouvant Duolingo Max, qui inclut des fonctionnalités d’IA pour vous aider à apprendre la langue de votre choix.
Les applications utilisant l’IA pour nous aider à apprendre des matières spécifiques sont déjà là, et les tuteurs virtuels ne sont que la prochaine étape de ce voyage. Toutefois, les entreprises d’IA vont devoir trouver un moyen de gérer les hallucinations.
Il semble étrange que le PDG d’une grande entreprise écrive un tel article extravagant, avec des affirmations énormément exagérées sur la résolution de toute la physique et la création de la superintelligence en quelques années. Cela pourrait être perçu comme un article provocateur pour susciter l’intérêt pour les produits d’OpenAI, mais le contenu de l’article indique que c’est plus que cela.
Altman parle beaucoup du calcul et de l’énergie. Voici quelques exemples. À partir de là, le chemin de l’Ère de l’Intelligence est pavé de calcul, d’énergie et de volonté humaine. Avec une intelligence presque illimitée et une énergie abondante – la capacité de générer de grandes idées et de les concrétiser – nous pouvons faire pas mal de choses. À un degré choquant de précision, plus il y a de calcul et de données disponibles, plus il est apte à aider les gens à résoudre des problèmes difficiles.
Cependant, c’est la section suivante qui met en perspective la véritable intention derrière l’article. Si nous voulons mettre l’IA entre les mains du plus grand nombre, nous devons faire baisser le coût du calcul et le rendre abondant (ce qui nécessite beaucoup d’énergie et de puces). Si nous ne construisons pas suffisamment d’infrastructures, l’IA sera une ressource très limitée autour de laquelle des guerres éclateront et qui deviendra principalement un outil pour les riches.
Il n’est pas étonnant qu’OpenAI ait besoin de plus de calcul pour construire des modèles d’IA plus puissants, et qu’ils aient besoin de plus de puissance. Les deux sont coûteux, et les deux sont actuellement très nocifs pour l’environnement. Il semble que le véritable but de cet article est de mettre en avant les avantages de l’IA qui viendront avec plus d’énergie et plus de calcul. Altman plaide en faveur de la construction d’infrastructures encore plus puissantes pour développer l’IA, ce qui aura inévitablement des conséquences significatives. Il semble que l’IA aura intérêt à résoudre rapidement la crise climatique.