« Ce que deux ans de développement de l’IA peuvent nous dire sur Sora »

‘Vous souvenez-vous lorsque les générateurs d’art à intelligence artificielle sont devenus largement disponibles en 2022 et soudainement, internet était rempli d’images étranges qui étaient très cool mais ne semblaient pas tout à fait correctes à l’inspection rapprochée ? Préparez-vous à ce que cela se reproduise — mais cette fois pour les vidéos. La semaine dernière, OpenAI a sorti Sora, un modèle d’IA générative qui produit des vidéos basées sur un simple indice. Il n’est pas encore disponible au public, mais le PDG Sam Altman a démontré ses capacités en prenant des demandes sur X, auparavant connu sous le nom de Twitter. Les utilisateurs ont répondu avec de courtes indications : « un singe jouant aux échecs dans un parc », ou « une course de vélo sur l’océan avec différents animaux en tant qu’athlètes. » C’est étrange, hypnotisant, bizarre, beau — et suscitant le cycle habituel de commentaires. Certains font des affirmations catégoriques sur les effets négatifs de Sora, s’attendant à une « vague de désinformation » — mais alors que moi (et les experts) pensons que les futurs systèmes d’IA puissants présentent des risques très sérieux, les déclarations selon lesquelles un modèle spécifique entraînera une vague de désinformation ne se sont pas concrétisées jusqu’à présent. D’autres pointent du doigt les nombreuses lacunes de Sora en les attribuant comme des limitations fondamentales de la technologie — une erreur commise lors de la critique des modèles de générateurs d’images et qui, je le soupçonne, sera à nouveau une erreur. Comme ma collègue A.W. Ohlheiser l’a souligné, « tout comme DALL-E et ChatGPT se sont améliorés au fil du temps, Sora pourrait également le faire. » Les prédictions, à la fois optimistes et pessimistes, pourraient se réaliser — mais la conversation autour de Sora et de l’IA générative serait plus productive si les personnes de tous bords prenaient en compte les différentes manières dont nous avons été prouvés tort au cours de ces dernières années. Il y a deux ans, OpenAI avait annoncé DALL-E 2, un modèle capable de produire des images fixes à partir d’une indication textuelle. Les images fantastiques en haute résolution qu’il produisait étaient rapidement répandues sur les réseaux sociaux, tout comme les réactions sur ce qu’il fallait en penser : Vrai art ? Faux art ? Une menace pour les artistes ? Un outil pour les artistes ? Une machine à désinformation ? Deux ans plus tard, il est intéressant de faire un peu de rétrospective si nous voulons que nos impressions sur Sora vieillissent mieux.’

Share the Post: