« Ce que deux années de développement de l’IA peuvent nous dire sur Sora »

‘Souvenez-vous quand les générateurs d’art par intelligence artificielle sont devenus largement disponibles en 2022 et soudainement, internet était rempli d’images étranges qui étaient très cool mais ne semblaient pas tout à fait correctes à un examen approfondi ? Préparez-vous à ce que cela se reproduise — mais cette fois pour les vidéos. La semaine dernière, OpenAI a publié Sora, un modèle d’intelligence artificielle générative qui produit des vidéos basées sur une demande simple. Il n’est pas encore disponible pour le public, mais le PDG Sam Altman a montré ses capacités en répondant à des demandes sur X, anciennement connu sous le nom de Twitter. Les utilisateurs ont répondu avec de courtes demandes : « un singe jouant aux échecs dans un parc, » ou « une course de vélos sur l’océan avec différents animaux comme athlètes. » C’est étrange, hypnotisant, bizarre, beau — et cela suscite le cycle habituel de commentaires. Certaines personnes font des affirmations solides sur les effets négatifs de Sora, s’attendant à une « vague de désinformation » — mais tandis que moi (et les experts) pensent que les futurs systèmes d’IA puissants posent de graves risques, les affirmations selon lesquelles un modèle spécifique amènera une vague de désinformation sur nous n’ont pas encore été confirmées. D’autres pointent du doigt les nombreuses lacunes de Sora en tant que représentant des limites fondamentales de la technologie — ce qui était une erreur quand les gens l’ont fait avec les modèles de génération d’images et qui, je le soupçonne, sera une erreur à nouveau. Comme l’a souligné ma collègue A.W. Ohlheiser, « tout comme DALL-E et ChatGPT se sont améliorés avec le temps, Sora pourrait aussi s’améliorer. » Les prédictions, à la fois optimistes et pessimistes, pourraient encore se réaliser — mais la conversation autour de Sora et de l’IA générative serait plus productive si les gens de tous bords tenaient davantage compte de toutes les manières dont nous avons été démontrés avoir tort ces dernières années. Il y a deux ans, OpenAI a annoncé DALL-E 2, un modèle qui pouvait produire des images fixes à partir d’une demande textuelle. Les images fantastiques en haute résolution qu’il produisait étaient rapidement partout sur les réseaux sociaux, tout comme les réflexions sur ce qu’il fallait en penser : Art réel ? Faux art ? Une menace pour les artistes ? Un outil pour les artistes ? Une machine de désinformation ? Deux ans plus tard, il est bon de faire un retour en arrière si nous voulons que nos réflexions sur Sora vieillissent mieux.’

Share the Post: