« Ce que deux ans de développement de l’IA peuvent nous dire sur Sora »

Souvenez-vous quand les générateurs d’art par IA sont devenus largement disponibles en 2022 et soudainement, l’internet était rempli d’images étranges qui étaient très cool mais qui ne semblaient pas tout à fait correctes en y regardant de plus près ? Préparez-vous à ce que cela se reproduise — mais cette fois-ci avec des vidéos. La semaine dernière, OpenAI a sorti Sora, un modèle d’IA générative qui produit des vidéos basées sur une simple demande. Il n’est pas encore disponible pour le grand public, mais le PDG Sam Altman a démontré ses capacités en prenant des demandes sur X, anciennement connu sous le nom de Twitter. Les utilisateurs répondaient avec de courtes demandes : « un singe jouant aux échecs dans un parc », ou « une course de vélos sur l’océan avec différents animaux en tant qu’athlètes ». C’est étrange, hypnotisant, bizarre, beau — et suscite le cycle habituel de commentaires. Certains font des affirmations péremptoires sur les effets négatifs de Sora, s’attendant à une « vague de désinformation » — mais alors que je (et les experts) pensons que les futurs systèmes IA puissants posent de réels risques, les affirmations selon lesquelles un modèle spécifique provoquera une vague de désinformation ne se sont pas encore concrétisées. D’autres soulignent les nombreuses failles de Sora en les considérant comme des limitations fondamentales de la technologie — comme cela a été une erreur lorsque les gens l’ont fait avec des modèles de génération d’images et comme je le soupçonne, ce sera encore une erreur. Comme l’a souligné ma collègue A.W. Ohlheiser, « tout comme DALL-E et ChatGPT se sont améliorés avec le temps, il en va de même pour Sora ». Les prédictions, à la fois optimistes et pessimistes, pourraient se concrétiser — mais la discussion autour de Sora et de l’IA générative serait plus productive si les gens de tous bords tenaient davantage compte de toutes les manières dont nous avons été prouvés tort ces dernières années. Il y a deux ans, OpenAI a annoncé DALL-E 2, un modèle capable de produire des images fixes à partir d’une demande textuelle. Les images fantastiques en haute résolution qu’il a produites ont rapidement envahi les réseaux sociaux, tout comme les avis sur ce qu’il fallait en penser : Art réel ? Faux art ? Une menace pour les artistes ? Un outil pour les artistes ? Une machine à désinformation ? Deux ans plus tard, il est bon de faire un peu de rétrospective si nous voulons que nos avis sur Sora vieillissent bien.

Share the Post: