« Ce que deux années de développement en intelligence artificielle peuvent nous apprendre sur Sora. »

Voici la traduction en français du texte que vous avez fourni : « Vous souvenez-vous de l’année 2022, lorsque les générateurs d’art par intelligence artificielle sont devenus largement disponibles et que soudainement, l’internet a été envahi d’images étranges qui semblaient très cool mais qui n’étaient pas tout à fait correctes lorsqu’on les examinait de près ? Préparez-vous à revivre cette expérience, mais cette fois avec des vidéos. La semaine dernière, OpenAI a lancé Sora, un modèle d’IA génératif capable de produire des vidéos à partir d’une instruction simple. Il n’est pas encore disponible au grand public, mais le PDG Sam Altman a présenté ses capacités en prenant des demandes sur X, anciennement connu sous le nom de Twitter. Les utilisateurs répondaient avec de courtes instructions : « un singe jouant aux échecs dans un parc, » ou « une course de vélos dans l’océan avec des animaux différents en tant qu’athlètes. » C’est étrange, captivant, bizarre, beau — et suscite le cycle habituel de commentaires. Certains pointent du doigt les supposés effets négatifs de Sora, anticipant une « vague de désinformation » – mais tandis que moi-même (et les experts) pensons que les futurs systèmes d’IA puissants posent de graves risques, les affirmations selon lesquelles un modèle spécifique provoquera une vague de désinformation ne se sont pas encore vérifiées. D’autres soulignent les nombreuses faiblesses de Sora comme représentant des limites fondamentales de la technologie — ce qui était une erreur lorsque les gens l’ont fait avec des modèles de générateurs d’images, et ce qui, je le crains, sera de nouveau une erreur. Comme l’a souligné ma collègue A.W. Ohlheiser, « tout comme DALL-E et ChatGPT se sont améliorés avec le temps, il en ira de même pour Sora. » Les prédictions, tant optimistes que pessimistes, pourraient se réaliser — mais la discussion autour de Sora et de l’IA générative serait plus productive si toutes les parties tenaient compte de la façon dont nous avons eu tort ces dernières années. Il y a deux ans, OpenAI a annoncé DALL-E 2, un modèle capable de produire des images fixes à partir d’une instruction textuelle. Les images fantastiques de haute résolution qu’il produisait étaient rapidement partout sur les réseaux sociaux, tout comme les opinions exprimées sur ce qu’il représentait : de l’art réel ? de l’art faux ? une menace pour les artistes ? un outil pour les artistes ? une machine à désinformation ? Deux ans plus tard, il est intéressant de prendre un peu de recul si nous voulons que nos opinions sur Sora vieillissent bien. »

Share the Post: