Voici la traduction en français du texte :
« Souvenez-vous lorsque les générateurs d’art par IA sont devenus largement disponibles en 2022 et soudainement internet était rempli de photos étranges qui étaient très cool mais qui ne semblaient pas tout à fait correctes à l’examen approfondi ? Préparez-vous à ce que cela se reproduise — mais cette fois pour les vidéos. La semaine dernière, OpenAI a publié Sora, un modèle d’IA générative qui produit des vidéos basées sur une simple instruction. Il n’est pas encore disponible au public, mais le PDG Sam Altman a démontré ses capacités en répondant à des demandes sur X, anciennement connu sous le nom de Twitter. Les utilisateurs ont répondu avec de courtes instructions : « un singe jouant aux échecs dans un parc », ou « une course de vélos sur l’océan avec divers animaux comme athlètes ». C’est troublant, fascinant, étrange, beau — et cela suscite le cycle habituel de commentaires. Certaines personnes avancent des affirmations catégoriques sur les effets négatifs de Sora, redoutant une « vague de désinformation » — mais alors que je (et les experts) pensons que les futurs systèmes d’IA puissants posent des risques très sérieux, jusqu’à présent, les affirmations selon lesquelles un modèle spécifique déclenchera une vague de désinformation ne se sont pas réalisées. D’autres soulignent les nombreuses imperfections de Sora comme représentant des limites fondamentales de la technologie — ce qui était une erreur lorsque les gens le faisaient avec des modèles générateurs d’images, et qui, je le crains, sera à nouveau une erreur. Comme l’a souligné ma collègue A.W. Ohlheiser, « tout comme DALL-E et ChatGPT s’amélioraient avec le temps, il en va de même pour Sora. » Les prédictions, à la fois optimistes et pessimistes, pourraient se réaliser — mais la conversation autour de Sora et de l’IA générative serait plus productive si les personnes de tous bords prenaient en considération toutes les façons dont nous avons été prouvés tort ces dernières années. Il y a deux ans, OpenAI a annoncé DALL-E 2, un modèle capable de produire des images fixes à partir d’une instruction textuelle. Les images fantastiques haute résolution qu’il produisait se sont rapidement retrouvées partout sur les réseaux sociaux, de même que les opinions sur ce qu’il fallait en penser : Art réel ? Faux art ? Une menace pour les artistes ? Un outil pour les artistes ? Une machine à désinformation ? Deux ans plus tard, il vaut la peine de regarder en arrière si nous voulons que nos opinions sur Sora vieillissent mieux. »