‘Ce que deux ans de développement de l’IA peuvent nous dire sur Sora’

Voici la traduction en français du texte que vous avez fourni:
 »

Souvenez-vous quand les générateurs d’art AI sont devenus largement disponibles en 2022 et soudain, l’internet était rempli d’images étranges qui étaient très cool mais qui ne semblaient pas tout à fait correctes à une inspection rapprochée? Préparez-vous pour que cela se reproduise encore une fois, mais cette fois-ci pour les vidéos. La semaine dernière, OpenAI a sorti Sora, un modèle AI génératif qui produit des vidéos basées sur une simple demande. Il n’est pas encore disponible pour le public, mais le PDG Sam Altman a montré ses capacités en prenant des demandes sur X, anciennement connu sous le nom de Twitter. Les utilisateurs ont répondu avec de courtes demandes : ‘un singe jouant aux échecs dans un parc’, ou ‘une course de vélo sur l’océan avec différents animaux comme athlètes’. C’est étrange, captivant, bizarre, beau – et cela suscite le cycle habituel de commentaires. Certaines personnes font des affirmations solides sur les effets négatifs de Sora, s’attendant à une ‘vague de désinformation’ – mais tandis que moi (et les experts) pensons que les futurs systèmes AI puissants posent des risques très sérieux, les affirmations selon lesquelles un modèle spécifique nous apportera une vague de désinformation n’ont pas encore été confirmées jusqu’à présent. D’autres pointent les nombreuses failles de Sora comme représentant des limites fondamentales de la technologie – ce qui était une erreur lorsque les gens l’ont fait avec les modèles de générateurs d’image et qui, je le soupçonne, sera une erreur à nouveau. Comme l’a souligné ma collègue A.W. Ohlheiser, ‘tout comme DALL-E et ChatGPT se sont améliorés avec le temps, il en va de même pour Sora.’ Les prédictions, à la fois optimistes et pessimistes, pourraient encore se réaliser – mais la conversation autour de Sora et de l’AI générative serait plus productive si les gens des deux côtés tenaient mieux compte de toutes les manières dont nous avons eu tort ces dernières années. Il y a deux ans, OpenAI a annoncé DALL-E 2, un modèle capable de produire des images fixes à partir d’une demande textuelle. Les images fantastiques haute résolution qu’il a produites ont rapidement envahi les réseaux sociaux, tout comme les avis sur ce qu’il fallait en penser : Art réel ? Art faux ? Une menace pour les artistes ? Un outil pour les artistes ? Une machine de désinformation ? Deux ans plus tard, il est intéressant de faire un peu de rétrospective si nous voulons que nos avis sur Sora vieillissent mieux. »

Share the Post: