Le New York Times intente une poursuite contre OpenAI et Microsoft en raison de l’utilisation de «millions d’articles» pour former ChatGPT.

Le New York Times a poursuivi Microsoft et OpenAI, affirmant que le duo a enfreint les droits d’auteur du journal en utilisant ses articles sans permission pour créer ChatGPT et des modèles similaires. Il s’agit du premier grand média américain à traîner les deux techs devant les tribunaux pour l’utilisation des histoires dans les données d’entraînement. Comme pour les autres procès similaires – y compris les actions entreprises par divers artistes et créateurs, tels que Sarah Silverman – la plainte du NYT [PDF] porte sur l’utilisation de matériel protégé par le droit d’auteur – dans ce cas, des œuvres du Times – dans la formation des grands modèles de langage (LLM) derrière divers assistants conversationnels Microsoft et OpenAI et les services d’IA génératifs. La plainte cible Microsoft, non seulement pour l’investissement qu’il a fait dans OpenAI, mais aussi pour les assistants tels que Microsoft 365 Copilot et Bing Chat, que la plainte prétend : « Afficher le contenu du Times sous forme de résultats de recherche synthétiques générés à partir de copies mémorisées ou de dérivés des œuvres du Times récupérés à partir des modèles eux-mêmes, et (2) en affichant des résultats de recherche synthétiques qui sont sensiblement similaires aux œuvres du Times générées à partir de copies mémorisées dans l’index de recherche Bing. » Le journal est assez perturbé que « des millions » de ses articles protégés par le droit d’auteur aient été récoltés pour former une partie des modèles de Microsoft et OpenAI sans permission, et que ces réseaux neuronaux vont régurgiter ce travail sur demande pour les utilisateurs, encore une fois sans permission. Dans sa plainte, le NYT donne des exemples qu’il prétend prouvent que ChatGPT a été formé sur son contenu. De plus, une simple question pour contourner le paywall semble entraîner des réponses contenant du texte protégé par le droit d’auteur.

Share the Post: