« L’application d’actualités phare prise en train de partager des actualités générées par IA « entièrement fausses » »

Après que l’application d’actualités locales la plus téléchargée aux États-Unis, NewsBreak, a partagé une histoire générée par l’intelligence artificielle sur une fausse fusillade au New Jersey la veille de Noël l’année dernière, la police du New Jersey a dû publier une déclaration en ligne pour rassurer les citoyens troublés que l’histoire était « entièrement fausse », a rapporté Reuters. « Rien de semblable à cette histoire ne s’est produit à Noël ou aux alentours, ou même dans la mémoire récente de la région qu’ils ont décrite », indiquait le post Facebook des policiers. « Il semble que cette ‘source’ de nouvelles utilise son IA pour écrire des fictions qu’ils n’ont aucun problème à publier aux lecteurs. » Il a fallu quatre jours à NewsBreak – qui attire plus de 50 millions d’utilisateurs par mois – pour supprimer l’histoire de fusillade fictive, et cela ne semblait apparemment pas être un incident isolé. Selon Reuters, l’outil IA de NewsBreak, qui extrait des informations du web et aide à réécrire des histoires d’actualité locales, a été utilisé pour publier au moins 40 histoires trompeuses ou erronées depuis 2021. Ces histoires trompeuses ont causé de réels dommages dans les communautés, ont confié sept anciens employés de NewsBreak à Reuters, sous couvert d’anonymat en raison d’accords de confidentialité. Parfois, l’IA se trompe sur de petits détails. Une banque alimentaire du Colorado, Food to Power, a dû refuser des gens après que l’application ait affiché des horaires de distribution de nourriture erronés.

Share the Post: