‘L’augmentation du contenu généré par l’IA – ou « déchets d’IA » – fausse rapidement notre compréhension de la réalité. Ce phénomène a été illustré par une photographie remarquable présentée dans la newsletter Substack de Charles Arthur, Social Warming. L’image dépeint une scène d’une rue typiquement étroite suite à la « bombe de pluie » catastrophique qui a frappé Valence, en Espagne, où une année de pluie est tombée en une seule journée. Dans certaines localités, les précipitations ont dépassé 490 litres par mètre carré en huit heures. La force de l’eau, surtout lorsque l’inclinaison est prise en compte, peut soulever et jeter des véhicules lourds comme s’ils étaient de simples jouets, à l’image de la photographie où environ 70 véhicules variés sont éparpillés de manière désordonnée dans une rue étroite de la ville. Cette image, bien que réelle, a suscité l’incrédulité en raison de sa précision troublante et de sa qualité surréaliste, amenant les gens à la décrire comme un produit de la manipulation de l’IA à l’aide d’outils d’IA génératifs comme Midjourney ou Dall-E.
Néanmoins, Arthur a réfuté ces spéculations grâce à une enquête minutieuse qui a consisté à identifier un bar vu sur la photo via Facebook, à localiser la rue réelle sur Apple Maps, et à la parcourir virtuellement via Street View. Arthur s’est demandé pourquoi cette image particulière semblait si artificielle aux gens. Il s’est demandé si cela pourrait être dû à des facteurs tels que le scintillement des voitures, la rondeur unique des formes, et l’absence apparente de dommages notables. Ou, cette méfiance pourrait-elle être un symptôme de l’influence grandissante des faux créés par l’IA, ce qui a provoqué une réticence générale à faire confiance à l’authenticité des images réelles?’