Le mardi, la société d’IA d’Elon Musk, xAI, a annoncé la sortie en version bêta de deux nouveaux modèles de langage, Grok-2 et Grok-2 mini, disponibles pour les abonnés de sa plateforme de médias sociaux, X (anciennement Twitter). Les modèles sont également liés au modèle de synthèse d’images Flux récemment publié, qui permet aux utilisateurs de X de créer des images photoréalistes largement non censurées pouvant être partagées sur le site. « Flux, accessible via Grok, est un excellent générateur d’images à partir de texte, mais il est également très performant pour créer de fausses photographies de lieux et de personnes réels, et les envoyer directement sur Twitter », a écrit le commentateur AI fréquent Ethan Mollick sur X. « Est-ce que quelqu’un sait s’ils apposent un filigrane de quelque façon que ce soit? Ce serait une bonne idée. » Dans un rapport publié plus tôt dans la journée, The Verge a noté que les capacités de génération d’images de Grok semblent avoir des sauvegardes minimales, permettant aux utilisateurs de créer un contenu potentiellement controversé. Selon leurs tests, lorsque sollicité, Grok a produit des images représentant des personnalités politiques dans des situations compromettantes, des personnages protégés par des droits d’auteur et des scènes de violence. The Verge a constaté que bien que Grok prétende avoir certaines limites, telles que l’éviction de contenu pornographique ou excessivement violent, ces règles semblent incohérentes en pratique. Contrairement à d’autres grands générateurs d’images IA, Grok ne semble pas refuser les requêtes impliquant des personnes réelles ou ajouter des filigranes d’identification à ses sorties. Étant donné ce que les gens génèrent jusqu’à présent, y compris des images de Donald Trump et Kamala Harris s’embrassant ou donnant un pouce levé en direction des Twin Towers lors d’une attaque apparente du 11 septembre, les sorties non limitées pourraient ne pas durer longtemps. Mais, encore une fois, Elon Musk a beaucoup insisté sur la « liberté d’expression » sur sa plateforme, donc peut-être que cette capacité restera (jusqu’à ce que quelqu’un ne dépose probablement une plainte pour diffamation ou violation de droits d’auteur).
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du