Meta ne fournira pas ses outils publicitaires basés sur l’IA aux marketeurs politiques, selon les rapports.

Facebook n’est pas étranger à la modération et à l’atténuation des informations erronées sur sa plateforme, ayant de longue date employé des systèmes d’apprentissage machine et d’intelligence artificielle pour aider à compléter ses efforts de modération menés par des humains. Au début du mois d’octobre, l’entreprise a étendu son expertise en apprentissage machine à ses efforts publicitaires avec un ensemble expérimental d’outils d’IA générative qui peuvent effectuer des tâches telles que la génération de fonds, l’ajustement d’images et la création de légendes pour le contenu vidéo d’un annonceur. Selon Reuters, Meta ne rendra ces outils disponibles aux marketeurs politiques qu’à la veille d’une cycle électoral nationale brutale et divisée, ce que l’on s’attend à ce qu’elle soit. La décision de Meta de interdire l’utilisation d’IA générative est en accord avec la majorité du ecosysteme des médias sociaux, bien que, comme l’indique rapidement Reuters, l’entreprise «n’ait pas encore rendu publique cette décision dans ses mises à jour de ses standards publicitaires». TikTok et Snap interdisent toutes deux les publicités politiques sur leurs réseaux, Google met en œuvre une «liste noire de mots clés» pour empêcher ses outils publicitaires génératifs IA de s’égarer dans le discours politique et X (anciennement Twitter) est, eh bien, vous l’avez vu. Meta permet une large latitude d’exceptions à cette règle. L’interdiction d’outil ne s’étend qu’aux «vidéos trompeuses générées par IA dans tout le contenu, y compris les publications organiques non payées, à l’exception de la parodie ou de la satire», selon Reuters. Ces exceptions font actuellement l’objet d’une examen par le comité de surveillance indépendant de Meta dans le cadre d’un cas dans lequel Meta a laissé en ligne une vidéo «altérée» du président Biden car, a argué l’entreprise, elle n’a pas été générée par une IA. Facebook, ainsi que d’autres entreprises de pointe de la vallée de Silicone, ont accepté en juillet des engagements volontaires énoncés par la Maison Blanche mettant en œuvre des mesures techniques et politiques de sauvegarde dans le développement de leurs futurs systèmes d’IA génératifs. Ces derniers comprennent l’expansion des efforts d’apprentissage machine adversaire (également connu sous le nom d’équipe rouge) pour éliminer les mauvais comportements de modèle, le partage d’informations sur la fiabilité et la sécurité à la fois au sein de l’industrie et avec le gouvernement, ainsi que le développement d’un système d’identification numérique pour authentifier le contenu officiel et indiquer clairement qu’il ne s’agit pas d’un contenu généré par IA.

Share the Post: