Alors que les plates-formes d’IA générative (IA génAI) telles que ChatGPT, Dall-E2 et AlphaCode avancent à une vitesse fulgurante, il est presque impossible d’empêcher ces outils de produire des réponses erronées ou offensantes.
À ce jour, il existe peu de méthodes pour garantir que les grands modèles de langage (LLM) qui servent de base à l’IA génAI fournissent des informations exactes.
À mesure que les outils d’IA évoluent et deviennent meilleurs dans la mimicry du langage naturel, il deviendra bientôt impossible de distinguer les résultats faux des résultats réels, incitant les entreprises à mettre en place des « garde-fous » contre les pires résultats, qu’ils soient accidentels ou le fruit d’efforts intentionnels de mauvais acteurs.
Les outils de l’IA génAI sont essentiellement des moteurs de prédiction du mot suivant. Ces générateurs de mots suivants, tels que ChatGPT, le Copilote de Microsoft et le Bard de Google, peuvent déraper et commencer à produire des informations fausses ou trompeuses.
En septembre, une start-up fondée par deux anciens chercheurs en IA chez Meta a développé une plateforme d’évaluation et de sécurité automatisée qui aide les entreprises à utiliser les LLM de manière sécurisée en utilisant des tests adversariaux pour surveiller les modèles afin de déceler les incohérences, les imprécisions, les hallucinations et les biais.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)