Les entreprises technologiques promettent d’arrêter le développement de l’IA si les risques sont trop grands.

Les entreprises en intelligence artificielle ont signé un engagement de développement sûr qui pourrait les conduire à abandonner certaines de leurs propres modèles d’IA si ces derniers ne peuvent pas être construits ou déployés en toute sécurité. Des entreprises telles qu’Amazon, Anthropic, Google, IBM, Meta, Microsoft, OpenAI et d’autres ont souscrit aux engagements de sécurité de pointe en matière d’IA lors du Sommet de l’IA Seoul. Les entreprises ont indiqué qu’elles évalueraient les risques posés par leurs modèles ou systèmes de pointe tout au long du cycle de vie de l’IA, y compris avant et pendant l’entraînement, ainsi qu’au moment de leur déploiement. De même, les entreprises se sont engagées à définir des seuils au-delà desquels les risques posés par un modèle seraient jugés intolérables. Si ces limites étaient dépassées, les entreprises ont déclaré qu’elles cesseraient tout développement ultérieur. « Dans les cas extrêmes, les organisations s’engagent à ne pas développer ou déployer du tout un modèle ou un système si des mesures d’atténuation ne peuvent être appliquées pour maintenir les risques en dessous des seuils », indique le document.

Share the Post: