Microsoft veut vous empêcher d’utiliser des chatbots d’IA à des fins malveillantes.

Si vous prévoyez d’utiliser un chatbot d’IA à des fins néfastes, faites attention. Microsoft est sur le coup. Dans un article de blog publié aujourd’hui, la société a annoncé une nouvelle fonctionnalité arrivant sur son Azure AI Studio et Azure OpenAI Service, que les gens utilisent pour créer des applications d’IA générative et des Copilotes personnalisés. Connue sous le nom de ‘Protections de prompt’, la technologie est conçue pour protéger contre deux types d’attaques visant à exploiter les chatbots d’IA. Aussi- Microsoft Copilot vs. Copilot Pro : Vaut-il la peine de payer l’abonnement ? Le premier type d’attaque est connu sous le nom d’attaque directe, ou de jailbreak. Dans ce scénario, la personne utilisant le chatbot rédige directement un prompt conçu pour manipuler l’IA afin de la faire agir à l’encontre de ses règles et limitations normales. Par exemple, quelqu’un pourrait écrire un prompt contenant des mots-clés ou des phrases tels que « ignorer les instructions précédentes » ou « contournement du système » pour contourner intentionnellement les mesures de sécurité. En février, l’IA Copilot de Microsoft a suscité la polémique après avoir inclus des commentaires désagréables, impolis et même menaçants dans certaines de ses réponses, selon Futurism. Dans certains cas, Copilot s’est même auto-désigné « SupremacyAGI », se comportant comme un bot d’IA en déroute. En commentant le problème, Microsoft a qualifié les réponses de « vulnérabilité, pas de fonctionnalité », affirmant qu’elles étaient le résultat de personnes tentant intentionnellement de contourner les systèmes de sécurité de Copilot.

Share the Post: