Microsoft déploie des outils de sécurité pour Azure AI. Astuce: Plus de modèles.

Microsoft a introduit un ensemble d’outils censés aider à rendre les modèles d’IA plus sûrs à utiliser dans Azure. Depuis que cette entreprise de cloud et de code a commencé à injecter des fonds dans OpenAI et à enrichir son empire logiciel de capacités de chatbot – un drame joué avec une ferveur égale par ses rivaux parmi des promesses grandioses en matière de productivité – Microsoft a dû reconnaître que l’IA générative comporte des risques. Les dangers sont largement connus et parfois facilement évacués. Il y a une décennie, Elon Musk a mis en garde contre le fait que l’IA pourrait bien détruire l’humanité. Pourtant, cette préoccupation ne l’a pas empêché de rendre l’IA disponible dans les voitures, sur son mégaphone des médias sociaux, et peut-être bientôt dans les robots. L’émergence de grands modèles de langage qui hallucinent et proposent des réponses incorrectes ou dangereuses a conduit à un retour à la case départ, mais dans la salle de réunion pour obtenir des fonds supplémentaires. Plutôt que de produire un produit sûr et éthique, l’industrie technologique tente de dompter des modèles sauvages, ou du moins de les maintenir suffisamment éloignés des clients pour éviter qu’ils ne fassent des dégâts. Et si cela ne fonctionne pas, il y a toujours une indemnisation pour les réclamations légales, sous réserve de certaines conditions, de la part des fournisseurs.

Share the Post: