« Des experts en sécurité nationale américains avertissent que les géants de l’IA ne font pas suffisamment pour protéger leurs secrets »

L’année dernière, la Maison Blanche a conclu un accord historique sur la sécurité avec les développeurs d’IA, dont des entreprises comme Google et OpenAI se sont engagées à considérer ce qui pourrait mal tourner lorsqu’ils créent des logiciels comme celui derrière ChatGPT. Maintenant, un ancien conseiller en politique intérieure du président Biden qui a contribué à forger cet accord affirme que les développeurs d’IA doivent faire un pas en avant sur un autre front : protéger leurs formules secrètes de la Chine. « Parce qu’ils sont en retard, ils vont vouloir profiter de ce que nous avons », a déclaré Susan Rice à propos de la Chine. Elle a quitté la Maison Blanche l’année dernière et a parlé mercredi lors d’un panel sur l’IA et la géopolitique lors d’un événement organisé par l’Institut pour l’IA centrée sur l’humain de l’Université Stanford. « Que ce soit en achetant et en modifiant nos meilleurs modèles open source, ou en volant nos meilleurs secrets. Nous devons vraiment examiner tout cet éventail de comment rester en avance, et je m’inquiète que du côté de la sécurité, nous soyons en retard. » Les préoccupations soulevées par Rice, qui était auparavant conseillère à la sécurité nationale du président Obama, ne sont pas hypothétiques. En mars, le Département de la Justice des États-Unis a annoncé des accusations contre un ancien ingénieur logiciel de Google pour avoir prétendument volé des secrets commerciaux liés aux puces d’IA TPU de l’entreprise et prévu de les utiliser en Chine. Des experts juridiques de l’époque ont averti que cela ne pourrait être qu’un exemple parmi tant d’autres de la tentative de la Chine de concurrencer de manière déloyale dans ce qui a été qualifié de course aux armements en matière d’IA. Les responsables gouvernementaux et les chercheurs en sécurité craignent que des systèmes d’IA avancés puissent être utilisés de manière abusive pour générer des deepfakes pour des campagnes de désinformation convaincantes, voire même des recettes pour des armes biologiques puissantes. Il n’y a pas accord universel parmi les développeurs et chercheurs en IA selon lequel leur code et autres composants doivent être protégés. Certains estiment que les modèles actuels ne sont pas assez sophistiqués pour nécessiter une protection stricte, et des entreprises comme Meta qui développent des modèles d’IA open source libèrent une grande partie de ce que les responsables gouvernementaux, tels que Rice, suggèreraient de conserver. Rice a admis que des mesures de sécurité plus strictes pourraient finir par mettre les entreprises américaines en retard en réduisant le bassin de personnes travaillant pour améliorer leurs systèmes d’IA.

Share the Post: