« OpenAI touché par deux grandes problématiques de sécurité cette semaine. »

OpenAI semble faire les gros titres chaque jour et cette fois-ci c’est pour un double dose de préoccupations en matière de sécurité. Le premier problème concerne l’application Mac pour ChatGPT, tandis que le second laisse entendre des préoccupations plus larges sur la manière dont l’entreprise gère sa cybersécurité. Plus tôt cette semaine, l’ingénieur et développeur Swift Pedro José Pereira Vieito a examiné l’application Mac ChatGPT et a découvert qu’elle stockait les conversations des utilisateurs localement en texte clair plutôt que de les chiffrer. L’application n’est disponible que sur le site Web d’OpenAI, et comme elle n’est pas disponible sur l’App Store, elle n’a pas à suivre les exigences de sandboxing d’Apple. Le travail de Vieito a ensuite été couvert par The Verge, et après que l’exploit a attiré l’attention, OpenAI a publié une mise à jour qui ajoutait un chiffrement aux discussions stockées localement. Pour les non-développeurs, le sandboxing est une pratique de sécurité qui empêche les vulnérabilités potentielles et les pannes de se propager d’une application à d’autres sur une machine. Et pour les non-experts en sécurité, stocker des fichiers locaux en texte clair signifie que des données potentiellement sensibles peuvent être facilement consultées par d’autres applications ou logiciels malveillants. Le deuxième problème est survenu en 2023 avec des conséquences qui ont eu un effet d’entraînement se poursuivant jusqu’à aujourd’hui. Au printemps dernier, un pirate informatique a pu obtenir des informations sur OpenAI après avoir illégalement accédé aux systèmes de messagerie interne de l’entreprise. Le New York Times a rapporté que Leopold Aschenbrenner, responsable technique des programmes chez OpenAI, a soulevé des préoccupations de sécurité auprès du conseil d’administration de l’entreprise, affirmant que le piratage impliquait des vulnérabilités internes que des adversaires étrangers pourraient exploiter. Aschenbrenner affirme désormais avoir été licencié pour avoir divulgué des informations sur OpenAI et pour avoir mis en avant des préoccupations concernant la sécurité de l’entreprise. Un représentant d’OpenAI a déclaré au New York Times que “bien que nous partagions son engagement à construire une A.G.I. sûre, nous ne sommes pas d’accord avec bon nombre des allégations qu’il a depuis formulées concernant notre travail” et a ajouté que son départ n’était pas le résultat de divulgation d’informations confidentielles.

Share the Post: