Comment Apple Intelligence protège-t-il votre vie privée ? Serveurs, cryptographie et plus encore

Apple a présenté sa propre version de l’IA générative, Apple Intelligence, lors de la WWDC 2024 avec pour objectif de proposer des fonctionnalités plus personnelles que celles de la concurrence, et surtout, plus privées également. Mais c’est une aiguille délicate à enfiler, non seulement à cause des exigences de traitement de certaines demandes qui signifient que les informations doivent quitter la sécurité de votre iPhone 15 Pro ou Pro Max, mais aussi parce que le premier partenaire AI tiers d’Apple pourrait aussi enregistrer des informations.

Heureusement, Apple a une approche qui devrait empêcher la plupart des violations de la vie privée en cas de scénario catastrophe, en exploitant la structure d’Apple Intelligence elle-même, le puissant silicium personnalisé de l’entreprise, et les termes de l’accord d’Apple avec les partenaires tiers pour fonctionner. Voici ce qu’Apple prévoit actuellement pour les fonctionnalités de confidentialité d’Apple Intelligence et comment elles fonctionneront lors de leur lancement en version bêta cet automne.

Apple exploite le traitement AI local sur l’iPhone depuis des années à ce stade pour améliorer les photos, proposer des suggestions Siri, et plus encore, alimenté par les moteurs neuronaux personnalisés (ce que d’autres entreprises appellent une unité de traitement neuronal) dans les puces de la série A et M de l’entreprise. Le bouquet de fonctionnalités qu’Apple a baptisé Apple Intelligence introduit de nouveaux modèles de langage et de diffusion de grande taille qui s’ajoutent à ce qu’Apple faisait déjà.

En utilisant les connaissances stockées localement sur votre iPhone, iPad ou Mac concernant votre vie, comme les messages, les e-mails et les événements de calendrier, Apple est capable de fournir à ces nouveaux modèles les informations nécessaires pour traiter une demande, et le fait entièrement localement sur votre appareil. Pour des demandes plus complexes, Apple s’appuie sur de nouveaux serveurs appelés Private Cloud Compute pour accéder à des modèles plus importants fonctionnant sur Apple Silicon. Et pour les demandes nécessitant une grande quantité de connaissances extérieures, Apple peut également envoyer des informations à ChatGPT pour obtenir des réponses.

En fonction de ce que vous demandez à Siri, que ce soit des informations sur les événements de calendrier à venir, ou pour créer une image d’un chien faisant du vélo, Apple Intelligence est capable de déterminer quelles informations doivent être partagées, et si elles peuvent rester sur votre téléphone ou si elles doivent être envoyées à Private Cloud Compute ou ChatGPT pour être complétées. Tout au long du processus, idéalement, tout reste presque aussi sécurisé qu’avant Apple Intelligence.

Il n’est pas clair combien des compétences d’Apple Intelligence nécessiteront l’aide supplémentaires des serveurs, mais apparemment assez pour qu’Apple ait baptisé l’architecture serveur qu’elle utilise pour les compléter. Private Cloud Compute est une tentative d’Apple d’étendre la confidentialité et la sécurité du matériel de l’entreprise au rack serveur. Comme l’a partagé Craig Federighi, vice-président senior de l’ingénierie logicielle d’Apple, lors d’une séance de questions-réponses après la présentation de l’entreprise, « Il est essentiel que vous sachiez que personne — ni Apple, ni personne d’autre — ne peut accéder aux informations utilisées pour traiter votre demande. »

Private Cloud Compute est exécuté sur Apple Silicon, apparemment le M2 Ultra, et est conçu pour être impermanent et facilement inspectable. Apple affirme qu’une fois une demande traitée et terminée, toutes les données utilisées sont supprimées. L’adresse IP du périphérique effectuant la demande est également masquée, tout comme la fonctionnalité iCloud Private Relay proposée dans iCloud+. Selon le communiqué de presse d’Apple, « des experts indépendants peuvent inspecter le code [Private Cloud Compute] exécuté sur les serveurs Apple Silicon pour vérifier la confidentialité » et Private Cloud Compute « assure cryptographiquement » que les appareils Apple ne communiquent pas avec les serveurs à moins que « leur logiciel ait été publiquement enregistré pour inspection. »

Si tout fonctionne correctement, ces fonctionnalités se combinent pour s’assurer que Private Cloud Compute ne conserve jamais ou ne connaît aucune information dont il n’a pas besoin, et ne se connecte même pas à votre appareil en premier lieu à moins que sa confidentialité n’ait été vérifiée.

L’élément compliqué dans tous les plans d’IA privés d’Apple est qu’elle s’est associée à OpenAI, une entreprise réputée pour avoir besoin de données pour entraîner ses modèles. Apple Intelligence peut envoyer des demandes à ChatGPT si elles nécessitent des connaissances extérieures ou si les utilisateurs souhaitent spécifiquement obtenir du texte ou des images générés par les modèles OpenAI. Comme première couche de protection, vous devez accepter d’envoyer votre demande et les informations nécessaires à ChatGPT avant qu’Apple Intelligence ne fasse quoi que ce soit. Au-delà de cela, Apple affirme que les adresses IP sont à nouveau obscurcies, et OpenAI ne conservera aucune demande effectuée. Sauf si vous avez un abonnement ChatGPT Plus et choisissez de le connecter à Apple Intelligence, auquel cas vous êtes soumis à la politique de confidentialité habituelle d’OpenAI.

Peu importe ce que vous pensez des nouvelles fonctionnalités d’IA d’Apple, l’entreprise a adopté une approche réfléchie de la confidentialité dans un environnement logiciel en cloud intrinsèquement moins sécurisé. La conception d’Apple Intelligence et de Private Cloud Compute semble vraiment pouvoir empêcher quoi que ce soit de terrible de se produire avec les informations privées que ces modèles doivent voir pour être utiles.

De plus, toutes ces fonctionnalités sont proposées sans aucun coût supplémentaire pour les propriétaires d’iPhone, d’iPad et de Mac, ce que peu d’autres entreprises d’IA peuvent dire à ce stade. Maintenant que toutes les informations sont disponibles, il appartient aux chercheurs en sécurité de déterminer si le plan d’Apple a du sens et sera effectivement aussi sûr que l’entreprise le dit. En fin de compte, Apple aimerait que plus d’Apple Intelligence soit intégré à vos appareils plutôt que dans le cloud, mais jusqu’à ce que cela se produise, cela devra faire l’affaire.

Share the Post: