Apple introduit une nouvelle fonction innovante dans sa version iOS 18.2 pour aider à lutter contre le matériel d’abus sexuel sur les enfants (CSAM), tout en plaçant la confidentialité de l’utilisateur au cœur de ses préoccupations. La fonction devrait d’abord être lancée en Australie, faisant évoluer la fonction de sécurité de communication de l’entreprise avec l’aide de l’apprentissage automatique sur l’appareil, permettant ainsi d’identifier et de flouter efficacement le contenu explicite. En outre, avant que l’utilisateur puisse accéder à ce matériel, un avertissement et une confirmation sont nécessaires.
Les enfants de moins de 13 ans ne pourront pas voir le contenu flouté sans entrer le code de temps d’écran de leur appareil. Si l’appareil identifie un contenu potentiellement explicite, le système prévu floute l’image ou la vidéo, avertit l’utilisateur que le contenu pourrait être inapproprié et suggère des options d’aide. Ces alternatives comprennent la sortie de la conversation ou du fil de groupe, le blocage de l’individu, et l’orientation de l’utilisateur vers des ressources de sécurité en ligne.
Pour rassurer les jeunes utilisateurs, un message s’affiche déclarant qu’il est acceptable de ne pas voir ce genre de matériel ou de quitter la conversation. Il existe également une disposition pour envoyer un message à un parent ou un tuteur pour demander de l’aide. Les utilisateurs âgés de 13 ans et plus peuvent, après avoir reçu ces avertissements, confirmer s’ils souhaitent poursuivre, ces rappels étant réitérés avec des rappels qu’il est possible de se désengager et que l’aide est facilement disponible.
Comme rapporté par The Guardian, la fonction inclut également une option pour signaler des images et des vidéos inappropriées à Apple. Elle analyse le contenu de diverses applications comme Messages, AirDrop, les affiches de contact (situées dans les applications Téléphone ou Contacts), les messages vidéo FaceTime, et certaines applications tierces sur iPhone et iPad.
Les applications qui sont prises en charge varient légèrement selon les appareils Apple. Sur le Mac, il scanne les messages et certaines applications tierces si les utilisateurs choisissent de partager du contenu à travers eux. Apple Watch couvre les Messages, les contacts postés et les messages vidéo FaceTime. Sur Vision Pro, la fonction scanne les messages, AirDrop et certaines applications tierces (selon les conditions précédemment énoncées).
Cette évolution marquée des mesures d’Apple illustre une approche proactive en matière de sécurité en ligne, tout en préservant la confidentialité et le consentement de l’utilisateur, marquant un effort notable vers la mission essentielle de lutte contre le CSAM et d’amélioration du paysage de sécurité numérique.