Apple a récemment annoncé de nouvelles protections pour la sécurité des enfants qui arriveront cet automne avec l'introduction d'iOS 15, iPadOS 15 et macOS Monterey.
Nous examinerons de plus près ces fonctionnalités de sécurité pour enfants étendues et la technologie qui les sous-tend ci-dessous.
Numérisation de matériel d'abus sexuel d'enfants
Le changement le plus notable est qu'Apple commencera à utiliser une nouvelle technologie pour détecter des images représentant des images de maltraitance d'enfants stockées dans iCloud Photos.
Ces images sont connues sous le nom de matériel d'abus sexuel d'enfants, ou CSAM, et Apple en signalera les cas au National Center for Missing and Exploited Children. Le NCMEC est un centre de signalement pour le CSAM et travaille avec les organismes d'application de la loi.
L'analyse CSAM d'Apple sera limitée aux États-Unis au lancement.
Apple affirme que le système utilise la cryptographie et a été conçu dans un souci de confidentialité. Les images sont numérisées sur l'appareil avant d'être téléchargées sur iCloud Photos.
Selon Apple, il n'y a pas lieu de s'inquiéter que les employés d'Apple voient vos vraies photos. Au lieu de cela, le NCMEC fournit à Apple des hachages d'images CSAM. Un hachage prend une image et renvoie une longue chaîne unique de lettres et de chiffres.
Apple prend ces hachages et transforme les données en un ensemble illisible de hachages stockés en toute sécurité sur un appareil.
En rapport: Comment iOS 15 protège la confidentialité de votre iPhone mieux que jamais
Avant que l'image ne soit synchronisée avec iCloud Photos, elle est comparée aux images CSAM. Avec une technologie cryptographique spéciale, l'intersection d'ensembles privés, le système détermine s'il y a une correspondance sans révéler de résultat.
S'il y a une correspondance, un appareil crée un bon de sécurité cryptographique qui code la correspondance avec davantage de données cryptées sur l'image. Ce bon est téléchargé sur iCloud Photos avec l'image.
À moins qu'un compte iCloud Photos ne dépasse un seuil spécifique de contenu CSAM, le système garantit que les bons de sécurité ne peuvent pas être lus par Apple. C'est grâce à une technologie cryptographique appelée partage de secret.
Selon Apple, le seuil inconnu offre une grande précision et garantit moins d'une chance sur un billion de signaler de manière incorrecte un compte.
Lorsque le seuil est dépassé, la technologie permettra à Apple d'interpréter les bons et les images CSAM correspondantes. Apple examinera ensuite manuellement chaque rapport pour confirmer une correspondance. Si cela est confirmé, Apple désactivera le compte d'un utilisateur, puis enverra un rapport au NCMEC.
Il y aura un processus d'appel pour la réintégration si un utilisateur estime que son compte a été signalé par erreur par la technologie.
Si vous avez des problèmes de confidentialité avec le nouveau système, Apple a confirmé qu'aucune photo ne sera numérisée à l'aide de la technologie de cryptographie si vous désactivez iCloud Photos. Vous pouvez le faire en vous rendant sur Paramètres > [Votre nom] > iCloud > Photos.
Il y a quelques inconvénients lors de la désactivation de Photos iCloud. Toutes les photos et vidéos seront stockées sur votre appareil. Cela peut causer des problèmes si vous avez beaucoup d'images et de vidéos et un iPhone plus ancien avec un stockage limité.
De plus, les photos et vidéos capturées sur l'appareil ne seront pas accessibles sur d'autres appareils Apple utilisant le compte iCloud.
En rapport: Comment accéder aux photos iCloud
Apple explique plus en détail la technologie utilisée dans la détection CSAM dans un livre blanc PDF. Vous pouvez également lire un FAQ Apple avec des informations supplémentaires sur le système.
Dans la FAQ, Apple note que le système de détection CSAM ne peut pas être utilisé pour détecter autre chose que CSAM. La société affirme également qu'aux États-Unis et dans de nombreux autres pays, la possession des images CSAM est un crime et qu'Apple est obligé d'informer les autorités.
La société a également déclaré qu'elle refuserait toute demande du gouvernement d'ajouter une image non CSAM à la liste de hachage. Cela explique également pourquoi les images non CSAM n'ont pas pu être ajoutées au système par un tiers.
En raison de l'examen humain et du fait que les hachages utilisés proviennent d'images CSAM connues et existantes, Apple dit que le système a été conçu pour être précis et éviter les problèmes avec d'autres images ou des utilisateurs innocents signalés au NCMEC.
Protocole de sécurité de communication supplémentaire dans les messages
Une autre nouvelle fonctionnalité sera l'ajout de protocoles de sécurité dans l'application Messages. Cela offre des outils qui avertiront les enfants et leurs parents lors de l'envoi ou de la réception de messages contenant des photos sexuellement explicites.
Lorsqu'un de ces messages est reçu, la photo sera floue et l'enfant sera également prévenu. Ils peuvent voir des ressources utiles et on leur dit que ce n'est pas grave s'ils ne voient pas l'image.
La fonctionnalité ne concernera que les comptes configurés en tant que familles dans iCloud. Les parents ou tuteurs devront s'inscrire pour activer la fonction de sécurité des communications. Ils peuvent également choisir d'être avertis lorsqu'un enfant de 12 ans ou moins envoie ou reçoit une image sexuellement explicite.
Pour les enfants de 13 à 17 ans, les parents ne sont pas prévenus. Mais l'enfant sera averti et demandé s'il souhaite voir ou partager une image sexuellement explicite.
En rapport: Comment iOS 15 utilise l'intelligence pour rendre votre iPhone plus intelligent que jamais
Messages utilise l'apprentissage automatique sur l'appareil pour déterminer si une pièce jointe ou une image est sexuellement explicite. Apple ne recevra aucun accès aux messages ou au contenu de l'image.
La fonctionnalité fonctionnera à la fois pour les messages SMS et iMessage normaux et n'est pas liée à la fonction d'analyse CSAM que nous avons détaillée ci-dessus.
Guide de sécurité étendu dans Siri et Search
Enfin, Apple étendra les conseils pour les fonctionnalités Siri et Search afin d'aider les enfants et les parents à rester en sécurité en ligne et à recevoir de l'aide dans des situations dangereuses. Apple a cité un exemple où les utilisateurs qui demandent à Siri comment ils peuvent signaler la CSAM ou l'exploitation d'enfants recevront des ressources sur la façon de déposer un signalement auprès des autorités.
Des mises à jour arriveront à Siri et à Search lorsque quelqu'un effectuera des requêtes de recherche liées à CSAM. Une intervention expliquera aux utilisateurs que l'intérêt pour le sujet est nuisible et problématique. Ils montreront également des ressources et des partenaires pour aider à obtenir de l'aide sur le problème.
Plus de changements à venir avec le dernier logiciel d'Apple
Développées en collaboration avec des experts en sécurité, les trois nouvelles fonctionnalités d'Apple sont conçues pour assurer la sécurité des enfants en ligne. Même si les fonctionnalités peuvent susciter des inquiétudes dans certains cercles axés sur la confidentialité, Apple s'est montré ouvert à propos de la technologie et de la manière dont elle équilibrera les problèmes de confidentialité avec la protection des enfants.
Vous avez déjà entendu parler des changements majeurs apportés à iOS 15, mais voici tous les changements cachés qu'Apple a omis de la WWDC.
Lire la suite
- IPhone
- Mac
- Pomme
- Confidentialité des smartphones
- Parentalité et technologie
Né et élevé dans l'ouest ensoleillé du Texas, Brent est diplômé de la Texas Tech University avec un baccalauréat en journalisme. Il écrit sur la technologie depuis plus de 5 ans et aime tout ce qui concerne Apple, les accessoires et la sécurité.
Abonnez-vous à notre newsletter
Rejoignez notre newsletter pour des conseils techniques, des critiques, des ebooks gratuits et des offres exclusives !
Cliquez ici pour vous abonner