En août 2021, Apple a révélé son intention d'analyser les iPhones à la recherche d'images d'abus sexuels sur des enfants. Cette décision a suscité des applaudissements de la part des groupes de protection de l'enfance, mais a soulevé des inquiétudes parmi les experts en matière de confidentialité et de sécurité que la fonctionnalité pourrait être utilisée à mauvais escient.

Apple avait initialement prévu d'inclure la technologie de numérisation de matériel d'abus sexuels sur enfants (CSAM) dans iOS 15; il a plutôt retardé indéfiniment le déploiement de la fonctionnalité pour solliciter des commentaires avant sa sortie complète.

Alors pourquoi la fonction de détection CSAM est-elle devenue un sujet de débat houleux et qu'est-ce qui a poussé Apple à reporter son déploiement?

À quoi sert la fonction de numérisation de photos d'Apple ?

Apple a annoncé la mise en œuvre de la fonction de numérisation de photos dans l'espoir de lutter contre les abus sexuels sur les enfants. Toutes les photos des appareils des utilisateurs Apple seront analysées à la recherche de contenu pédophile à l'aide de l'algorithme "NueralHash" créé par Apple.

instagram viewer

De plus, tous les appareils Apple utilisés par les enfants auraient une fonction de sécurité qui brouiller les images d'adultes si elles sont reçues par un enfant, et l'utilisateur serait averti deux fois s'il tentait d'ouvrir eux.

En plus de minimiser l'exposition au contenu réservé aux adultes, si les parents enregistrent les appareils appartenant à leurs enfants pour sécurité supplémentaire, les parents seraient avertis au cas où l'enfant recevrait un contenu explicite de quiconque en ligne.

Lire la suite: Ce que vous devez savoir sur les protections de sécurité pour les enfants d'Apple

Quant aux adultes utilisant Siri pour rechercher tout ce qui sexualise les enfants, Siri ne fera pas cette recherche et suggérera d'autres alternatives à la place.

Les données de tout appareil contenant 10 photos ou plus jugées suspectes par les algorithmes seront décryptées et soumises à un examen humain.

Si ces photos ou toute autre dans l'appareil s'avèrent correspondre à quelque chose de la base de données fournie par Centre national pour les enfants disparus et exploités, il sera signalé aux autorités et le compte de l'utilisateur sera suspendu.

Principales préoccupations concernant la fonction de numérisation de photos

La fonction de détection CSAM aurait été mise en service avec le lancement d'iOS 15 en septembre 2021, mais en face du tollé généralisé, Apple a décidé de prendre plus de temps pour recueillir des commentaires et d'apporter des améliorations à ce caractéristique. Voici Déclaration complète d'Apple sur le retard:

« Le mois dernier, nous avons annoncé des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utiliser des outils de communication pour les recruter et les exploiter, et limiter la propagation des abus sexuels sur enfants Matériel.

Sur la base des commentaires des clients, des groupes de défense des droits, des chercheurs et autres, nous avons décidé de prendre plus de temps pour les mois à venir pour recueillir des commentaires et apporter des améliorations avant de publier ces sécurité des enfants d'une importance cruciale caractéristiques".

Près de la moitié des préoccupations liées à la fonction de numérisation de photos d'Apple tournent autour de la confidentialité; le reste des arguments comprend l'inexactitude probable des algorithmes et l'utilisation abusive potentielle du système ou de ses failles.

Décomposons-le en quatre parties.

Utilisation abusive potentielle

Savoir que tout matériel correspondant à de la pornographie enfantine ou à des images connues d'abus sexuels sur des enfants placera un appareil dans la liste « suspecte » peut mettre les cybercriminels en mouvement.

Ils peuvent intentionnellement bombarder une personne de contenu inapproprié via iMessage, WhatsApp ou tout autre moyen et faire suspendre le compte de cette personne.

Apple a assuré que les utilisateurs peuvent faire appel au cas où leurs comptes auraient été suspendus en raison d'un malentendu.

Abus d'initiés

Bien que conçue pour une cause bienveillante, cette fonctionnalité peut tourner au désastre total pour certaines personnes si leurs appareils sont enregistrés dans le système, à leur insu ou à leur insu, par des proches intéressés à surveiller leur communication.

Même si cela ne se produit pas, Apple a créé une porte dérobée pour rendre les données des utilisateurs accessibles à la fin de la journée. Maintenant, c'est une question de motivation et de détermination pour les gens d'accéder aux informations personnelles d'autres personnes.

En rapport: Qu'est-ce qu'une porte dérobée et à quoi sert-elle ?

Cela ne facilite pas seulement une violation majeure de la vie privée, mais ouvre également la voie à des abus, toxiques ou contrôlants. parents, tuteurs, amis, amants, gardiens et ex pour envahir davantage l'espace personnel de quelqu'un ou restreindre leur liberté.

D'une part, il est destiné à lutter contre les abus sexuels sur les enfants; d'autre part, il peut être utilisé pour perpétuer davantage d'autres types d'abus.

Surveillance gouvernementale

Apple s'est toujours présenté comme une marque plus soucieuse de la confidentialité que ses concurrents. Mais aujourd'hui, il est peut-être en train de s'engager sur une pente glissante et de devoir répondre aux exigences sans fin de transparence dans données sur les utilisateurs par les gouvernements.

Le système qu'il a créé pour détecter les contenus pédophiles peut être utilisé pour détecter toute sorte de contenu sur les téléphones. Cela signifie que les gouvernements ayant une mentalité de secte peuvent surveiller les utilisateurs à un niveau plus personnel s'ils mettent la main dessus.

Oppressif ou non, l'implication du gouvernement dans votre vie quotidienne et personnelle peut être déconcertante et constitue une atteinte à votre vie privée. L'idée que vous n'avez besoin de vous inquiéter de telles invasions que si vous avez fait quelque chose de mal est une pensée erronée et ne parvient pas à voir la pente glissante susmentionnée.

Fausses alarmes

L'une des plus grandes préoccupations de l'utilisation d'algorithmes pour faire correspondre les images avec la base de données est les fausses alarmes. Les algorithmes de hachage peuvent identifier par erreur deux photos comme des correspondances même lorsqu'elles ne sont pas identiques. Ces erreurs, appelées « collisions », sont particulièrement alarmantes dans le contexte des contenus pédopornographiques.

Les chercheurs ont découvert plusieurs collisions dans "NeuralHash" après qu'Apple a annoncé qu'il utiliserait l'algorithme pour numériser les images. Apple a répondu aux questions sur les fausses alarmes en soulignant que le résultat sera examiné par un humain à la fin, de sorte que les gens n'ont pas à s'en soucier.

La pause CSAM d'Apple est-elle permanente ?

Il existe de nombreux avantages et inconvénients de la fonctionnalité proposée par Apple. Chacun d'eux est authentique et a du poids. On ne sait toujours pas quels changements spécifiques Apple pourrait introduire dans la fonction de numérisation CSAM pour satisfaire ses critiques.

Cela pourrait limiter la numérisation aux albums iCloud partagés au lieu d'impliquer les appareils des utilisateurs. Il est très peu probable qu'Apple abandonne complètement ces plans, car la société n'est généralement pas encline à céder à ses plans.

Cependant, il ressort clairement du contrecoup généralisé et du retard d'Apple sur ses plans, que les entreprises devraient intégrer la communauté de la recherche dès le début, en particulier pour un La technologie.

PartagerTweeterE-mail
Sécurité sur Internet: plus de 50 conseils pour assurer la sécurité de vos enfants en ligne

Les enfants sont des cibles privilégiées pour les prédateurs en ligne et les cyberintimidateurs. Ces conseils pratiques peuvent enseigner aux parents comment assurer leur sécurité en ligne.

Lire la suite

Rubriques connexes
  • Sécurité
  • IPhone
  • Confidentialité des smartphones
  • Pomme
  • Confidentialité en ligne
  • Surveillance
A propos de l'auteur
Fawad Ali (19 articles publiés)

Fawad est un ingénieur en informatique et communication, un entrepreneur en herbe et un écrivain. Il est entré dans le domaine de la rédaction de contenu en 2017 et a depuis travaillé avec deux agences de marketing numérique et de nombreux clients B2B & B2C. Il écrit sur la sécurité et la technologie à MUO, dans le but d'éduquer, de divertir et d'engager le public.

Plus de Fawad Ali

Abonnez-vous à notre newsletter

Rejoignez notre newsletter pour des conseils techniques, des critiques, des ebooks gratuits et des offres exclusives !

Cliquez ici pour vous abonner