Apple regrette la confusion qui règne autour de la “numérisation de l’iPhone”.

Apple affirme que son annonce d’outils automatisés pour détecter les abus sexuels sur les enfants sur l’iPhone et l’iPad a été “assez mal ficelée”.

Le 5 août, la société a révélé un nouveau logiciel de détection d’images qui peut alerter Apple si des images illégales connues sont téléchargées sur son stockage iCloud.

Les groupes de défense de la vie privée ont critiqué cette nouvelle, certains affirmant qu’Apple avait créé une porte dérobée de sécurité dans son logiciel.

L’entreprise affirme que son annonce a été largement “mal comprise”.

“Nous aurions aimé que l’annonce soit un peu plus claire pour tout le monde”, a déclaré Craig Federighi, responsable des logiciels chez Apple, dans une interview accordée au Wall Street Journal.

Il a ajouté que – avec le recul – l’introduction de deux fonctionnalités en même temps était “une recette pour ce genre de confusion”.

Quels sont ces nouveaux outils ?
Apple a annoncé deux nouveaux outils destinés à protéger les enfants. Ils seront d’abord déployés aux États-Unis.

Détection d’images

Le premier outil permet d’identifier le matériel pédopornographique connu (CSAM) lorsqu’un utilisateur télécharge des photos sur le stockage iCloud.

Le Centre national américain pour les enfants disparus et exploités (NCMEC) gère une base de données d’images illégales connues d’abus d’enfants. Il les stocke sous forme de hachages – une “empreinte digitale” numérique du matériel illégal.

Les fournisseurs de services en nuage, tels que Facebook, Google et Microsoft, comparent déjà les images à ces hachages pour s’assurer que les gens ne partagent pas de MSC.

Apple a décidé de mettre en œuvre un processus similaire, mais a déclaré qu’il effectuerait la comparaison des images sur l’iPhone ou l’iPad de l’utilisateur, avant qu’elles ne soient téléchargées sur iCloud.

M. Federighi a précisé que l’iPhone ne vérifierait pas des éléments tels que des photos de vos enfants dans le bain ou la recherche de matériel pornographique.

Le système ne pourrait que faire correspondre les “empreintes digitales exactes” d’images spécifiques d’abus pédosexuels connus, a-t-il précisé.

Si un utilisateur tente de télécharger plusieurs images qui correspondent à des empreintes digitales d’abus pédosexuels, son compte sera signalé à Apple afin que les images spécifiques puissent être examinées.

M. Federighi a précisé qu’il faudrait qu’un utilisateur télécharge environ 30 images correspondantes pour que cette fonctionnalité se déclenche.

Filtrage des messages

En plus de l’outil iCloud, Apple a également annoncé un contrôle parental que les utilisateurs peuvent activer sur les comptes de leurs enfants.

S’il est activé, le système vérifie les photos envoyées par – ou à – l’enfant via l’application iMessage d’Apple.

Si le système d’apprentissage automatique juge qu’une photo contient de la nudité, il la masque et avertit l’enfant.

Les parents peuvent également choisir de recevoir une alerte si l’enfant choisit de regarder la photo.

Critique
Les groupes de défense de la vie privée craignent que la technologie ne soit étendue et utilisée par des gouvernements autoritaires pour espionner leurs propres citoyens.

Le responsable de WhatsApp, Will Cathcart, a qualifié la décision d’Apple de “très préoccupante”, tandis que le lanceur d’alerte américain Edward Snowden a qualifié l’iPhone de “téléphone espion”.

M. Federighi a déclaré que le “bruit” qui s’est répandu après l’annonce était qu’Apple scannait les iPhones à la recherche d’images.

“Ce n’est pas ce qui se passe”, a-t-il déclaré au Wall Street Journal.

“Nous avons un sentiment très positif et très fort de ce que nous faisons et nous pouvons voir que cela a été largement mal compris”.

Les outils devraient être ajoutés aux nouvelles versions d’iOS et d’iPadOS plus tard dans l’année

Total
0
Shares
Bir cevap yazın
Related Posts