Acceuil

Apple va commencer à faire correspondre les photos iPhone et iCloud pour les images d’abus d’enfants

Le nouveau service transformera les photos sur les appareils en un ensemble illisible de hachages – ou de nombres complexes – stockés sur les appareils des utilisateurs, a expliqué la société lors d’une conférence de presse. Ces chiffres seront comparés à une base de données de hachages fournie par le National Center for Missing and Exploited Children.

En franchissant cette étape, Pomme (AAPL) suit d’autres grandes entreprises technologiques telles que Google (GOOG) et Facebook (FB). Mais il essaie également de trouver un équilibre entre la sécurité et la confidentialité, ce dernier point sur lequel Apple a souligné qu’il s’agissait d’un argument de vente central pour ses appareils.

Certains défenseurs de la vie privée ont rapidement fait part de leurs préoccupations concernant cet effort.

« Apple remplace son système de messagerie crypté de bout en bout standard de l’industrie par une infrastructure de surveillance et de censure, qui sera vulnérable aux abus et à la dérive non seulement aux États-Unis, mais dans le monde entier », a déclaré Greg Nojeim, co-directeur du projet Security & Surveillance au Center for Democracy & Technology. “Apple devrait abandonner ces changements et restaurer la confiance de ses utilisateurs dans la sécurité et l’intégrité de leurs données sur les appareils et services Apple.”

Dans un Publier sur son site Web décrivant les mises à jour, la société a déclaré: “La méthode d’Apple … est conçue en gardant à l’esprit la confidentialité des utilisateurs.” Apple a souligné que l’outil ne “numérise” pas les photos des utilisateurs et que seules les images de la base de données seront incluses en tant que correspondances. (Cela devrait signifier que l’image inoffensive d’un utilisateur de son enfant dans la baignoire ne sera pas signalée.)

Apple a également déclaré qu’un appareil créerait un “bon de sécurité” doublement crypté – un paquet d’informations envoyé aux serveurs – qui est encodé sur les photos. Une fois qu’il y aura un certain nombre de bons de sécurité signalés, l’équipe d’examen d’Apple sera alertée. Il décryptera ensuite le bon, désactivera le compte de l’utilisateur et alertera le National Center for Missing and Exploited Children, qui pourra informer les forces de l’ordre. Ceux qui pensent que leurs comptes ont été signalés par erreur peuvent faire appel pour qu’ils soient rétablis.

L’objectif d’Apple est de s’assurer que des images identiques et visuellement similaires produisent le même hachage, même si elles ont été légèrement recadrées, redimensionnées ou converties de la couleur en noir et blanc.

“La réalité est que la vie privée et la protection des enfants peuvent coexister”, a déclaré John Clark, président-directeur général du National Center for Missing & Exploited Children, dans un communiqué. “Nous applaudissons Apple et sommes impatients de travailler ensemble pour faire de ce monde un endroit plus sûr pour les enfants.”

L’annonce fait partie d’une plus grande poussée autour de la sécurité des enfants de la part de l’entreprise. Apple a déclaré jeudi qu’un nouvel outil de communication avertirait également les utilisateurs de moins de 18 ans lorsqu’ils sont sur le point d’envoyer ou de recevoir un message avec une image explicite. L’outil, qui doit être activé dans le partage familial, utilise l’apprentissage automatique sur l’appareil pour analyser les pièces jointes aux images et déterminer si une photo est sexuellement explicite. Les parents d’enfants de moins de 13 ans peuvent également activer une fonction de notification dans le cas où un enfant est sur le point d’envoyer ou de recevoir une image nue. Apple a déclaré qu’il n’aurait pas accès aux messages.

Cet outil sera disponible en tant que future mise à jour logicielle, selon la société.


Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page