Apple a dévoilé, jeudi, des nouveaux outils afin d’identifier plus efficacement les contenus pédopornographiques sur ses appareils et services. Mais certains experts en sécurité informatique redoutent que ce dispositif n’ouvre la boîte de Pandore de la surveillance de masse.
La célèbre marque à la pomme, qui a bâti une partie de sa réputation sur la protection des données personnelles, a dévoilé un nouveau dispositif, jeudi 5 août, qui a fait froid dans le dos des principaux experts du respect de la vie privée en ligne.
Baptisé “NeuralMatch”, cet outil poursuit un but impossible à critiquer : lutter contre la pédopornographie. Apple, dans une mise à jour déployée d’abord aux États-Unis le mois prochain, prévoit d’avoir recours à l’intelligence artificielle et à la cryptographie pour scanner les photos stockées localement sur les iPhone et iPad afin d’identifier si certaines relèvent de la pornographie infantile.
Big Brother respectueux de la vie privée ?
Le groupe américain peut déjà contrôler toutes les images qui se trouvent sur iCloud, le service de sauvegarde sur des serveurs à distance d’Apple. C’est aussi ce que font ses principaux concurrents, comme Google, Dropbox ou OneDrive de Microsoft.
Mais le créateur des iPhone va beaucoup plus loin puisqu’il s’apprête à analyser les clichés que les utilisateurs n’ont pas encore décidé de mettre sur les serveurs iCloud. “L’initiative d’Apple peut changer la donne”, s’est réjouit John Clark, président du National Center for Missing and Exploited Children (NCEM), la principale organisation américaine de lutte contre l’exploitation des mineurs, interrogé par le Wall Street Journal.
Cet outil permet, en effet, à Apple de faire comprendre aux utilisateurs de ses appareils qu’ils ne peuvent avoir aucun jardin secret, même dans les plus sombres recoins de leurs smartphones. Toutefois, ce nouveau Big Brother serait le plus respectueux possible de la vie privée. L’algorithme ne regarde pas les images. Il réduit chaque fichier à un identifiant numérique – l’équivalent d’une empreinte digitale – et cherche une éventuelle correspondance dans le fichier des plus de 200 000 images d’abus sexuels sur mineurs du NCEM.
Si l’IA découvre plusieurs clichés sur le disque dur d’un iPhone qui sont aussi sur la liste du NCEM, les photos sont envoyées à un employé d’Apple, qui peut alors les regarder en “clair” afin de s’assurer qu’il s’agit bien de pedopornographie. Pour Apple, ces gardes fous font de NeuralMatch un dispositif qui n’est pas trop intrusif. “Si vous stockez une collection de photos d’abus d’enfants, vous aurez des problèmes, mais pour les autres, ça ne changera absolument rien”, a affirmé Erik Neuenschwander, le responsable des questions de protection de la vie privée pour Apple, interrogé par le New York Times.
Ce nouveau dispositif “est clairement fait pour rassurer les autorités et donner des gages de bonne volonté aux forces de l’ordre”, a souligné Riana Pfefferkorn, spécialiste des questions de cybersurveillance à l’Observatoire de l’Internet de l’université de Stanford, lors d’une table ronde entre plusieurs experts de la cybersécurité consacré à l’annonce de d’Apple.
for sure, but I think I’m OK with this tradeoff? FB reported 15.8M cases of CSAM to NCMEC in 2019; Apple reported 205. Seems likely that there is massive under-reporting of very bad stuff on iOS
— Casey Newton (@CaseyNewton) August 5, 2021
Une enquête de 2019 du New York Times avait, en effet, démontré que la lutte contre la pédopornographie était l’un des points faibles sur toutes les grandes plateformes Internet. Et Apple est, jusqu’à présent, loin derrière d’autres services en termes de détection de contenu illégal. “En 2019, Facebook a signalé 15,8 millions contenus pédopornographiques, contre 205 pour Apple. Il y a clairement un problème de sous-évaluation du nombre d’images illégales qui circulent grâce aux services d’Apple”, souligne sur Twitter Casey Newton, l’un des journalistes américains les plus réputés dans le secteur des nouvelles technologies.
Le début des ennuis ?
Apple se préparerait aussi à renforcer la protection des données sur iCloud en introduisant le chiffrement de bout en bout (c’est-à-dire que tous les fichiers sauvegardés dans le cloud deviendront illisibles pour Apple) dans les mois à venir. “C’est une décision très attendue, et l’annonce qui vient d’être faite peut être une manière pour Apple de rassurer les autorités en leur faisant comprendre qu’il sera toujours possible de repérer des contenus illégaux malgré le chiffrement”, explique Riana Pfefferkorn.
Mais à multiplier les gages aux forces de l’ordre qui l’ont tant critiqué par le passé, Apple serait allé beaucoup loin, d’après plusieurs spécialistes de la cybersurveillance. “C’est un dispositif épouvantable qui va inévitablement transformer nos ordinateurs [macbook, NLDR], iPhone et iPad en outil de surveillance massive”, affirme Ross Anderson, spécialiste de la sécurité informatique à l’université de Cambridge, interrogé par le Financial Times.
“C’est comme ça que la surveillance électronique s’installe. D’abord pour les motifs les plus nobles, puis pour traquer les images d’armes à feu, puis trouver les photos de manifestations, puis les captures d’écran de discussion au sujet de manifestation, etc.”, craint John Hamasaki, un avocat américain spécialiste du droit pénal, sur Twitter.
Apple aurait, en fait, ouvert une boîte de Pandore en mettant au point une IA qui scanne les photos directement sur les smartphones ou tablettes. “Dorénavant, il suffit de changer quelques paramètres dans l’algorithme pour lui permettre de trouver d’autres types de photos”, assure l’Electronic Frontier Foundation, l’une des principales ONG américaine de lutte pour la protection de la vie privée en ligne, dans un communiqué publié jeudi.
“Les gouvernements, y compris celui des États-Unis, vont inévitablement demander à Apple d’adapter ce dispositif à la lutte contre le terrorisme. Et on sait à quel point cette notion peut avoir des sens différents d’un pays à un autre”, avertit David Thiel, directeur technique de l’Observatoire de l’Internet de Stanford, durant une table ronde consacrée à l’initiative d’Apple. La lutte contre le terrorisme a, par exemple, été le prétexte utilisé par la Chine pour sa politique de persécution de la minorité musulmane des Ouighours.
Et après le terrorisme ? “Je peux très bien m’imaginer que le lobby de la musique et du film exige d’Apple d’adapter cette technologie pour chercher des fichiers qui violeraient les droits d’auteur”, estime Riana Pfefferkorn.
“Vous avez intérêt à avoir confiance en la direction d’Apple de ne jamais céder à toutes ces demandes. Car dorénavant, la confiance est tout ce qui nous reste pour éviter les dérapages de cette technologie”, regrette Matthew Green, chercheur en cryptographie à l’université John Hopkins de Baltimore.
En attendant de voir si les prévisions de ces Cassandre technologiques se réalisent, ce dispositif continue d’alimenter le vaste débat sur où placer le curseur des libertés individuelles au nom de la lutte pour les causes les plus nobles possibles.