La Virginie occidentale poursuit Apple pour avoir autorisé la distribution de matériel pédopornographique sur iCloud

L’État de Virginie-Occidentale a intenté une action en justice contre Apple, accusant l’entreprise de faciliter le stockage et la distribution de matériel pédopornographique (CSAM) sur iCloud. Selon le procureur général JB McCuskey, en abandonnant un système de détection CSAM au profit d’un chiffrement de bout en bout, Apple a fait d’iCloud un « un chemin sûr et sans friction » pour la possession, la protection et la distribution de ce type de contenu, en violation des lois nationales sur la protection des consommateurs.

Le dilemme technique derrière ce procès n’est pas nouveau. Apple a annoncé en 2021 un système comparant les photos iCloud à une base de données connue d’images CSAM. Cependant, la proposition a suscité une réaction massive de la part des défenseurs de la vie privée, qui ont fait valoir qu’Apple était en train de construire un système de surveillance. La crainte était que toute porte dérobée, même avec les meilleures intentions du monde, puisse être exploitée par des gouvernements autoritaires ou des acteurs malveillants. Près d’un an plus tard, Apple développement annulé de cette fonction.

Craig Federighi, responsable des logiciels d’Apple, a ensuite déclaré au Wall Street Journal que « les abus sexuels sur enfants peuvent être évités avant qu’ils ne se produisent… C’est là que nous concentrerons notre énergie à l’avenir ». Mais la Virginie occidentale affirme désormais qu’Apple « a conçu ses produits avec une indifférence délibérée à l’égard des dommages hautement évitables ».

La partie la plus révélatrice du procès est une citation d’un message interne entre dirigeants d’Apple. Selon le document juridique, Eric Friedman, responsable de la fraude chez Apple, aurait affirmé qu’iCloud était « la meilleure plateforme pour diffuser de la pédopornographie ». Si cette communication interne est authentique, elle suggère que même au sein de l’entreprise, il y avait une prise de conscience du problème, ce qui rend plus difficile la justification de l’absence de solution intermédiaire.

Le problème de Google : quand trop protéger détruit des vies

Avant d’applaudir les systèmes de détection automatisés, il convient de rappeler le cas de Google. Reddit et les forums techniques regorgent de témoignages d’utilisateurs qui affirment avoir perdu leur compte à cause du système de détection de matériel sensible. Sans entrer dans l’évaluation de chaque cas, il est évident que les faux positifs sont réels et ont de graves conséquences : Perte définitive d’accès à l’intégralité de votre compte Google.

Pas de véritable examen humain. Juste un message générique de violation des règles. Ces cas révèlent l’importance cruciale de ne pas centraliser toute votre vie numérique dans une seule entreprise et, au minimum, de maintenir des sauvegardes locales régulières des données importantes. Le cloud est pratique, mais il n’est pas infaillible ni exempt de conséquences catastrophiques dues aux faux positifs.

Les chiffres et la jurisprudence qui peuvent tout changer

Le procès note qu’Apple a effectué 267 rapports CSAM au Centre national pour les enfants disparus et exploités, un nombre dérisoire comparé aux plus de 1,47 million de rapports de Google ou à plus de 30,6 millions de Meta. De nombreuses plates-formes, notamment Google, Reddit, Snap et Meta, utilisent des outils tels que PhotoDNA de Microsoft ou l’API Content Safety de Google pour détecter, supprimer et signaler les CSAM.

Mais ces chiffres soulèvent une question inconfortable : signifient-ils vraiment qu’iCloud héberge davantage de matériel illégal, ou simplement que les systèmes automatisés d’autres plateformes génèrent des montagnes de rapports comprenant d’innombrables faux positifs ? La différence entre 267 et 30 millions est si énorme qu’elle suggère que nous comparons des méthodologies complètement différentes, pas nécessairement des réalités différentes.

Le précédent juridique que ce procès pourrait créer est potentiellement explosif. Si la Virginie occidentale gagne, Apple sera-t-il obligé de supprimer le cryptage de bout en bout d’iCloud ? Cela affectera-t-il également iMessage ? Cela créera-t-il un précédent pour que d’autres États poursuivent en justice les entreprises qui accordent la priorité à la confidentialité ? McCuskey a clairement indiqué qu’il espérait que d’autres États se joindraient au procès.

Apple, de son côté, défend sa position. « Chez Apple, la protection de la sécurité et de la vie privée de nos utilisateurs, en particulier des enfants, est au cœur de nos activités », a déclaré le porte-parole Peter Ajemian. La société a mis en place des contrôles parentaux et des outils qui brouillent automatiquement les images nues des mineurs dans iMessage. Mais pour l’État de Virginie occidentale, ces garanties sont insuffisantes face à ce qu’il considère comme une conception délibérément négligente.