Le nombre d’utilisateurs signalant la fermeture définitive de leur compte Google pour des violations présumées liées au matériel pédopornographique (CSAM) connaît une augmentation notable. Une recherche rapide sur Reddit montre des dizaines de cas récents où des personnes affirment avoir perdu l’accès complet à Gmail, Drive, YouTube et d’autres services de Google après avoir synchronisé des photos de famille, des images médicales ou même des ensembles de données d’intelligence artificielle.
S’il est impossible de vérifier chaque témoignage individuel sur Reddit et que nous devons les traiter avec prudence, le volume croissant de rapports est alarmant. La plupart de ces cas semblent survenir après synchronisations massives qui incluent des mèmes téléchargés, des fichiers personnels dans lesquels apparaissent les enfants du propriétaire du compte ou du contenu tout à fait légal que le système de Google interprète mal. Vraisemblablement, il s’agirait de faux positifs provenant de l’algorithme PhotoDNA de Microsoft que Google utilise pour détecter ce type de matériel.
Le problème n’est pas nouveau. En 2022, le New York Times a documenté deux cas vérifiés de parents dont les comptes ont été définitivement fermés après avoir photographié les organes génitaux de leurs jeunes enfants sur avis médical. À San Francisco, un père nommé Mark a photographié la région génitale enflée de son fils suite à une demande de l’infirmière de son pédiatre pour une consultation vidéo pendant la pandémie. Deux jours plus tard, votre compte a été définitivement désactivé. Elle a perdu des e-mails, des contacts, des documents sur l’enfance de son fils et son numéro de téléphone Google Fi, l’empêchant d’accéder à d’autres comptes numériques reposant sur des codes de sécurité envoyés à ce numéro.
À Houston, un autre père a perdu son compte après avoir photographié son fils sous la direction d’un pédiatre pour diagnostiquer une infection. Les images ont été automatiquement synchronisées avec Google Photos et envoyées à sa femme via Google Messenger. Le couple était en train d’acheter une maison lorsque le compte a été désactivé, ce qui a encore compliqué la situation. Dans les deux cas, la police a enquêté et a déterminé que aucun crime n’a été commismais Google a maintenu les comptes fermés malgré les appels avec des rapports de police certifiant l’innocence des utilisateurs.
Un cas récent sur Reddit implique un développeur qui a perdu son compte pour avoir utilisé un ensemble de données de formation IA pour développer Punge, une application de détection de contenu NSFW sur appareil. L’image marquée s’est avérée être simplement une jambe de femme. Un autre utilisateur a signalé avoir perdu l’accès après avoir utilisé le générateur d’images Nano Banana de Google pour recréer une tendance virale TikTok où les gens étreignaient des versions plus jeunes d’eux-mêmes. Aucun de ces cas n’implique de véritables CSAM.
Le cloud est pratique, mais n’oubliez jamais qu’il s’agit de l’ordinateur de quelqu’un d’autre
Au-delà de la véracité individuelle de chaque cas rapporté sur Reddit, la situation soulève une réflexion importante sur la dépendance aux services cloud. Google, dans sa déclaration officielle, assure que « les évaluateurs humains jouent également un rôle essentiel dans la confirmation des correspondances et du contenu découvert grâce à l’IA ». Cependant, des cas documentés suggèrent que ces contrôles échouent plus fréquemment que ce qui serait souhaitable.
La recommandation est claire : conserver des sauvegardes locales de tout ce que vous considérez comme important dans Google Drive, Photos ou tout autre service cloud. Le cloud est pratique et utile, mais il sera toujours l’ordinateur de quelqu’un d’autre, soumis à ses algorithmes, politiques et erreurs. Aucun utilisateur ne devrait perdre des années d’e-mails, de photos de famille, de documents de travail ou d’accès à des services critiques à cause d’un faux positif sans réelle possibilité de recours. Prendre le contrôle de vos propres données grâce au stockage local et à des sauvegardes régulières est le seul moyen de garantir qu’une erreur algorithmique n’efface pas votre vie numérique du jour au lendemain.
Le paradoxe Apple : poursuivi pour le problème inverse

La situation de Google contraste ironiquement avec le procès que la Virginie occidentale vient de déposer contre Apple. Alors que Google fait face à des critiques pour la numérisation trop et génèrent des faux positifs qui détruisent les comptes d’utilisateurs innocents, Apple est poursuivi pour ne pas avoir suffisamment analysé, permettant prétendument à iCloud de devenir une plate-forme sûre pour le matériel illégal.
Apple a abandonné le développement de son système de détection CSAM en 2022 à la suite de fortes réactions négatives de la part des défenseurs de la vie privée, qui affirmaient que toute porte dérobée, même bien intentionnée, pouvait être utilisée de manière abusive. Il fait désormais face à des conséquences juridiques pour cette décision. Entre les deux extrêmes, le dilemme technique et éthique reste entier : existe-t-il une solution qui équilibre efficacement la protection des enfants et la vie privée et qui ne détruise pas, ce faisant, la vie numérique d’utilisateurs innocents ?