Apple Poursuivi pour Abandon du Système de Détection CSAM sur iCloud
Le géant de la technologie Apple se retrouve au cœur d'une bataille judiciaire inédite. La firme à la pomme est en effet poursuivie pour avoir renoncé à déployer un système controversé de détection de matériel pédopornographique, ou CSAM (Child Sexual Abuse Material), sur son service de stockage cloud iCloud. Une décision lourde de conséquences qui soulève de nombreuses questions sur l'équilibre délicat entre protection de la vie privée et lutte contre l'exploitation des enfants en ligne.
Retour sur l'abandon du projet de détection CSAM par Apple
C'est en août 2021 qu'Apple avait annoncé en grande pompe son intention de mettre en place un système de détection de CSAM sur iCloud. L'idée était d'utiliser des signatures numériques fournies par le National Center for Missing and Exploited Children et d'autres organismes pour repérer les contenus pédopornographiques connus dans les bibliothèques iCloud des utilisateurs.
Mais face au tollé suscité par ce projet, Apple avait finalement fait marche arrière. De nombreuses voix, notamment parmi les défenseurs de la vie privée et les experts en sécurité, avaient en effet mis en garde contre les risques de dérive d'un tel système, qui pourrait selon eux créer une porte dérobée pour la surveillance gouvernementale.
Une victime d'abus poursuit Apple
Aujourd'hui, c'est au tour d'une victime d'abus sexuels dans son enfance de poursuivre Apple pour cet abandon. La plaignante, qui a souhaité rester anonyme, affirme que son agresseur avait partagé en ligne des images d'elle bébé en train de subir des sévices. Près de 30 ans après les faits, elle reçoit encore quasi quotidiennement des notifications de la part des forces de l'ordre l'informant que quelqu'un a été inculpé pour possession de ces images.
Pour elle, en renonçant à son projet de détection, Apple l'oblige, comme d'autres victimes, à revivre sans cesse ce traumatisme. La plainte décrit comment Apple a d'abord annoncé "une conception améliorée largement saluée visant à protéger les enfants", avant de ne finalement pas "mettre en œuvre ces conceptions ou prendre des mesures pour détecter et limiter" ce matériel sur sa plateforme.
En ne faisant pas tout son possible pour empêcher la diffusion du matériel pédopornographique, Apple force les victimes à revivre leur traumatisme.
– Extrait de la plainte déposée contre Apple
Un recours collectif potentiel
L'avocat James Marsh, qui représente la plaignante, estime qu'il pourrait y avoir jusqu'à 2680 victimes éligibles à des dommages et intérêts dans cette affaire. Selon lui, Apple a fait une promesse puis s'est dérobée, trahissant ainsi la confiance de ses utilisateurs les plus vulnérables.
Apple, de son côté, affirme "innover de toute urgence et activement pour combattre ces crimes sans compromettre la sécurité et la confidentialité de tous nos utilisateurs". Mais pour les victimes, c'est trop peu trop tard. Cette plainte pourrait bien être la première d'une longue série visant à faire payer à Apple son inaction.
Les enjeux cruciaux soulevés par cette affaire
Au-delà du cas d'Apple, ce procès met en lumière toute la complexité de la lutte contre le CSAM en ligne. Comment concilier efficacement :
- Le droit fondamental à la vie privée et au chiffrement des données ?
- La nécessité de protéger les plus vulnérables, notamment les enfants victimes d'exploitation ?
- La responsabilité des plateformes dans la modération des contenus illégaux ?
Autant de questions épineuses auxquelles il faudra bien trouver des réponses. Car en matière de CSAM, l'inaction n'est clairement plus une option, comme le montre le cas d'Apple. C'est tout l'écosystème tech qui est appelé à se mobiliser, sans pour autant sacrifier d'autres droits fondamentaux sur l'autel de la protection de l'enfance. Un équilibre fragile et crucial à trouver pour notre société numérique.