L’Irlande Adopte un Code de Sécurité en Ligne pour les Plateformes de Partage de Vidéos
L'ère de l'autorégulation des médias sociaux touche à sa fin en Irlande. Le pays vient en effet d'adopter un Code de Sécurité en Ligne qui imposera dès le mois prochain de nouvelles obligations aux plateformes de partage de vidéos ayant leur siège dans le pays, comme TikTok, YouTube, Instagram ou encore Facebook Reels.
Un code pour lutter contre les contenus préjudiciables
L'objectif principal de ce code est de s'attaquer à une large palette de contenus préjudiciables qui ne sont pas directement couverts par la législation européenne sur les services numériques (Digital Services Act). Les plateformes devront ainsi interdire dans leurs conditions générales le téléchargement ou le partage de contenus promouvant notamment :
- Le cyberharcèlement
- L'automutilation ou le suicide
- Les troubles alimentaires
- La haine ou la violence
- Le terrorisme
- Les abus sexuels sur mineurs
- Le racisme et la xénophobie
En plus d'interdire la mise en ligne de ces contenus, les plateformes devront mettre en place des systèmes permettant aux utilisateurs de signaler facilement ceux qui enfreindraient ces règles afin qu'elles puissent agir rapidement. On passe donc d'une logique d'autorégulation à des obligations contraignantes.
Pas de filtrage généralisé mais un droit au signalement
Le droit européen interdit toutefois d'imposer une obligation générale de surveillance. Le code irlandais n'exigera donc pas des plateformes qu'elles déploient des filtres de téléchargement, a précisé un porte-parole de la Coimisiún na Meán, le régulateur des médias du pays. Il s'agit plutôt d'élargir le champ du mécanisme de notice and takedown, en permettant aux utilisateurs de signaler aussi les contenus préjudiciables.
Le Code met fin à l'ère de l'autorégulation des médias sociaux. Il fixe des règles contraignantes que les plateformes de partage de vidéos doivent suivre afin de réduire les dommages qu'elles peuvent causer aux utilisateurs.
– Niamh Hodnett, Commissaire à la Sécurité en Ligne
Vérification de l'âge pour les contenus pour adultes
Autre mesure phare : les sites qui autorisent les contenus pornographiques ou la violence gratuite devront mettre en place des systèmes de vérification de l'âge afin d'empêcher l'accès des mineurs. Aucune technologie spécifique n'est imposée, le régulateur évaluera au cas par cas. Ces plateformes devront aussi établir des systèmes de classification des contenus.
Des contrôles parentaux seront en outre requis pour tout contenu susceptible de nuire au développement physique, mental ou moral des moins de 16 ans. Le code s'appliquera directement aux services vidéo fournis aux utilisateurs en Irlande, mais les géants technologiques pourraient choisir d'étendre ces mesures à toute l'Europe par souci de simplicité.
Quid des systèmes de recommandation ?
La Coimisiún na Meán avait envisagé d'exiger que les plateformes désactivent par défaut les recommandations de contenus basées sur le profilage, ce qui aurait pu contraindre TikTok à couper son algorithme. Mais cette mesure n'a finalement pas été retenue dans le code final.
Le régulateur estime que l'encadrement des systèmes de recommandation et de leurs effets potentiellement néfastes relève davantage du Digital Services Act européen, d'application générale. Il n'empêche, ce nouveau Code de Sécurité en Ligne marque une étape cruciale vers une meilleure protection des utilisateurs, en particulier les plus jeunes, face aux dérives des réseaux sociaux. Les plateformes ont désormais une obligation de moyens pour assainir leurs contenus.