Meta affine ses politiques sur les images explicites générées par l’IA
L'avènement de l'intelligence artificielle générative a ouvert un vaste champ de possibilités, mais également son lot de défis éthiques. Parmi ceux-ci, la création et diffusion d'images explicites non-consensuelles générées par l'IA soulève de sérieuses questions. Suite à plusieurs cas problématiques, l'Oversight Board, l'organe de surveillance de Meta, exhorte aujourd'hui l'entreprise à revoir et affiner ses politiques en la matière.
Des cas révélateurs de failles
Deux cas récents impliquant des images explicites de personnalités publiques générées par l'IA ont mis en lumière des faiblesses dans l'approche de Meta. Le premier concerne une image dénudée d'une personnalité indienne postée sur Instagram. Malgré les signalements de nombreux utilisateurs, Meta n'a pas retiré l'image avant l'intervention de l'Oversight Board.
Le second cas implique une image explicite d'une figure publique américaine partagée sur Facebook. Déjà référencée dans la base de données de Meta grâce à des articles de presse, elle a rapidement été supprimée. Cela souligne un traitement inégal entre personnalités selon leur couverture médiatique.
Oversight Board : des recommandations claires
Face à ces dysfonctionnements, l'Oversight Board appelle Meta à plusieurs changements :
- Remplacer le terme "dérogatoire" par "non-consensuel" dans ses politiques
- Déplacer ces règles dans la section "Exploitation sexuelle" plutôt que "Harcèlement"
- Supprimer la clause conditionnant le retrait au caractère "non-commercial ou privé"
L'objectif : clarifier la position de Meta et faciliter l'application cohérente des mesures de modération sur les images intimes truquées ou générées sans consentement.
Des enjeux culturels et des victimes vulnérables
Comme le souligne l'organisation indienne Breakthrough Trust, la question des deepfakes et images non-consensuelles comporte une dimension culturelle. Trop souvent minimisée en "vol d'identité", elle constitue une réelle violence sexiste. De plus, toutes les victimes ne bénéficient pas d'une forte visibilité pour obtenir une suppression rapide des contenus préjudiciables.
Les victimes sont souvent confrontées à une seconde victimisation lorsqu'elles signalent de tels cas, même quand il s'agit de deepfakes. Une fois sur Internet, l'image se propage très vite au-delà de la plateforme source.
- Barsha Chakraborty, responsable médias chez Breakthrough
Des évolutions nécessaires dans les systèmes de signalement
Actuellement, Meta s'appuie largement sur les signalements utilisateurs pour identifier et retirer les contenus problématiques. Or cette approche montre ses limites face aux deepfakes et contenus générés par l'IA, comme l'explique Devika Malik, experte en politiques numériques :
Cela fait reposer une charge injuste sur l'utilisateur affecté pour prouver son identité et l'absence de consentement. Le temps de vérifier ces signaux externes permet au contenu de gagner une traction néfaste.
- Devika Malik, ex-membre de l'équipe politique de Meta pour l'Asie du Sud
Les experts appellent donc à des canaux de signalement plus flexibles, permettant aux utilisateurs de fournir davantage de contexte sans exiger une parfaite compréhension des subtilités des règles de modération.
Une refonte en profondeur à venir ?
Suite aux recommandations de son conseil de surveillance, Meta a indiqué qu'il les mettrait en œuvre une fois les délibérations finalisées. Cela devrait mener à une clarification bienvenue des politiques sur les images intimes générées par l'IA ou manipulées sans consentement.
Néanmoins, au-delà des ajustements de langage, c'est une refonte plus profonde des systèmes de signalement et de modération qui semble s'imposer. L'objectif : s'adapter aux défis posés par les deepfakes et l'IA générative en matière de désinformation et de violence sexiste.
Meta saura-t-il faire preuve de la réactivité et de la clairvoyance nécessaires ? La crédibilité de la plateforme et la protection de ses utilisateurs les plus vulnérables en dépendent. Un défi de taille à l'heure où l'IA connait une croissance fulgurante.