Google ajoute des divulgations pour les photos générées par IA
L'essor fulgurant des outils d'édition de photos par intelligence artificielle soulève des questions cruciales de transparence et d'éthique. Comment savoir si une image a été retouchée ou carrément générée par une IA ? Google vient d'annoncer une première réponse, certes imparfaite, en intégrant de nouvelles divulgations dans son application Google Photos.
De discrètes mentions "Modifié avec l'IA de Google"
À partir de la semaine prochaine, lorsque vous ouvrirez une photo dans Google Photos, une mention apparaîtra en bas des détails si elle a été éditée avec l'un des outils d'IA de Google comme Magic Editor, Magic Eraser ou Zoom Enhance. Une initiative louable pour "améliorer la transparence", selon le géant de Mountain View. Néanmoins, cette divulgation reste peu visible à première vue.
En effet, aucun watermark visuel n'est incrusté directement sur l'image pour signaler son caractère synthétique. Quelqu'un qui verrait passer cette photo retouchée sur les réseaux sociaux, dans un message ou même en faisant défiler ses propres clichés ne saurait pas d'emblée qu'elle a été générée ou modifiée par une intelligence artificielle. Il faut aller chercher l'information dans les métadonnées ou maintenant les détails de la photo.
Les divulgations, une réponse insuffisante ?
Ces nouvelles balises ne règlent donc pas vraiment le problème de fond soulevé par la démocratisation des outils d'édition par IA de Google : l'absence de watermarks visuels immédiatement identifiables par les utilisateurs. Beaucoup craignent que cela n'alimente la désinformation et ne sème la confusion entre le vrai et le faux.
Les watermarks visuels sur les images générées par IA ne sont pas non plus une solution parfaite. Les gens peuvent facilement les recadrer ou les éditer, et on revient à la case départ.
Google semble miser sur les plateformes pour signaler aux utilisateurs qu'ils visualisent du contenu créé par IA. Meta le fait déjà sur Facebook et Instagram. Google prévoit aussi de baliser les images IA dans sa recherche. Mais tous les acteurs ne suivent pas encore le mouvement.
Vers une prolifération du contenu synthétique ?
La généralisation des outils d'édition par IA de Google pourrait doper la quantité de contenu synthétique en circulation, rendant plus difficile le tri entre le réel et l'artificiel. Une tendance qui suscite des inquiétudes :
- Désinformation amplifiée : des images modifiées de façon réaliste pourraient servir à propager de fausses informations.
- Confusion des utilisateurs : il deviendra plus dur de faire la part des choses entre photos authentiques et retouchées.
- Défis juridiques : l'utilisation d'images générées par IA soulève des questions de droits d'auteur et de vie privée.
Pour y répondre, il faudra sans doute aller plus loin que de simples mentions dans les détails des photos. Des méthodes de watermarking plus robustes, une standardisation des divulgations et une sensibilisation du public seront nécessaires. Les géants de la tech comme Google en sont conscients, mais le chemin sera encore long. La course à l'armement entre création et détection de contenu généré par IA ne fait que commencer.