Adobe Visé par un Procès pour Entraînement IA
Imaginez que vous passez des années à écrire, corriger, publier un livre… pour découvrir un jour qu’une multinationale l’a utilisé sans votre accord, sans vous payer un centime, pour nourrir l’intelligence artificielle qui génère désormais des textes à la chaîne. C’est exactement ce que vit aujourd’hui une autrice américaine, et potentiellement des milliers d’autres créateurs. Adobe, géant incontesté du logiciel créatif, se retrouve au cœur d’une nouvelle tempête judiciaire.
Quand l’innovation technologique rencontre les tribunaux
Depuis 2023, Adobe a massivement investi dans l’intelligence artificielle. La suite Firefly en est l’exemple le plus visible : un ensemble d’outils de génération d’images, de vidéos et de textes qui séduit déjà des millions d’utilisateurs. Mais derrière ces prouesses se cache une question lancinante : sur quelles données ces modèles ont-ils été entraînés ? Une plainte déposée fin 2025 apporte une réponse troublante.
Elizabeth Lyon, autrice de plusieurs guides sur l’écriture créative et non-fictionnelle, accuse Adobe d’avoir intégré ses œuvres – sans autorisation – dans le processus d’entraînement d’un modèle discret mais stratégique : SlimLM. Ce petit modèle de langage est conçu pour fonctionner efficacement sur mobile et assister les utilisateurs dans des tâches liées aux documents. Problème : selon la plaignante, ses livres se trouvaient dans le dataset utilisé pour pré-entraîner SlimLM.
Le rôle controversé des datasets « Pajama »
Adobe explique officiellement que SlimLM a été pré-entraîné sur SlimPajama-627B, un dataset massif et open-source publié par Cerebras en 2023. Ce corpus se présente comme une version nettoyée et dédupliquée d’un autre dataset très connu : RedPajama. Or, RedPajama lui-même intégrait – via une copie – le tristement célèbre Books3.
Books3 regroupe environ 191 000 livres numérisés, dont une très large proportion provient de sources pirates. Ce corpus a déjà été au cœur de multiples procès aux États-Unis et ailleurs. Il est devenu l’un des symboles des dérives possibles de la course à l’IA générative.
Le SlimPajama dataset a été créé en copiant et manipulant le RedPajama dataset (y compris en copiant Books3). Par conséquent, SlimPajama contient le dataset Books3, incluant les œuvres protégées de la plaignante et des membres de la classe.
– Extrait de la plainte déposée par Elizabeth Lyon
Cette chaîne de copie pose un problème juridique majeur : même si Adobe affirme n’avoir utilisé qu’un dataset « open-source », la présence de matériel piraté en amont fragilise considérablement sa position.
Une vague judiciaire qui ne faiblit pas
Adobe n’est pas la première entreprise technologique à être poursuivie sur ce terrain. Depuis 2023, les auteurs, photographes, illustrateurs et musiciens se mobilisent. Parmi les cas marquants :
- Anthropic a fini par transiger pour 1,5 milliard de dollars avec plusieurs plaignants en septembre 2025.
- Apple a été visé en septembre 2025 pour l’utilisation présumée de RedPajama dans Apple Intelligence.
- Salesforce a également fait l’objet d’une plainte similaire en octobre 2025.
Ces affaires montrent que le sujet dépasse largement Adobe. Il touche toute l’industrie qui s’appuie sur des datasets massifs constitués avant que les règles éthiques et légales ne soient vraiment clarifiées.
Quelles conséquences pour les créateurs indépendants ?
Pour beaucoup d’auteurs indépendants, cette affaire est vécue comme une double peine. Non seulement leurs œuvres circulent sans compensation sur des plateformes pirates, mais elles servent ensuite à construire des outils qui concurrencent directement leur activité. Un cercle vicieux particulièrement difficile à briser.
Elizabeth Lyon et ses avocats espèrent transformer ce dossier en class action nationale, voire internationale. Si la justice américaine reconnaît la validité de leurs arguments, des milliers d’autres auteurs pourraient se joindre au mouvement et réclamer des dommages et intérêts conséquents.
Adobe et l’équilibre fragile entre innovation et éthique
Adobe a toujours cultivé une image d’entreprise respectueuse des créateurs. Ses outils – Photoshop, Illustrator, Premiere – sont des standards dans de nombreux métiers artistiques. Pourtant, l’arrivée de Firefly et maintenant de SlimLM a créé une fracture. Beaucoup d’utilisateurs historiques se demandent si l’entreprise ne sacrifie pas son ADN pour ne pas se faire distancer par OpenAI, Google ou Meta.
La firme de San José affirme travailler depuis plusieurs années sur des approches plus transparentes : partenariats avec des ayants droit, datasets propriétaires, outils de traçabilité… Mais ces initiatives arrivent souvent après que les modèles les plus puissants ont déjà été entraînés sur des données controversées.
Vers une régulation inévitable ?
Les procès s’accumulent, les transactions à plusieurs milliards de dollars se multiplient. Il devient difficile d’imaginer que les législateurs, aux États-Unis comme en Europe, restent longtemps spectateurs. Déjà, le Parlement européen a adopté des textes qui imposent plus de transparence sur les données d’entraînement. Aux États-Unis, plusieurs États envisagent des lois similaires.
Pour les startups et les géants du numérique, la question n’est plus de savoir si une régulation arrivera, mais quand et à quel coût. Ceux qui auront anticipé – en négociant des licences, en développant des modèles propriétaires ou en investissant dans des datasets éthiques – seront probablement les mieux placés pour traverser cette période de transition.
Et les utilisateurs dans tout ça ?
Les créatifs qui utilisent quotidiennement les outils Adobe se retrouvent eux aussi face à un dilemme. Continuer à payer un abonnement pour soutenir une entreprise mise en cause ? Passer à des alternatives open-source ou à des concurrents moins exposés ? La réponse n’est pas simple.
Ce qui est certain, c’est que l’affaire SlimLM pourrait accélérer un mouvement déjà enclenché : la recherche d’outils d’IA plus transparents, plus respectueux des droits des créateurs, et surtout plus traçables. Une demande qui, si elle devient massive, pourrait redessiner le paysage de l’IA générative pour les années à venir.
En attendant le verdict – qui pourrait prendre des années –, une chose est sûre : l’époque où l’on pouvait entraîner des modèles sur des téraoctets de données sans poser trop de questions touche à sa fin. Adobe, comme les autres, devra prouver qu’il sait innover sans piétiner les droits fondamentaux de celles et ceux qui font vivre la création.
Et vous, comment percevez-vous cette nouvelle affaire ? Êtes-vous prêt à payer plus cher pour des outils d’IA réellement éthiques ? Le débat ne fait que commencer.