Scale AI Fait Face à un Troisième Procès Concernant ses Pratiques de Travail
La startup d'intelligence artificielle Scale AI, valorisée à près de 14 milliards de dollars en 2024, se retrouve une nouvelle fois sous le feu des projecteurs. Près d'un mois après avoir été visée par deux premières actions en justice concernant de présumées pratiques abusives envers ses employés, l'entreprise doit maintenant faire face à une plainte collective initiée par six anciens collaborateurs. Ces derniers affirment avoir subi des traumatismes psychologiques suite à l'exposition répétée à du contenu violent et perturbant dans le cadre de leur travail d'annotation de données, sans bénéficier de mesures de soutien adéquates. Un procès qui met en lumière les dérives possibles du secteur de l'IA et la nécessité de mieux encadrer les conditions de travail de ces petites mains de la tech.
Des allégations graves de maltraitance psychologique
Selon la plainte déposée le 17 janvier dernier devant un tribunal fédéral de Californie du Nord, les six plaignants auraient été contraints de rédiger des incitations particulièrement dérangeantes, faisant notamment référence à de la violence et des abus, y compris sur des enfants. Tout cela sans accompagnement psychologique adapté de la part de leur employeur Scale AI. Résultat : certains d'entre eux souffriraient aujourd'hui de troubles mentaux comme un syndrome de stress post-traumatique.
Les plaignants déclarent avoir été induits en erreur lors de leur embauche quant à la nature réelle de leur futur travail. Lorsqu'ils ont cherché à obtenir un soutien pour préserver leur santé mentale face à ces tâches éprouvantes, ils affirment avoir subi des représailles de la part de l'entreprise. Ils réclament aujourd'hui la mise en place d'un programme de suivi médical, de nouvelles normes de sécurité mais aussi des dommages et intérêts.
Scale AI conteste les accusations
Contacté par TechCrunch, un porte-parole de Scale AI a vivement critiqué le cabinet d'avocats Clarkson Law Firm, qui représente les plaignants. Il a rappelé qu'un juge avait précédemment rejeté une autre plainte déposée par ce même cabinet contre des entreprises tech, la qualifiant de "inutilement longue" et contenant "des informations largement non pertinentes, distrayantes ou redondantes". Scale AI assure de son côté respecter toutes les lois, disposer de nombreuses mesures de protection pour ses contributeurs et ne jamais accepter de projets impliquant du matériel pédopornographique.
Scale AI a forcé des travailleurs à visionner du contenu violent et horrible pour entraîner ces modèles d'IA, sans assurer un lieu de travail sûr.
Glenn Danas, avocat chez Clarkson Law Firm
Une invitation à réguler le secteur de l'IA
Au-delà du cas de Scale AI, cette affaire pose la question plus large de l'encadrement des conditions de travail dans l'industrie de l'intelligence artificielle. Celle-ci repose en grande partie sur une main d'oeuvre pas toujours bien considérée, souvent précaire, chargée des tâches ingrates mais indispensables d'annotation et de modération de contenus. Des petites mains de l'ombre sur lesquelles reposent les progrès des algorithmes et les profits des géants de la tech.
Comme le souligne l'avocat des plaignants, il est crucial que les grandes entreprises tech soient tenues responsables de la façon dont elles traitent ces travailleurs essentiels. Sans quoi l'exploitation et les abus continueront. Au-delà des procédures judiciaires, le secteur de l'IA aurait sans doute besoin d'un cadre réglementaire plus strict pour s'assurer du respect des droits et de la santé des employés. L'utilisation d'outils d'intelligence artificielle ne devrait pas se faire au détriment de l'éthique et de la responsabilité sociale des entreprises.
- Scale AI n'en est pas à sa 1ère plainte pour conditions de travail abusives
- Les employés de l'IA ont besoin de meilleures protections légales
- La santé mentale, un enjeu crucial pour ces nouveaux métiers
Cette affaire Scale AI doit servir de piqûre de rappel à toute l'industrie. L'intelligence artificielle ne pourra réellement servir le progrès que si elle se développe dans un cadre éthique garantissant la sécurité et la dignité de tous les travailleurs qui œuvrent à son essor. Un défi qui appelle une mobilisation conjointe des acteurs économiques, politiques et de la société civile pour bâtir une IA porteuse d'avenir.