ElevenLabs : L’IA au service de la désinformation russe
L'intelligence artificielle fascine autant qu'elle inquiète. Si ses applications semblent infinies, du domaine médical à l'art en passant par l'éducation, force est de constater qu'elle peut également être détournée à des fins plus sombres. C'est ce que vient de démontrer un récent rapport de Recorded Future, entreprise spécialisée dans la cybersécurité, pointant du doigt l'utilisation de l'IA vocale d'ElevenLabs dans une vaste campagne de désinformation russe visant à saper le soutien européen à l'Ukraine.
ElevenLabs, pépite de la Silicon Valley prise dans la tourmente
Fondée en 2022, la startup ElevenLabs a connu une ascension fulgurante grâce à sa technologie de pointe en matière d'IA vocale. Ses algorithmes permettent de générer des voix d'une qualité et d'un réalisme saisissants, dans de multiples langues. Une prouesse technologique qui a séduit investisseurs et utilisateurs, propulsant la valorisation d'ElevenLabs à près de 3 milliards de dollars en à peine un an d'existence.
Mais cette success story à l'américaine se trouve aujourd'hui entachée par les révélations de Recorded Future. Selon le rapport, l'IA d'ElevenLabs aurait été utilisée dans le cadre d'une opération baptisée "Undercut", pilotée par la Social Design Agency, une organisation russe sanctionnée par les États-Unis pour ses activités de désinformation au profit du Kremlin.
Une campagne de désinformation aux accents slaves
L'objectif de cette campagne était clair : discréditer les dirigeants ukrainiens et remettre en question l'utilité de l'aide militaire apportée par l'Occident à Kiev. Pour ce faire, de fausses vidéos "d'information" ont été produites et diffusées, mettant en scène des voix générées par IA s'exprimant dans un anglais, un français ou un allemand impeccables.
Ironie du sort, certaines vidéos ont été publiées avec de vraies voix humaines... à l'accent russe prononcé, trahissant l'origine des manipulateurs. Un amateurisme qui n'a pas empêché ces contenus mensongers de se propager sur les réseaux sociaux européens, avec un impact certes limité, mais réel.
L'IA, arme de désinformation massive ?
Au-delà du cas ElevenLabs, cette affaire soulève la question de l'utilisation malveillante des technologies d'IA. Deepfakes, bots conversationnels, génération de textes... Autant d'outils qui, entre de mauvaises mains, peuvent devenir de redoutables vecteurs de manipulation de l'opinion.
L'IA est comme un couteau suisse. Elle peut être utilisée pour construire... ou pour détruire. Tout dépend de l'intention de celui qui la manie.
Yuval Noah Harari, historien et philosophe
Face à ce défi, les géants de la tech comme les pouvoirs publics tentent de réagir, en renforçant la modération des contenus et en établissant des garde-fous éthiques. Mais la tâche est ardue tant les avancées dans le domaine de l'IA sont rapides et les acteurs mal intentionnés inventifs.
ElevenLabs promet des mesures, mais le mal est fait
Mise en cause, ElevenLabs assure prendre le problème très au sérieux et annonce de nouvelles mesures de sécurité, comme le blocage automatique de la synthèse vocale de personnalités politiques. Un effort louable, mais qui intervient a posteriori et ne règle pas le fond du problème : la possibilité de détourner un outil puissant et accessible au plus grand nombre.
Car cette affaire est aussi le symbole d'un paradoxe propre à notre époque : celui d'une innovation débridée, portée par des startups en quête de disruption, mais dont les implications sociétales et géopolitiques sont souvent sous-estimées. Dans la course effrénée à la croissance et au succès, la réflexion éthique peine parfois à suivre.
Un coup de projecteur nécessaire
Au final, l'affaire ElevenLabs a le mérite de braquer les projecteurs sur les dérives potentielles de l'IA et la nécessité d'un encadrement renforcé. Elle rappelle aussi que dans un monde hyperconnecté et instable, l'innovation n'est jamais neutre. Chaque avancée technologique est une arme à double tranchant, qu'il convient de manier avec précaution et clairvoyance.
Espérons que cette prise de conscience permettra l'émergence d'une IA plus responsable et éthique, au service du progrès humain plutôt que de la manipulation. C'est tout l'enjeu des années à venir, pour que la promesse d'un futur augmenté par la technologie ne se transforme pas en cauchemar orwellien.