La désinformation générée par l’IA cible spécifiquement certaines audiences
Alors que de nombreux observateurs redoutaient une influence massive de la désinformation générée par l'intelligence artificielle (IA) lors des élections américaines de 2024, le phénomène s'est avéré plus ciblé qu'anticipé. Selon Oren Etzioni, chercheur en IA et fondateur de l'ONG TrueMedia qui traque les deepfakes, la menace est bien réelle mais vise des audiences spécifiques plutôt que le grand public.
Une diversité de deepfakes au service d'objectifs ciblés
Oren Etzioni souligne la variété des deepfakes en circulation, chacun servant un but précis et touchant des publics distincts. Alors que certains font l'objet d'une large couverture médiatique, la grande majorité passe sous les radars du grand public.
Pour chaque deepfake dont vous entendez parler, il y en a des centaines, voire des milliers, qui ne vous ciblent pas. Vous ne voyez que la partie émergée de l'iceberg.
– Oren Etzioni, fondateur de TrueMedia
Contrairement aux idées reçues, les deepfakes les plus dangereux ne sont pas ceux mettant en scène des célébrités ou des personnalités politiques, mais ceux représentant des situations et des personnes difficilement identifiables et réfutables.
L'Amérique, une cible difficile pour la désinformation de masse
Malgré les craintes, les États-Unis se sont avérés une cible ardue pour les campagnes de désinformation massive, grâce à une population relativement bien informée, un accès aisé à l'information factuelle et une presse globalement considérée comme fiable. Cependant, certaines audiences spécifiques restent vulnérables.
Des deepfakes ciblant des communautés spécifiques
Oren Etzioni cite l'exemple d'un deepfake montrant de supposés avions iraniens survolant Israël, une information impossible à vérifier pour la plupart des gens. Ce type de contenu ne circule pas sur les canaux mainstream mais touche des millions de personnes via des groupes Telegram ou WhatsApp ciblés.
La mission de détection de TrueMedia
Face à cette menace, TrueMedia propose un service gratuit d'identification des médias manipulés. S'appuyant sur l'apprentissage machine et l'analyse d'experts, l'ONG s'efforce de construire une base de données de contenus authentiques et falsifiés pour améliorer ses algorithmes de détection.
Quantifier l'ampleur et l'impact de la désinformation générée par l'IA
Au-delà de la détection, TrueMedia cherche à mesurer trois aspects clés du phénomène :
- La quantité de deepfakes en circulation : une tâche ardue en l'absence d'un « Google de la désinformation ».
- Le nombre de personnes exposées : plus aisé à évaluer grâce aux métriques des réseaux sociaux.
- L'impact réel sur les comportements, notamment électoraux : le défi le plus crucial et complexe à relever.
Si les tentatives de l'industrie pour rendre les médias générés par l'IA plus facilement identifiables, comme le watermarking, sont utiles dans les écosystèmes collaboratifs, elles n'offrent qu'une protection limitée face aux acteurs malveillants.
En fin de compte, même si les élections de 2024 n'ont pas été massivement perturbées par la désinformation générée par l'IA, l'absence de manipulations à grande échelle ne doit pas occulter l'ampleur de la menace. Les campagnes ciblées, moins visibles mais potentiellement tout aussi influentes, restent un défi majeur à relever pour préserver l'intégrité du débat démocratique à l'ère de l'intelligence artificielle.