Indonésie et Malaisie Bloquent Grok pour Deepfakes
Imaginez ouvrir une application d’intelligence artificielle et demander une image : en quelques secondes, des visages bien réels de femmes ou même de mineures apparaissent dans des mises en scène sexualisées, parfois violentes, sans aucun consentement. Ce scénario, qui relevait encore récemment de la science-fiction dystopique, est devenu réalité avec Grok, le chatbot développé par xAI. Et aujourd’hui, deux pays d’Asie du Sud-Est ont décidé de réagir très fermement.
Quand l’IA dépasse les limites éthiques : le cas Grok
Depuis plusieurs mois, les capacités de génération d’images de Grok fascinent autant qu’elles inquiètent. Intégré à la plateforme X (ex-Twitter), cet outil permettait jusqu’à récemment à n’importe quel utilisateur de créer des visuels réalistes à partir d’une simple description textuelle. Mais ce qui devait rester un terrain de jeu créatif a rapidement dérapé vers la production massive de contenus choquants.
Des milliers d’internautes ont utilisé Grok pour fabriquer des deepfakes non consentis, mettant en scène des personnalités publiques, des influenceuses, mais aussi des personnes lambda et parfois des mineures. Le résultat ? Une avalanche d’images à caractère sexuel explicite, souvent associées à des scénarios de violence. Face à cette dérive, les autorités n’ont pas tardé à bouger.
L’Indonésie tire la première sonnette d’alarme
Le samedi 10 janvier 2026, la ministre indonésienne des Communications et du Numérique, Meutya Hafid, a annoncé une mesure radicale : le blocage temporaire de l’accès à Grok sur le territoire national. Dans un communiqué officiel, elle qualifie ces pratiques de « violation grave des droits humains, de la dignité et de la sécurité des citoyens dans l’espace numérique ».
Le gouvernement considère la création de deepfakes sexuels non consentis comme une atteinte majeure à l’intégrité des personnes.
– Meutya Hafid, ministre indonésienne des Communications
En parallèle, les autorités ont convoqué des représentants de X pour des discussions urgentes. L’objectif affiché est clair : obtenir des garanties concrètes sur la mise en place de garde-fous efficaces. Sans ces engagements, le blocage pourrait devenir permanent.
La Malaisie emboîte le pas dès le lendemain
Moins de 24 heures après l’annonce indonésienne, la Malaisie a suivi la même voie. Les autorités ont officiellement interdit l’accès à Grok sur leur territoire, invoquant les mêmes motifs : la protection contre les contenus pornographiques générés par IA et la lutte contre la diffusion de deepfakes non consentis. Cette décision rapide montre à quel point la région prend très au sérieux le sujet.
Ces deux pays ne sont d’ailleurs pas les premiers à s’alarmer. Depuis une semaine, plusieurs gouvernements multiplient les signaux forts :
- L’Inde a ordonné à X de bloquer immédiatement la génération de contenus obscènes par Grok ;
- La Commission européenne a exigé la conservation de tous les documents liés à Grok, ouvrant la voie à une possible enquête formelle ;
- Au Royaume-Uni, Ofcom a lancé une évaluation rapide et le Premier ministre Keir Starmer a publiquement apporté son soutien à une action ferme.
Cette mobilisation internationale tranche avec le silence apparent observé outre-Atlantique, où l’administration actuelle semble pour l’instant peu encline à intervenir.
Les réponses successives de xAI : entre mea culpa et ajustements techniques
Face à la polémique grandissante, xAI a d’abord publié un message d’excuses directement depuis le compte officiel de Grok. L’équipe reconnaît qu’une publication « a violé les standards éthiques et potentiellement les lois américaines » relatives aux contenus pédopornographiques. Une admission rare dans l’univers des startups IA.
Quelques heures plus tard, la société a restreint la fonctionnalité de génération d’images aux seuls abonnés payants de X. Problème : cette limitation ne semble pas s’appliquer à l’application mobile dédiée Grok, qui continue de permettre à tout le monde de générer des visuels. Une faille qui continue d’alimenter les critiques.
Pourquoi cette affaire dépasse largement le cas Grok
Si Grok se retrouve aujourd’hui au cœur de la tempête, il n’est pas le seul outil concerné. De nombreux modèles open-source ou accessibles via différentes plateformes permettent déjà de produire des deepfakes de qualité similaire. Alors pourquoi une telle focalisation sur l’IA d’Elon Musk ?
Plusieurs éléments expliquent cette attention particulière :
- la très forte visibilité de Grok sur X, réseau social aux centaines de millions d’utilisateurs ;
- le discours très permissif tenu historiquement par Elon Musk sur la liberté d’expression et la modération minimale ;
- la facilité d’accès à la génération d’images sans barrière d’âge ou de vérification d’identité significative.
Cette affaire met en lumière un enjeu beaucoup plus large : comment concilier innovation technologique rapide et protection des individus contre les abus ?
Vers une régulation mondiale de l’IA générative ?
Les réactions en cascade observées ces derniers jours pourraient bien marquer un tournant. Après des années de débats théoriques sur les risques de l’IA, plusieurs gouvernements passent désormais à l’action concrète. Blocages nationaux, convocations de dirigeants, demandes de documents… les outils de pression se multiplient.
Pourtant, la solution technique miracle n’existe pas encore. Filtrer en temps réel des millions de prompts reste extrêmement complexe, surtout quand les utilisateurs redoublent d’ingéniosité pour contourner les garde-fous (par exemple en utilisant des descriptions détournées ou des synonymes). De plus, toute mesure trop stricte risque d’être accusée de censure excessive, comme l’a suggéré Elon Musk lui-même dans une réponse sur X.
Ils cherchent n’importe quel prétexte pour censurer.
– Elon Musk, en réponse à un utilisateur britannique
Cette tension entre liberté et sécurité continuera probablement de structurer le débat dans les mois à venir.
Et maintenant ? Les scénarios possibles pour Grok et l’IA générative
Plusieurs trajectoires se dessinent :
- Une restriction progressive et mondiale de la génération d’images réalistes de personnes ;
- Le développement de filigranes numériques obligatoires et de systèmes de traçabilité renforcés ;
- Une segmentation plus stricte entre utilisateurs vérifiés et anonymes ;
- Une accélération des travaux législatifs au niveau européen et peut-être international.
Quelle que soit l’issue, une chose semble certaine : l’époque où les outils d’IA générative pouvaient fonctionner sans garde-fous sérieux touche à sa fin. Les blocages en Indonésie et en Malaisie ne sont probablement que les premiers signaux d’un mouvement beaucoup plus vaste.
Pour les startups du secteur, l’équation devient plus complexe : innover toujours plus vite tout en anticipant les réactions des régulateurs et les attentes sociétales. Une équation que xAI, malgré ses moyens considérables, n’a pour l’instant pas su résoudre parfaitement.
Le dossier est loin d’être clos. Et dans les prochaines semaines, d’autres pays pourraient rejoindre le mouvement. À suivre de très près.