Kling, l’IA chinoise qui censure les sujets sensibles

Accueil - Technologies et Avenirs - Intelligence Artificielle - Kling, l’IA chinoise qui censure les sujets sensibles
Kling lIA chinoise qui censure les sujets sensibles Innovationsfr
juillet 25, 2024

Kling, l’IA chinoise qui censure les sujets sensibles

Dans l'Empire du Milieu, même l'intelligence artificielle doit se plier aux règles. C'est ce que semble nous dire le lancement de Kling, un puissant modèle chinois de génération vidéo développé par Kuaishou. Si ses prouesses techniques impressionnent, son mutisme sur certains sujets sensibles en dit long sur le contrôle exercé par Pékin dans le domaine de l'IA.

Kling, un modèle vidéo à la pointe mais muselé

Accessible au grand public depuis peu, Kling permet de générer des vidéos de 5 secondes en 720p à partir de simples descriptions textuelles. Ses performances sont comparables à celles de modèles comme Gen-3 de Runway ou Sora d'OpenAI, simulant de manière convaincante des éléments physiques comme le bruissement des feuilles ou l'écoulement de l'eau.

Mais c'est lorsqu'on aborde des sujets politiquement sensibles que Kling montre ses limites. Des requêtes comme "Manifestations place Tian'anmen" ou "Démocratie en Chine" se heurtent à un message d'erreur laconique. Le filtrage semble s'opérer uniquement au niveau des prompts : le modèle accepte d'animer un portrait de Xi Jinping, tant qu'on ne le nomme pas explicitement.

La main de fer de Pékin sur l'IA

Ce comportement de Kling n'est pas anodin. Il témoigne de l'intense pression politique exercée par le gouvernement chinois sur les projets d'IA génératifs dans la région. Selon le Financial Times, l'Administration du Cyberespace de Chine (CAC) prévoit de tester les modèles pour s'assurer que leurs réponses sur les sujets sensibles "incarnent les valeurs socialistes fondamentales".

Les entreprises soumettant des modèles à examen doivent préparer des dizaines de milliers de questions conçues pour tester si les modèles produisent des réponses "sûres".

Financial Times

La CAC irait jusqu'à proposer une liste noire de sources ne pouvant pas être utilisées pour entraîner les modèles d'IA. Un contrôle draconien qui aboutit à des systèmes comme Ernie, le chatbot vedette de Baidu, qui esquive habilement les questions potentiellement controversées.

Censure et progrès de l'IA, un équilibre délicat

Cette approche musclée de la régulation de l'IA pourrait bien freiner les avancées chinoises dans le domaine. Outre l'épuration des données d'entraînement, la mise en place de garde-fous idéologiques nécessite un investissement colossal en temps de développement, sans garantie de succès comme le montre l'exemple de Kling.

Au final, les politiques chinoises semblent conduire à deux classes de modèles : certains entravés par un filtrage intensif, d'autres nettement moins. Une situation qui soulève des questions quant à l'avenir de l'écosystème IA chinois et à son impact sur l'innovation mondiale.

Kling incarne parfaitement ce grand écart entre prouesses technologiques et censure, reflet des défis auxquels font face les acteurs de l'IA en Chine. Si le modèle impressionne par ses capacités, son silence sur certains sujets en dit long sur le long chemin qu'il reste à parcourir pour concilier progrès et contrôle dans l'Empire du Milieu.

Partager:

Ajouter Un Commentaire

Chercher

Beauty and lifestyle influencer

Follow my journey on all Social Media channels

Alienum phaedrum torquatos nec eu, vis detraxit periculis ex, nihilmei. Mei an pericula euripidis, hinc partem ei est.
facebook
5M+
Facebook followers
Follow Me
youtube
4.6M+
Youtube Subscribers
Subscribe Me
tiktok
7M+
Tiktok Followers
Follow Me
instagram
3.4M+
Instagram Followers
Follow Me