Hugging Face détecte un accès non autorisé à sa plateforme
Vendredi dernier en fin d'après-midi, un créneau horaire généralement réservé aux annonces délicates, la startup d'IA Hugging Face a révélé que son équipe de sécurité avait détecté plus tôt dans la semaine un « accès non autorisé » à Spaces, sa plateforme de création, de partage et d'hébergement de modèles et ressources d'IA.
Dans un billet de blog, Hugging Face a expliqué que l'intrusion concernait les secrets de Spaces, c'est-à-dire les informations privées servant de clés pour déverrouiller des ressources protégées comme les comptes, outils et environnements de développement. La startup a des « soupçons » que certains secrets aient pu être consultés par un tiers non autorisé.
Tokens révoqués et utilisateurs alertés
Par précaution, Hugging Face a révoqué un certain nombre de tokens liés à ces secrets. Les tokens servent à vérifier les identités. Les utilisateurs dont les tokens ont été révoqués ont déjà reçu un email de notification. La startup recommande à tous les utilisateurs de « rafraîchir toute clé ou token » et d'envisager de passer à des tokens d'accès à granularité fine, jugés plus sécurisés par Hugging Face.
Le nombre d'utilisateurs ou d'applications impactés par cette potentielle brèche n'a pas été immédiatement précisé. Hugging Face a déclaré travailler avec des experts externes en forensique de cybersécurité pour enquêter sur l'incident et revoir ses politiques et procédures de sécurité. L'incident a également été signalé aux forces de l'ordre et autorités de protection des données.
Une hausse des cyberattaques avec la montée en puissance de l'IA
Dans un communiqué envoyé par email, un porte-parole de Hugging Face a indiqué à TechCrunch :
Nous constatons une augmentation significative du nombre de cyberattaques ces derniers mois, probablement parce que notre utilisation a fortement augmenté et que l'IA devient plus grand public. Techniquement, il est difficile de savoir combien de secrets Spaces ont été compromis.
Hugging Face sous pression sur sa sécurité
Cette possible intrusion dans Spaces intervient alors que Hugging Face, l'une des plus grandes plateformes de projets collaboratifs en IA et data science avec plus d'un million de modèles, jeux de données et applications IA, fait l'objet d'une vigilance accrue sur ses pratiques de sécurité.
En avril, des chercheurs de Wiz avaient trouvé une vulnérabilité, depuis corrigée, permettant à des attaquants d'exécuter du code arbitraire pendant la phase de construction d'une application hébergée par Hugging Face. Plus tôt dans l'année, JFrog avait découvert que du code chargé sur la plateforme installait secrètement des portes dérobées et autres logiciels malveillants. Et HiddenLayer avait identifié des moyens de détourner le format sécurisé Safetensors de Hugging Face.
Récemment, la startup a annoncé un partenariat avec Wiz pour utiliser ses outils de scan des vulnérabilités et de configuration des environnements cloud « dans le but d'améliorer la sécurité sur notre plateforme et dans l'écosystème de l'IA/ML en général ».
Un défi majeur à l'heure de la démocratisation de l'IA
Cet incident rappelle combien la sécurité est un enjeu crucial pour les plateformes d'IA comme Hugging Face, alors que ces technologies se démocratisent rapidement auprès d'un large public et d'entreprises de tous secteurs. Avec une base d'utilisateurs en forte croissance, elles deviennent des cibles de choix pour les hackers.
Sécuriser les modèles d'IA et les données qui les alimentent est un défi de taille. Cela nécessite une vigilance de tous les instants et une amélioration continue des pratiques, face à des menaces en constante évolution. Un seul faux pas peut mettre en péril la confidentialité des utilisateurs et la réputation durement acquise.
Gageons que Hugging Face et les autres acteurs de l'IA collaboreront étroitement et partageront leurs retours d'expérience pour faire progresser la sécurité de tout l'écosystème. C'est une responsabilité collective pour que l'IA tienne ses promesses sans devenir un cheval de Troie.