Microsoft Poursuit un Groupe Abusant de Son Service d’IA
Dans une affaire qui soulève des questions cruciales sur la sécurité et l'éthique de l'intelligence artificielle, le géant technologique Microsoft a récemment intenté une action en justice contre un groupe accusé d'avoir développé un outil spécialement conçu pour contourner les garde-fous de sécurité de ses services cloud d'IA. Cette plainte, déposée en décembre dernier devant un tribunal fédéral de Virginie, met en lumière les défis auxquels sont confrontées les entreprises tentant de déployer des technologies d'IA de manière responsable.
Un outil pour abuser d'Azure OpenAI Service
Selon Microsoft, le groupe de dix défendeurs anonymes aurait utilisé des identifiants clients volés et un logiciel sur mesure pour s'introduire dans Azure OpenAI Service. Cette plateforme cloud, propulsée par les technologies de pointe de ChatGPT et d'autres modèles d'OpenAI, offre normalement un environnement sécurisé et éthique pour exploiter la puissance de l'IA générative.
Cependant, les accusés auraient conçu un outil baptisé "de3u" permettant de contourner les mesures de protection contre les contenus abusifs ou illicites. Grâce à ce logiciel et aux clés API dérobées, ils auraient pu générer en masse des images et du texte en violation des politiques d'utilisation d'Azure OpenAI Service.
Un "service de piratage" sophistiqué
Microsoft décrit dans sa plainte un véritable schéma de "piratage en tant que service". Les défendeurs auraient créé une infrastructure logicielle complexe pour traiter et acheminer les requêtes depuis leur outil de3u vers les systèmes de Microsoft, en exploitant les clés API volées à des clients américains.
L'outil permettait apparemment de générer des images via DALL-E, un des modèles d'IA disponibles sur Azure OpenAI Service, sans avoir à écrire de code. Mais surtout, il tentait activement d'empêcher la plateforme de réviser ou filtrer les prompts textuels potentiellement problématiques, une mesure de sécurité clé.
Ces fonctionnalités, combinées à l'accès API illégal des défendeurs au service Azure OpenAI, leur ont permis de rétro-ingéniérer des moyens de contourner les mesures de contrôle des contenus et des abus de Microsoft.
– Extrait de la plainte de Microsoft
Des dommages et préjudices causés
Bien que la nature exacte des contenus abusifs générés ne soit pas précisée, Microsoft affirme que ces actions ont causé des dommages et préjudices en accédant de manière non autorisée à ses systèmes protégés. La société réclame des injonctions, des dédommagements et d'autres réparations.
Un tribunal a déjà autorisé Microsoft à saisir un site web jugé essentiel aux opérations des défendeurs, afin de rassembler des preuves et perturber toute infrastructure technique supplémentaire mise au jour.
Un cas révélateur des défis de l'IA
Cette affaire illustre de manière frappante les difficultés rencontrées pour déployer des systèmes d'IA puissants tout en prévenant les abus. Malgré les garde-fous techniques et éthiques mis en place, des acteurs malveillants cherchent constamment à les contourner pour détourner ces technologies.
Elle souligne aussi l'importance d'une sécurité robuste des API et des accès clients. Le vol apparent de clés API aurait joué un rôle clé pour permettre ce schéma sophistiqué d'abus à grande échelle des capacités d'Azure OpenAI Service.
Enfin, ce cas pourrait créer un précédent juridique important concernant la responsabilité des fournisseurs de services d'IA et les recours possibles face à une utilisation malveillante de leurs plateformes, un enjeu crucial à l'heure où ces technologies se démocratisent dans tous les secteurs.
Microsoft assure avoir déjà déployé des contre-mesures et renforcé les protections d'Azure OpenAI Service en réaction à cette activité. Mais cette affaire devrait être suivie de près, car elle pourrait influencer durablement les pratiques du secteur en matière de déploiement éthique et sécurisé des IA génératives.