
DeepSeek : Un Géant de l’IA Chinois Soulève des Inquiétudes
Le monde de l'intelligence artificielle est en ébullition depuis l'arrivée fracassante de DeepSeek, la startup chinoise qui a pris d'assaut la Silicon Valley avec son modèle R1. Mais derrière les prouesses technologiques se cachent des inquiétudes grandissantes sur la sécurité des données, en particulier quand il s'agit d'informations aussi sensibles que celles liées aux armes biologiques.
DeepSeek au cœur d'une controverse sur les armes biologiques
Lors d'une interview accordée au podcast ChinaTalk, Dario Amodei, CEO d'Anthropic, a tiré la sonnette d'alarme. Selon lui, DeepSeek a généré des informations rares sur les armes biologiques lors d'un test de sécurité mené par son entreprise. Un résultat inquiétant, DeepSeek ayant obtenu "les pires performances de tous les modèles jamais testés" :
DeepSeek n'avait absolument aucun blocage contre la génération de ces informations.
– Dario Amodei, CEO d'Anthropic
Ces évaluations font partie des tests de routine réalisés par Anthropic pour évaluer les risques potentiels des modèles d'IA en matière de sécurité nationale. L'équipe vérifie notamment si les modèles peuvent générer des informations liées aux armes biologiques qui ne sont pas facilement trouvables sur Google ou dans les manuels.
Vers des modèles "littéralement dangereux" ?
Si Amodei ne pense pas que les modèles actuels de DeepSeek soient "littéralement dangereux" dans leur capacité à fournir des informations rares et dangereuses, il craint que cela ne devienne le cas dans un avenir proche. Malgré son admiration pour le talent des ingénieurs de DeepSeek, il les appelle à "prendre au sérieux ces considérations de sécurité de l'IA".
Amodei a également exprimé son soutien à des contrôles stricts sur les exportations de puces vers la Chine, craignant qu'elles ne donnent un avantage à l'armée chinoise. Des préoccupations partagées au-delà d'Anthropic...
D'autres signaux d'alarme sur la sécurité de DeepSeek
Des chercheurs en sécurité de Cisco ont récemment révélé que DeepSeek R1 n'avait bloqué aucune des requêtes malveillantes lors de leurs tests, avec un taux de réussite du "jailbreak" de 100%. S'ils n'ont pas mentionné les armes biologiques, ils ont pu amener le modèle à générer des informations nocives sur la cybercriminalité et d'autres activités illégales.
À titre de comparaison, les modèles concurrents comme Llama-3.1-405B de Meta et GPT-4o d'OpenAI ont également obtenu des taux d'échec élevés, respectivement de 96% et 86%. Reste à savoir si ces inquiétudes auront un impact significatif sur l'adoption fulgurante de DeepSeek...
DeepSeek, un nouveau géant incontournable de l'IA ?
Car malgré les controverses, l'ascension de DeepSeek semble difficile à enrayer. Des géants comme AWS et Microsoft ont déjà intégré publiquement le modèle R1 dans leurs plateformes cloud. Ironiquement, Amazon est aussi le plus gros investisseur d'Anthropic...
La liste des pays, entreprises et surtout organisations gouvernementales comme la US Navy et le Pentagone qui ont commencé à bannir DeepSeek s'allonge. Le temps dira si ces efforts porteront leurs fruits ou si l'essor mondial de DeepSeek se poursuivra.
Le nouveau fait marquant, c'est qu'il y a un nouveau concurrent. Parmi les grandes entreprises capables d'entraîner l'IA - Anthropic, OpenAI, Google, peut-être Meta et xAI - DeepSeek est désormais ajouté à cette catégorie.
– Dario Amodei, CEO d'Anthropic
Une chose est sûre : avec l'entrée fracassante de DeepSeek dans la cour des grands de l'IA, la concurrence s'annonce plus féroce que jamais. Mais à quel prix pour la sécurité des données et la maîtrise des technologies les plus sensibles ? L'avenir nous le dira...