Mindgard : La start-up britannique qui sécurise l’IA
Dans un monde où l'intelligence artificielle (IA) devient omniprésente, les entreprises font face à un dilemme épineux. D'un côté, ne pas adopter l'IA rapidement pourrait leur faire manquer des gains de productivité et autres avantages considérables. Mais de l'autre, une implémentation mal maîtrisée expose potentiellement leur activité et leurs clients à des risques non mitigés. C'est là qu'intervient une nouvelle vague de start-ups spécialisées dans la "sécurité pour l'IA", avec le postulat que ces menaces, comme le jailbreak et l'injection de prompts malveillants, ne peuvent être ignorées.
Mindgard, le fruits d'une recherche universitaire de pointe en cybersécurité IA
Parmi ces pionnières, on retrouve l'entreprise britannique Mindgard, un spinoff de l'université de Lancaster. Comme ses homologues israélienne Noma et américaines Hidden Layer et Protect AI, Mindgard propose une approche novatrice pour sécuriser les systèmes d'IA. Son CEO et CTO, le professeur Peter Garraghan, l'explique ainsi :
L'IA reste un logiciel, donc tous les cyber-risques dont vous avez probablement entendu parler s'y appliquent aussi. Mais si l'on considère la nature opaque et le comportement intrinsèquement aléatoire des réseaux de neurones, cela justifie une nouvelle approche.
– Peter Garraghan, CEO et CTO de Mindgard
Cette approche, baptisée Dynamic Application Security Testing for AI (DAST-AI), cible les vulnérabilités qui ne peuvent être détectées qu'à l'exécution. Cela implique un red teaming continu et automatisé, simulant des attaques basées sur la bibliothèque de menaces de Mindgard. La technologie peut par exemple tester la robustesse de classifieurs d'images face à des entrées adverses.
Une technologie ancrée dans le monde académique
Au-delà, la solution de Mindgard s'appuie largement sur l'expertise de Garraghan, professeur et chercheur focalisé sur la sécurité de l'IA. Un domaine en rapide évolution - ChatGPT n'existait pas quand il l'a intégré - mais où il a anticipé de nouvelles menaces pour les modèles de langage et de vision. Depuis, ce qui semblait futuriste est devenu réalité dans un secteur en plein essor, avec des modèles et dangers en constante mutation.
Pour rester à la pointe, Garraghan mise sur les liens étroits noués avec l'université de Lancaster. Mindgard sera ainsi propriétaire de la PI générée par 18 autres doctorants dans les prochaines années, un deal inédit pour une entreprise.
8 millions de dollars levés pour conquérir le marché américain
Malgré cet ancrage académique, Mindgard est d'ores et déjà un produit commercial, une plateforme SaaS. Coté business, c'est le COO et CRO Steve Street qui mène la barque. Si les grandes entreprises et les équipes de red team sont des clients naturels, Mindgard travaille aussi avec des start-ups d'IA qui doivent prouver leur maîtrise des risques.
Nombre d'entre elles étant basées outre-Atlantique, la société a ajouté une touche américaine à sa liste d'investisseurs. Après un seed de 3 millions de livres en 2023, Mindgard annonce une nouvelle levée de 8 millions de dollars menée par le fonds bostonien .406 Ventures, avec Atlantic Bridge, WillowTree Investments et les investisseurs historiques IQ Capital et Lakestar.
Ces fonds serviront au développement produit, à la R&D, à l'expansion de l'équipe, qui devrait passer de 15 à 20-25 personnes. Mais surtout, ils financeront le déploiement aux États-Unis, avec notamment l'arrivée d'un VP Marketing basé à Boston, Fergal Glynn. La R&D et l'ingénierie resteront elles à Londres. Car comme le souligne Garraghan, la sécurité de l'IA n'en est qu'à ses débuts. Mais quand cette technologie sera partout, avec son lot de menaces, Mindgard sera prêt :
Nous avons fondé cette entreprise pour faire le bien. Et ce bien, c'est permettre aux gens d'avoir confiance dans l'IA et de l'utiliser en toute sécurité.
– Peter Garraghan, CEO et CTO de Mindgard