La réglementation de l’IA selon Martin Casado d’Andreessen Horowitz
Les récents développements spectaculaires de l'intelligence artificielle soulèvent de nombreuses questions sur la nécessité et la manière de réguler cette technologie à fort impact. Martin Casado, associé général du géant du capital-risque Andreessen Horowitz et investisseur dans plusieurs startups d'IA, estime que la plupart des tentatives actuelles de réglementation de l'IA passent à côté des vrais enjeux.
Se concentrer sur les risques actuels plutôt que sur un futur hypothétique
Lors d'une conférence à TechCrunch Disrupt 2024, Martin Casado a déclaré que le principal problème des efforts de réglementation de l'IA est que les législateurs se focalisent sur des scénarios futuristes improbables au lieu de chercher à comprendre et encadrer les nouveaux risques concrets introduits par l'IA aujourd'hui.
Les politiques essaient d'inventer de nouvelles réglementations sans tirer les leçons du passé.
Martin Casado, Andreessen Horowitz
Il cite en exemple la difficulté à même définir ce qu'est l'IA dans les textes de loi. Plutôt que de se lancer dans une quête vaine de réglementation d'une IA "forte" encore hypothétique, Martin Casado préconise d'analyser en quoi l'IA actuelle diffère des technologies existantes comme les moteurs de recherche, et d'identifier les risques marginaux qu'elle introduit.
Le contre-exemple de la loi californienne sur l'IA
Le projet de loi californien SB 1047, qui voulait notamment introduire un "kill switch" pour les grands modèles d'IA, illustre selon lui cette tendance à légiférer dans le vide. Son rejet par le gouverneur Gavin Newsom a été salué par la Silicon Valley, qui craignait qu'un tel texte mal conçu ne sème la confusion et ne freine l'innovation.
S'appuyer sur les organismes de régulation existants
Plutôt que de créer de nouvelles structures de régulation ex nihilo, Martin Casado estime que les organismes existants, comme la FCC ou la commission de la Chambre sur la science, l'espace et la technologie, ont toute la légitimité et l'expertise pour encadrer l'IA de manière pragmatique, en s'appuyant sur les cadres développés depuis 30 ans pour d'autres technologies.
Tirer les leçons des erreurs passées sans pénaliser l'IA
Certains plaident pour une régulation précoce de l'IA en invoquant les dérives des réseaux sociaux. Mais pour Martin Casado, il serait contre-productif de faire payer à l'IA les pots cassés : "Si on s'est trompé sur les réseaux sociaux, on ne peut pas corriger le tir en le mettant sur le dos de l'IA. C'est un raisonnement absurde. Allons plutôt régler le problème à la source, sur les réseaux sociaux." conclut-il.
En résumé, les principales recommandations de Martin Casado pour une régulation pertinente de l'IA sont :
- Se focaliser sur les risques concrets et immédiats introduits par l'IA, plutôt que sur des scénarios futuristes.
- S'appuyer sur l'expertise et les structures de régulation existantes, rodées depuis des décennies.
- Légiférer sur l'IA en connaissance de cause, en impliquant des experts techniques et académiques.
L'avenir nous dira si les décideurs politiques sauront entendre ces arguments pour mettre en place un cadre réglementaire à la fois protecteur et propice à l'innovation en matière d'IA. Les investisseurs comme Martin Casado suivront de près l'évolution de ce débat crucial pour l'avenir de la tech.