OpenAI dévoile sa vision de la régulation de l’IA dans un nouveau blueprint
Alors que l'intelligence artificielle (IA) poursuit son essor fulgurant, la question de sa régulation devient de plus en plus pressante. OpenAI, l'un des acteurs majeurs du secteur, vient de publier ce qu'il appelle un "blueprint économique" pour l'IA : un document évolutif qui expose les politiques que l'entreprise pense pouvoir élaborer en collaboration avec le gouvernement américain et ses alliés.
Un appel à l'action du gouvernement américain
Dans une préface signée par Chris Lehane, vice-président des affaires internationales d'OpenAI, le blueprint affirme que les États-Unis doivent agir pour attirer des milliards de dollars d'investissements dans les puces, les données, l'énergie et les talents nécessaires pour "gagner sur l'IA". Lehane souligne que :
Aujourd'hui, alors que certains pays mettent l'IA et son potentiel économique de côté, le gouvernement américain peut ouvrir la voie à son industrie de l'IA pour qu'elle continue à être le leader mondial de l'innovation tout en protégeant la sécurité nationale.
– Chris Lehane, vice-président des affaires internationales d'OpenAI
OpenAI a déjà appelé à plusieurs reprises le gouvernement américain à prendre des mesures plus concrètes en matière d'IA et d'infrastructures pour soutenir le développement de cette technologie. Jusqu'à présent, le gouvernement fédéral a largement laissé la réglementation de l'IA aux États, une situation qu'OpenAI juge intenable dans son blueprint.
Des initiatives au niveau des États jugées insuffisantes
Rien qu'en 2024, les législateurs des États ont introduit près de 700 projets de loi liés à l'IA, dont certains sont en conflit les uns avec les autres. Par exemple, la loi texane sur la gouvernance responsable de l'IA impose des exigences de responsabilité onéreuses aux développeurs de modèles d'IA open source.
Sam Altman, PDG d'OpenAI, a également critiqué les lois fédérales existantes, comme le CHIPS Act, qui visait à revitaliser l'industrie américaine des semi-conducteurs en attirant des investissements nationaux de la part des plus grands fabricants de puces du monde. Selon Altman, le CHIPS Act "n'a pas été aussi efficace que nous l'espérions", et il pense qu'il y a "une vraie opportunité" pour l'administration Trump de "faire quelque chose de bien mieux en guise de suivi".
Des recommandations pour stimuler l'infrastructure de l'IA
Pour alimenter les centres de données nécessaires au développement et à l'exploitation de l'IA, le blueprint d'OpenAI recommande une augmentation "spectaculaire" des dépenses fédérales en matière d'énergie et de transmission de données, ainsi qu'un développement significatif de "nouvelles sources d'énergie", comme l'énergie solaire, les parcs éoliens et le nucléaire.
OpenAI, ainsi que ses concurrents de l'IA, a déjà apporté son soutien à des projets d'énergie nucléaire, arguant qu'ils sont nécessaires pour répondre aux besoins en électricité des fermes de serveurs de nouvelle génération. Des géants de la tech comme Meta et AWS ont rencontré des difficultés avec leurs efforts dans le nucléaire, mais pour des raisons qui n'ont rien à voir avec l'énergie nucléaire elle-même.
Cadre pour un déploiement responsable des modèles d'IA
À plus court terme, le blueprint d'OpenAI propose que le gouvernement "élabore des bonnes pratiques" pour le déploiement des modèles afin de se prémunir contre toute utilisation abusive, qu'il "rationalise" l'engagement de l'industrie de l'IA avec les agences de sécurité nationale et qu'il développe des contrôles à l'exportation permettant le partage des modèles avec les alliés tout en "limitant" leur exportation vers les "nations adverses".
En outre, le blueprint encourage le gouvernement à partager certaines informations liées à la sécurité nationale, comme des briefings sur les menaces pesant sur l'industrie de l'IA, avec les fournisseurs, et à aider ces derniers à obtenir des ressources pour évaluer les risques liés à leurs modèles.
L'approche du gouvernement fédéral en matière de sécurité et de sûreté des modèles de pointe devrait rationaliser les exigences. Exporter de manière responsable les modèles vers nos alliés et partenaires les aidera à mettre en place leurs propres écosystèmes d'IA, y compris leurs propres communautés de développeurs innovant avec l'IA et répartissant ses avantages, tout en s'appuyant sur la technologie américaine, et non sur celle financée par le Parti communiste chinois.
OpenAI, partenaire de plusieurs agences gouvernementales
OpenAI compte déjà plusieurs départements du gouvernement américain parmi ses partenaires et, si son blueprint gagne du terrain auprès des décideurs politiques, elle est en passe d'en ajouter d'autres. L'entreprise a des accords avec le Pentagone pour des travaux de cybersécurité et d'autres projets connexes, et elle s'est associée à la startup de défense Anduril pour fournir sa technologie d'IA aux systèmes que l'armée américaine utilise pour contrer les attaques de drones.
La prudence sur les règles obligatoires
Cependant, dans son blueprint, OpenAI appelle à l'élaboration de normes "reconnues et respectées" par les autres nations et organismes internationaux au nom du secteur privé américain. Mais l'entreprise évite de souscrire à des règles ou à des édits obligatoires.
Le gouvernement peut créer une voie définie et volontaire pour les entreprises qui développent l'IA afin de travailler avec lui pour définir des évaluations de modèles, tester des modèles et échanger des informations afin de soutenir les garanties des entreprises.
L'administration Biden avait adopté une approche similaire avec son décret sur l'IA, qui visait à adopter plusieurs normes volontaires de haut niveau en matière de sécurité et de sûreté de l'IA. Le décret a créé l'Institut américain de sécurité de l'IA (AISI), un organisme du gouvernement fédéral qui étudie les risques liés aux systèmes d'IA et qui a établi des partenariats avec des entreprises comme OpenAI pour évaluer la sécurité des modèles. Mais Trump et ses alliés se sont engagés à abroger le décret de Biden, mettant en péril sa codification et l'AISI.
La question épineuse des droits d'auteur
Le blueprint d'OpenAI aborde également la question des droits d'auteur en relation avec l'IA, un sujet brûlant. L'entreprise fait valoir que les développeurs d'IA devraient pouvoir utiliser des "informations accessibles au public", y compris du contenu protégé par des droits d'auteur, pour développer des modèles.
OpenAI, comme de nombreuses autres entreprises d'IA, entraîne des modèles sur des données publiques provenant de l'ensemble du web. L'entreprise a des accords de licence en place avec un certain nombre de plateformes et d'éditeurs, et offre des moyens limités aux créateurs de "se retirer" du développement de ses modèles. Mais OpenAI a également déclaré qu'il serait "impossible" d'entraîner des modèles d'IA sans utiliser de matériel protégé par des droits d'auteur, et un certain nombre de créateurs ont poursuivi l'entreprise pour avoir prétendument entraîné ses modèles sur leurs œuvres sans autorisation.
D'autres acteurs, y compris des développeurs dans d'autres pays, ne font aucun effort pour respecter ou s'engager avec les détenteurs de droits de propriété intellectuelle. Si les États-Unis et les nations partageant les mêmes idées ne s'attaquent pas à ce déséquilibre par des mesures judicieuses qui contribuent à faire progresser l'IA à long terme, le même contenu sera toujours utilisé pour l'entraînement de l'IA ailleurs, mais au profit d'autres économies.
Selon le blueprint, le gouvernement devrait veiller à ce que l'IA ait la capacité d'apprendre à partir d'informations universelles et accessibles au public, tout comme les humains, tout en protégeant les créateurs contre les répliques numériques non autorisées.
L'influence croissante d'OpenAI sur la politique d'IA américaine
Il reste à voir quelles parties du blueprint d'OpenAI, le cas échéant, influenceront la législation. Mais les propositions sont un signal qu'OpenAI entend rester un acteur clé dans la course à une politique unificatrice de l'IA aux États-Unis.
Au premier semestre de l'année dernière, OpenAI a plus que triplé ses dépenses de lobbying, dépensant 800 000 dollars contre 260 000 dollars sur l'ensemble de l'année 2023. L'entreprise a également fait entrer d'anciens dirigeants gouvernementaux dans ses rangs, notamment Sasha Baker, ancienne responsable du ministère de la Défense, Paul Nakasone, chef de la NSA, et Aaron Chatterji, ancien économiste en chef au ministère du Commerce sous le président Joe Biden.
Au fur et à mesure qu'elle recrute et étend sa division des affaires internationales, OpenAI se montre plus explicite sur les lois et règles en matière d'IA qu'elle préfère, en apportant par exemple son soutien à des projets de loi du Sénat qui établiraient un organisme fédéral de réglementation de l'IA et accorderaient des bourses fédérales pour la R&D en matière d'IA. L'entreprise s'est également opposée à des projets de loi, en particulier le SB 1047 de Californie, arguant qu'il étoufferait l'innovation en matière d'IA et pousserait les talents à partir.
Alors que le débat sur la régulation de l'IA s'intensifie, il sera intéressant de voir comment les propositions d'OpenAI seront reçues par les décideurs politiques et comment elles façonneront le paysage réglementaire de cette technologie transformatrice dans les années à venir.