OpenAI face à un recours pour bloquer sa transition lucrative
L'avenir de l'intelligence artificielle est en jeu alors qu'une bataille juridique se profile autour de la transformation d'OpenAI en entreprise à but lucratif. Cette transition soulève des inquiétudes quant à la capacité de la firme à rester fidèle à sa mission initiale de développer une IA sûre et bénéfique pour l'humanité.
L'ONG Encode se joint à Elon Musk contre OpenAI
Encode, une organisation à but non lucratif qui milite pour une IA éthique, a demandé l'autorisation de déposer un amicus brief à l'appui de l'injonction d'Elon Musk visant à empêcher OpenAI de devenir une entreprise commerciale. Dans ce mémoire, les avocats d'Encode affirment que ce changement de statut « minerait » la mission d'OpenAI de développer une IA transformatrice de manière sûre et bénéfique pour le public.
Si le monde est vraiment à l'aube d'une nouvelle ère d'intelligence artificielle générale (AGI), alors le public a un intérêt profond à ce que cette technologie soit contrôlée par une organisation à but non lucratif légalement tenue de donner la priorité à la sécurité et à l'intérêt public, plutôt que par une entreprise focalisée sur la génération de rendements financiers pour quelques investisseurs privilégiés.
Extrait du mémoire d'Encode
Les craintes d'une dérive commerciale
OpenAI a été fondée en 2015 en tant que laboratoire de recherche à but non lucratif. Mais face à l'intensification capitalistique de ses expériences, elle a dû faire appel à des investisseurs extérieurs. Aujourd'hui, OpenAI a une structure hybride : une partie à but lucratif contrôlée par une association à but non lucratif, avec une part de « profit plafonné » pour les investisseurs et les employés.
Or, OpenAI prévoit de commencer à transformer sa structure à but lucratif existante en une Public Benefit Corporation (PBC) du Delaware. Pour Encode, ce projet « convertirait une organisation tenue par la loi d'assurer la sécurité de l'IA avancée en une organisation tenue par la loi d'équilibrer sa prise en compte de tout avantage public avec les intérêts pécuniaires de ses actionnaires. »
Un risque pour la sécurité de l'IA selon les détracteurs
Elon Musk, qui avait contribué à la création de l'entité à but non lucratif originale, accuse OpenAI d'avoir abandonné sa mission philanthropique initiale. Meta, la maison mère de Facebook et rival d'OpenAI, soutient également les efforts visant à bloquer cette conversion, arguant que cela aurait des « implications sismiques pour la Silicon Valley ».
Selon les avocats d'Encode, le devoir fiduciaire d'OpenAI envers l'humanité s'évanouirait, car « le droit du Delaware est clair sur le fait que les administrateurs d'une PBC ne doivent aucun devoir au public ». Ils soulignent notamment qu'une fois la restructuration achevée, le conseil d'administration de l'organisation à but non lucratif ne pourra plus annuler les participations des investisseurs si nécessaire pour des raisons de sécurité.
L'exode des talents inquiets chez OpenAI
Cette controverse intervient alors qu'OpenAI connaît une hémorragie de talents de haut niveau, en partie à cause de préoccupations selon lesquelles l'entreprise privilégierait les produits commerciaux au détriment de la sécurité. Miles Brundage, un chercheur en politiques publiques de longue date qui a quitté OpenAI en octobre, a déclaré craindre que l'organisation à but non lucratif ne devienne « une chose secondaire » donnant à la PBC le droit de fonctionner comme « une entreprise normale » sans tenir compte des domaines potentiellement problématiques.
Vers une IA éthique et responsable ?
Au final, ce bras de fer juridique soulève des questions cruciales sur la gouvernance de l'intelligence artificielle. À l'heure où les progrès fulgurants de l'IA font craindre des dérives, il apparaît essentiel de s'assurer que son développement reste guidé par des considérations éthiques et l'intérêt général, plutôt que par la seule logique du profit.
Car si l'IA promet des avancées révolutionnaires dans de nombreux domaines, de la santé à l'éducation en passant par la lutte contre le changement climatique, elle comporte aussi des risques majeurs en termes de sécurité, de respect de la vie privée ou encore de désinformation. Un encadrement responsable apparaît donc indispensable pour libérer tout son potentiel au service de l'humanité.
Dans ce contexte, le combat d'Elon Musk et d'Encode pour préserver la mission d'intérêt public d'OpenAI pourrait bien faire jurisprudence et tracer la voie vers une intelligence artificielle plus éthique et responsable. L'avenir nous dira si leur vision l'emportera face aux sirènes du marché et aux ambitions des géants de la tech dans la course à l'IA.