OpenAI crée un comité de sécurité composé uniquement d’initiés
Dans un contexte où les inquiétudes grandissent quant à l'éthique et la sécurité de l'intelligence artificielle, le géant OpenAI vient de prendre une décision qui ne manquera pas de faire parler. La startup à l'origine de ChatGPT a en effet annoncé la création d'un nouveau comité chargé de superviser les décisions critiques en matière de sécurité. Mais voilà le hic : ce comité est uniquement composé de membres internes à l'entreprise, dont son PDG Sam Altman.
Les défis de l'autorégulation en IA
Cette annonce intervient à un moment charnière pour OpenAI. Alors que la startup s'apprête à lancer de nouveaux modèles encore plus puissants, plusieurs départs retentissants de chercheurs en sécurité ont pointé du doigt un manque de priorité accordée à ces enjeux. Daniel Kokotajlo, ancien membre de l'équipe de gouvernance, a ainsi quitté OpenAI en avril, doutant de la capacité de l'entreprise à "se comporter de manière responsable".
Vu notre expérience, nous pensons que l'auto-gouvernance ne peut pas résister de manière fiable à la pression des incitations au profit.
– Helen Toner et Tasha McCauley, ex-membres du conseil d'administration d'OpenAI
Face à ces critiques, la décision d'OpenAI de confier les rênes de la sécurité à un comité 100% interne interroge. Car au-delà des enjeux techniques, c'est bien la question de la transparence et de la responsabilité qui est posée. Comment s'assurer qu'une telle instance saura prendre les décisions difficiles, parfois à l'encontre des intérêts commerciaux ?
Des promesses non tenues ?
Sam Altman avait pourtant promis en 2016 qu'OpenAI serait supervisée par une gouvernance ouverte, avec des représentants élus par de larges pans de la société. Une promesse restée lettre morte, alors même que la startup multiplie les efforts de lobbying pour influencer la régulation de l'IA, aux États-Unis et au-delà.
Le comité nouvellement formé aura trois mois pour évaluer les processus et garde-fous d'OpenAI en matière de sécurité. S'il promet de s'appuyer sur des experts externes, leur identité et leur rôle exact restent flous. Tout comme les critères qui seront utilisés pour juger la "validité" des critiques formulées à l'encontre de l'entreprise.
Pour une IA digne de confiance
Au final, c'est bien la question de la confiance qui est en jeu. Car pour que l'IA tienne ses promesses au service de l'humanité, il est crucial que les acteurs qui la façonnent fassent preuve d'une transparence et d'une responsabilité exemplaires. Des principes difficiles à concilier avec une course effrénée à l'innovation et à la rentabilité.
- OpenAI a créé un comité de sécurité composé uniquement de membres internes, dont son PDG Sam Altman.
- Cette décision suscite des inquiétudes sur la capacité de l'entreprise à s'autoréguler de manière transparente et responsable.
- Plusieurs chercheurs en sécurité ont récemment quitté OpenAI, pointant un manque de priorité accordée à ces enjeux.
Les mois à venir seront décisifs pour jauger de la sincérité d'OpenAI dans sa volonté de développer une IA sûre et bénéfique. En attendant, gageons que ce comité interne ne suffira pas à dissiper les doutes. Car en matière d'intelligence artificielle, la confiance ne se décrète pas, elle se construit pas à pas, dans la transparence et le dialogue.