OpenAI visé par une plainte : accords illégaux et lanceurs d’alerte
OpenAI, la start-up d'IA la plus en vue du moment, fait face à une tempête juridique. Des lanceurs d'alerte ont déposé une plainte auprès de la Securities and Exchange Commission (SEC) des États-Unis, dénonçant des pratiques illégales imposées aux employés. Au cœur du scandale : des accords de confidentialité abusifs et des menaces de représailles.
Des accords restrictifs qui bâillonnent les employés
Selon la plainte, OpenAI aurait forcé ses salariés à signer des accords les obligeant à renoncer à leurs droits fédéraux et à une indemnisation en tant que lanceur d'alerte. Ces contrats, jugés illégaux, auraient pu conduire à des sanctions contre les employés osant faire part de leurs inquiétudes aux autorités.
OpenAI exigeait également que les employés obtiennent son consentement préalable s'ils souhaitaient divulguer des informations aux régulateurs fédéraux.
– Extrait de la plainte
La SEC appelée à ouvrir une enquête
Face à ces révélations, les lanceurs d'alerte exhortent la SEC à agir rapidement. Ils demandent l'ouverture immédiate d'une enquête sur les accords de confidentialité antérieurs d'OpenAI et un examen des efforts actuels de l'entreprise en matière de conformité.
La lettre envoyée à la SEC souligne les risques liés à un déploiement irresponsable de l'IA, citant même un décret présidentiel mettant en garde contre son potentiel de péril. Les avocats des lanceurs d'alerte insistent :
La SEC doit prendre des mesures rapides et énergiques pour faire appliquer la règle 21F-17(a) dans le secteur de l'IA et s'assurer qu'il n'y a pas eu de violation de l'article 1513(e) du 18 U.S.C.
Des lanceurs d'alerte protégés par la loi
Il est important de rappeler que les employés lanceurs d'alerte sont protégés par la loi Dodd-Frank. Celle-ci leur confère le droit de déposer des rapports de manière confidentielle et anonyme auprès de la SEC, sans craindre de représailles.
Le sénateur Chuck Grassley, dont le bureau a reçu la lettre des lanceurs d'alerte, a déclaré :
Les politiques et pratiques d'OpenAI semblent avoir un effet dissuasif sur le droit des lanceurs d'alerte à s'exprimer et à recevoir une compensation appropriée pour leurs révélations protégées.
– Chuck Grassley, sénateur américain
OpenAI déjà épinglé pour son manque de transparence
Ce n'est pas la première fois qu'OpenAI est pointé du doigt pour son manque de transparence et de sérieux vis-à-vis des problématiques de sécurité. Récemment, l'entreprise a dû gérer plusieurs incidents :
- Intrusion dans les systèmes de messagerie interne, avec vol d'informations sur le fonctionnement des technologies.
- Faille majeure dans l'application ChatGPT pour macOS, permettant d'accéder aux conversations non chiffrées des utilisateurs.
La création récente d'un comité de sûreté et de sécurité par OpenAI n'a pas suffi à rassurer, celui-ci étant constitué des membres du conseil d'administration de l'entreprise, soulevant des questions d'éthique et d'indépendance.
Cette plainte des lanceurs d'alerte met une nouvelle fois en lumière les défis auxquels fait face l'industrie de l'IA en termes de responsabilité, de transparence et de respect des droits des employés. La balle est désormais dans le camp de la SEC, qui devra décider des suites à donner à cette affaire hautement symbolique.