OpenAI s’engage avec l’Institut américain de sécurité de l’IA

Accueil - Technologies et Avenirs - Intelligence Artificielle - OpenAI s’engage avec l’Institut américain de sécurité de l’IA
Innovationsfr
août 1, 2024

OpenAI s’engage avec l’Institut américain de sécurité de l’IA

Dans une annonce qui n'est pas passée inaperçue, Sam Altman, PDG d'OpenAI, a révélé que sa société collabore actuellement avec l'Institut américain de sécurité de l'IA, un organisme gouvernemental fédéral chargé d'évaluer et de gérer les risques liés aux plateformes d'IA. L'objectif ? Fournir un accès anticipé au prochain modèle généraliste d'OpenAI pour des tests de sécurité approfondis.

OpenAI cherche à redorer son blason en matière de sécurité

Cette annonce intervient dans un contexte où OpenAI fait face à une vague de critiques quant à son approche de la sécurité de l'IA. En effet, en mai dernier, l'entreprise a dissous une unité dédiée au développement de contrôles visant à empêcher les systèmes d'IA "superintelligents" de devenir incontrôlables, suscitant des inquiétudes quant à ses priorités.

Pour tenter de rassurer, OpenAI a annoncé une série de mesures, notamment l'élimination des clauses de non-dénigrement restrictives pour son personnel, la création d'une commission de sécurité et l'engagement de consacrer 20% de sa puissance de calcul à la recherche sur la sécurité de l'IA. Mais ces décisions n'ont pas suffi à apaiser toutes les craintes.

Un partenariat stratégique avec l'Institut de sécurité de l'IA

C'est dans ce contexte qu'intervient l'annonce de la collaboration avec l'Institut américain de sécurité de l'IA. En donnant un accès précoce à son prochain modèle, OpenAI entend démontrer son engagement en faveur d'une IA générative plus sûre et responsable. L'Institut, qui réunit des experts issus du gouvernement et de l'industrie, sera ainsi en mesure de tester et d'évaluer en profondeur les risques potentiels avant le déploiement public du modèle.

Nous sommes déterminés à mettre en œuvre des protocoles de sécurité rigoureux à chaque étape de notre processus.

Jason Kwon, Directeur Stratégie d'OpenAI, en réponse à une lettre de sénateurs américains

Une tentative d'influencer la réglementation de l'IA ?

Cependant, certains observateurs s'interrogent sur les motivations réelles d'OpenAI. Le timing de cette annonce, quelques jours seulement après l'approbation par la société du projet de loi "Future of Innovation Act" qui vise à faire de l'Institut de sécurité de l'IA un organisme de réglementation, soulève des questions. S'agit-il d'une tentative de "regulatory capture", c'est-à-dire d'influencer la réglementation à son avantage ?

Il est vrai qu'OpenAI a considérablement intensifié ses efforts de lobbying ces derniers mois, dépensant 800 000 dollars au cours du premier semestre 2024, contre 260 000 dollars sur l'ensemble de l'année 2023. Sam Altman lui-même siège au sein du Conseil de sécurité et de sûreté de l'IA du Département américain de la sécurité intérieure, ce qui lui confère une influence certaine sur les politiques publiques en la matière.

Vers une IA générative plus sûre et responsable ?

Quelles que soient les intentions réelles d'OpenAI, cette collaboration avec l'Institut de sécurité de l'IA est un pas dans la bonne direction. En soumettant ses modèles à des tests rigoureux et indépendants, l'entreprise contribue à renforcer la confiance du public et des régulateurs dans l'IA générative.

Reste à savoir si cette démarche suffira à apaiser les craintes quant aux risques potentiels d'une superintelligence artificielle incontrôlable. Car au-delà des enjeux de sécurité immédiats, c'est bien la question de l'alignement à long terme de l'IA avec les valeurs et les intérêts humains qui se pose.

Une chose est sûre : le développement de l'IA générative ne peut se faire sans un cadre réglementaire solide et des garde-fous efficaces. La collaboration entre les acteurs de l'industrie, les chercheurs et les pouvoirs publics est essentielle pour relever ce défi majeur de notre temps. L'avenir nous dira si l'engagement d'OpenAI auprès de l'Institut américain de sécurité de l'IA marquera un tournant dans cette direction.

Partager:

Ajouter Un Commentaire

Chercher

Beauty and lifestyle influencer

Follow my journey on all Social Media channels

Alienum phaedrum torquatos nec eu, vis detraxit periculis ex, nihilmei. Mei an pericula euripidis, hinc partem ei est.
facebook
5M+
Facebook followers
Follow Me
youtube
4.6M+
Youtube Subscribers
Subscribe Me
tiktok
7M+
Tiktok Followers
Follow Me
instagram
3.4M+
Instagram Followers
Follow Me