Ilya Sutskever lance Safe Superintelligence pour l’IA éthique

Accueil - Technologies et Avenirs - Intelligence Artificielle - Ilya Sutskever lance Safe Superintelligence pour l’IA éthique
juin 19, 2024

Ilya Sutskever lance Safe Superintelligence pour l’IA éthique

La course à l'intelligence artificielle prend un nouveau tournant avec l'annonce de la création de Safe Superintelligence (SSI), un laboratoire dédié au développement d'une IA superintelligente sûre et éthique. Derrière cette initiative audacieuse se trouve nul autre qu'Ilya Sutskever, co-fondateur et ancien directeur scientifique d'OpenAI, ainsi que deux anciens d'Apple et d'OpenAI. Un défi de taille qui intervient dans un contexte de vives inquiétudes quant aux risques existentiels liés à l'IA.

Un labo dédié corps et âme à l'IA superintelligente et sûre

SSI se définit comme « le premier laboratoire au monde entièrement dédié à une superintelligence sûre ». Leur mission est claire : faire progresser les capacités de l'IA aussi vite que possible tout en s'assurant que la sécurité reste toujours en tête des priorités. Une approche radicale qui tranche avec celle de géants comme OpenAI, où les impératifs commerciaux semblent parfois prendre le pas sur les considérations éthiques.

Une équipe de choc pour relever le défi

Pour mener à bien cette mission titanesque, Ilya Sutskever s'est entouré de pointures. Daniel Levy, ancien membre du personnel technique d'OpenAI, et Daniel Gross, ex-responsable IA d'Apple, co-fondent SSI à ses côtés. Sutskever, citoyen canadien, avait déjà fait parler de lui en collaborant avec Geoffrey Hinton, le parrain de l'IA, sur AlexNet, un réseau de neurones dédié au traitement d'images vendu à Google en 2013.

Des défis éthiques et techniques colossaux

Mais créer une IA superintelligente qui ne mette pas en péril l'humanité est loin d'être une sinécure. Des experts comme Geoffrey Hinton et Yoshua Bengio tirent la sonnette d'alarme depuis des années sur les menaces existentielles que font peser les systèmes d'IA avancés. Même OpenAI, malgré la création d'une équipe dédiée à la gouvernance des IA superintelligentes, peine à rassurer. Plusieurs employés clés, dont Sutskever lui-même, ont claqué la porte, dénonçant un manque de moyens et une perte de confiance dans la direction.

Notre objectif unique signifie zéro distraction par la gestion ou les cycles de produits, et notre modèle garantit que la sécurité, la sûreté et le progrès sont protégés des pressions commerciales à court terme.

Safe Superintelligence

La course à l'IA éthique est lancée

Avec le lancement de Safe Superintelligence, Ilya Sutskever et son équipe espèrent changer la donne. En se focalisant exclusivement sur la création d'une IA superintelligente sûre, sans pression commerciale ni distraction, ils entendent faire passer la sécurité avant tout. Un pari audacieux à l'heure où la course à l'IA s'emballe et où les enjeux n'ont jamais été aussi cruciaux pour l'avenir de l'humanité. Les prochains mois seront décisifs pour SSI et l'IA éthique en général. Une chose est sûre : le monde entier aura les yeux rivés sur les avancées d'Ilya Sutskever et de son équipe, en espérant qu'ils réussiront leur pari fou.

Partager:

Ajouter Un Commentaire

Chercher

Beauty and lifestyle influencer

Follow my journey on all Social Media channels

Alienum phaedrum torquatos nec eu, vis detraxit periculis ex, nihilmei. Mei an pericula euripidis, hinc partem ei est.
facebook
5M+
Facebook followers
Follow Me
youtube
4.6M+
Youtube Subscribers
Subscribe Me
tiktok
7M+
Tiktok Followers
Follow Me
instagram
3.4M+
Instagram Followers
Follow Me