Ilya Sutskever lance Safe Superintelligence pour l’IA éthique
La course à l'intelligence artificielle prend un nouveau tournant avec l'annonce de la création de Safe Superintelligence (SSI), un laboratoire dédié au développement d'une IA superintelligente sûre et éthique. Derrière cette initiative audacieuse se trouve nul autre qu'Ilya Sutskever, co-fondateur et ancien directeur scientifique d'OpenAI, ainsi que deux anciens d'Apple et d'OpenAI. Un défi de taille qui intervient dans un contexte de vives inquiétudes quant aux risques existentiels liés à l'IA.
Un labo dédié corps et âme à l'IA superintelligente et sûre
SSI se définit comme « le premier laboratoire au monde entièrement dédié à une superintelligence sûre ». Leur mission est claire : faire progresser les capacités de l'IA aussi vite que possible tout en s'assurant que la sécurité reste toujours en tête des priorités. Une approche radicale qui tranche avec celle de géants comme OpenAI, où les impératifs commerciaux semblent parfois prendre le pas sur les considérations éthiques.
Une équipe de choc pour relever le défi
Pour mener à bien cette mission titanesque, Ilya Sutskever s'est entouré de pointures. Daniel Levy, ancien membre du personnel technique d'OpenAI, et Daniel Gross, ex-responsable IA d'Apple, co-fondent SSI à ses côtés. Sutskever, citoyen canadien, avait déjà fait parler de lui en collaborant avec Geoffrey Hinton, le parrain de l'IA, sur AlexNet, un réseau de neurones dédié au traitement d'images vendu à Google en 2013.
Des défis éthiques et techniques colossaux
Mais créer une IA superintelligente qui ne mette pas en péril l'humanité est loin d'être une sinécure. Des experts comme Geoffrey Hinton et Yoshua Bengio tirent la sonnette d'alarme depuis des années sur les menaces existentielles que font peser les systèmes d'IA avancés. Même OpenAI, malgré la création d'une équipe dédiée à la gouvernance des IA superintelligentes, peine à rassurer. Plusieurs employés clés, dont Sutskever lui-même, ont claqué la porte, dénonçant un manque de moyens et une perte de confiance dans la direction.
Notre objectif unique signifie zéro distraction par la gestion ou les cycles de produits, et notre modèle garantit que la sécurité, la sûreté et le progrès sont protégés des pressions commerciales à court terme.
Safe Superintelligence
La course à l'IA éthique est lancée
Avec le lancement de Safe Superintelligence, Ilya Sutskever et son équipe espèrent changer la donne. En se focalisant exclusivement sur la création d'une IA superintelligente sûre, sans pression commerciale ni distraction, ils entendent faire passer la sécurité avant tout. Un pari audacieux à l'heure où la course à l'IA s'emballe et où les enjeux n'ont jamais été aussi cruciaux pour l'avenir de l'humanité. Les prochains mois seront décisifs pour SSI et l'IA éthique en général. Une chose est sûre : le monde entier aura les yeux rivés sur les avancées d'Ilya Sutskever et de son équipe, en espérant qu'ils réussiront leur pari fou.