Ilya Sutskever et l’avenir de la sécurité de l’IA
Imaginez un monde où les intelligences artificielles deviendraient si puissantes qu'elles pourraient dépasser les capacités humaines dans presque tous les domaines. C'est le défi que tente de relever Ilya Sutskever, l'un des plus grands experts mondiaux en matière d'IA, avec sa nouvelle entreprise Safe Superintelligence Inc. (SSI).
Un pionnier de l'IA qui poursuit sa mission
Ilya Sutskever n'est pas un inconnu dans le milieu de l'intelligence artificielle. Ancien chercheur chez Google Brain puis cofondateur et directeur scientifique d'OpenAI, il a été l'un des grands artisans des progrès fulgurants de l'IA ces dernières années, notamment avec le développement des modèles de langage comme GPT-3.
Mais en juin dernier, coup de théâtre : Sutskever annonce son départ d'OpenAI pour créer sa propre entreprise, SSI, dédiée à la sécurité des intelligences artificielles dites "superintelligentes". Une décision motivée par des divergences sur l'approche à adopter en matière de sécurité de l'IA.
Avec l'émergence d'IA de plus en plus puissantes, il est crucial de s'assurer qu'elles restent sous contrôle et alignées avec les valeurs humaines. C'est un défi immense qui nécessite de nouvelles approches.
– Ilya Sutskever
Safe Superintelligence Inc. : cap sur la sécurité de l'IA
Avec SSI, Sutskever entend donc développer de nouvelles techniques pour garantir que les IA superintelligentes, lorsqu'elles verront le jour, resteront bénéfiques et alignées avec les objectifs de l'humanité. Parmi les pistes explorées :
- La mise au point de systèmes de surveillance et de contrôle des IA
- Le développement de méthodes pour "inculquer" des valeurs et une éthique aux IA
- La création de "boîtes noires" enregistrant le comportement des IA pour pouvoir les auditer
Autant de défis techniques et philosophiques qui nécessiteront une collaboration étroite entre experts en IA, éthiciens, régulateurs et la société dans son ensemble. Car comme le souligne Sutskever, "le développement d'une IA superintelligente sûre est peut-être le plus grand défi auquel l'humanité sera confrontée".
Un enjeu crucial pour l'avenir de l'humanité
Les risques liés au développement d'une IA surpuissante sont en effet majeurs : perte de contrôle, comportements imprévus voire hostiles, impact sur l'emploi et les inégalités, etc. Des scénarios dignes de la science-fiction qui pourraient pourtant devenir réalité si l'on en croit de nombreux experts.
D'où l'importance de mettre la sécurité au cœur du développement de l'IA dès aujourd'hui, comme s'y emploie Ilya Sutskever avec SSI. Car même s'il reste encore du chemin à parcourir avant l'émergence d'IA superintelligentes, mieux vaut prévenir que guérir. L'avenir de l'humanité en dépend peut-être.