OpenAI finance la recherche sur la moralité de l’IA
Imaginez un futur où les intelligences artificielles seraient capables de prendre des décisions éthiques à notre place. C'est précisément l'objectif visé par un nouveau projet de recherche financé par OpenAI, le célèbre laboratoire d'IA à l'origine de prouesses technologiques comme GPT-3 ou DALL-E.
OpenAI mise sur l'IA éthique
Selon des documents déposés auprès de l'IRS, la branche à but non lucratif d'OpenAI a accordé une subvention à des chercheurs de l'Université Duke pour un projet intitulé "Research AI Morality". Cette initiative s'inscrit dans le cadre d'un financement plus large de 1 million de dollars sur 3 ans visant à étudier la création d'"IA morales".
Les détails de ces travaux restent pour l'instant confidentiels, le chercheur principal Walter Sinnott-Armstrong ayant déclaré à TechCrunch qu'il "ne pourra pas en parler". Spécialiste d'éthique pratique, il a néanmoins déjà publié avec sa co-investigatrice Jana Borg plusieurs études sur le potentiel des IA à servir de "boussole morale" pour guider nos jugements.
Prédire les jugements moraux humains
L'objectif affiché est d'entraîner des algorithmes capables de prédire les jugements moraux humains face à des dilemmes éthiques dans les domaines de la médecine, du droit ou des affaires. Un défi de taille quand on sait à quel point la moralité est une notion subjective et débattue depuis des millénaires par les philosophes.
Il n'existe pas de cadre éthique universel. Les valeurs morales varient selon les cultures, les époques et les individus.
Dépasser les limites actuelles de l'IA
Les tentatives précédentes pour créer des IA "éthiques" se sont heurtées à d'importantes limitations. Entraînés sur des exemples issus du web, les modèles actuels ont tendance à refléter les biais et les valeurs dominantes des pays occidentaux, sans réelle compréhension des concepts moraux sous-jacents.
Légèrement modifier les questions posées suffit parfois à leur faire approuver n'importe quoi, y compris des actes répréhensibles. Les IA d'aujourd'hui n'ont ni appréciation des enjeux éthiques, ni capacité de raisonnement moral. Elles ne font que répéter des schémas statistiques.
Un défi philosophique et technique
Pour espérer créer des algorithmes réellement "moraux", il faudra donc d'abord s'attaquer à des questions philosophiques épineuses : comment définir ce qui est "bien" ou "mal" ? Quelles valeurs éthiques privilégier ? Comment gérer les inévitables conflits et exceptions ?
Cela demandera aussi de repousser les limites techniques de l'IA pour lui permettre de saisir toute la complexité et la nuance du jugement moral humain. Un véritable défi quand on sait que même entre humains, nous sommes loin d'être toujours d'accord sur ces questions !
Un enjeu crucial pour le futur
À mesure que l'IA s'intègre dans nos vies et nos décisions, il devient crucial de s'assurer qu'elle respecte certains principes éthiques. Des algorithmes biaisés ou mal conçus pourraient avoir des conséquences désastreuses à grande échelle.
C'est pourquoi, malgré les immenses défis, la recherche sur l'IA éthique est plus nécessaire que jamais. En finançant ce type de projets ambitieux, des acteurs comme OpenAI ouvrent la voie vers un avenir où hommes et machines pourraient œuvrer main dans la main pour un monde meilleur.
Bien sûr, le chemin sera long et semé d'embûches. Mais petit à petit, en combinant progrès scientifiques et réflexion philosophique, il est permis d'espérer que nous parviendrons un jour à créer des IA véritablement dignes de confiance sur le plan moral. La clé sera de ne jamais perdre de vue l'humain et ses valeurs dans cette quête technologique.