L’outil de transcription Whisper d’OpenAI : des hallucinations inquiétantes
Alors que l'intelligence artificielle ne cesse de progresser, offrant des outils toujours plus performants, des chercheurs tirent la sonnette d'alarme concernant Whisper, le système de transcription développé par OpenAI. En effet, selon un rapport de l'Associated Press, des ingénieurs logiciels, des développeurs et des universitaires ont exprimé de sérieuses préoccupations quant à la tendance de Whisper à « halluciner », c'est-à-dire à introduire des éléments fictifs dans ses transcriptions.
Des hallucinations surprenantes dans un outil de transcription
Si la tendance des IA génératives à inventer des choses est un sujet largement discuté, il est étonnant de constater que ce problème touche également un outil de transcription comme Whisper. On s'attendrait en effet à ce que la transcription suive fidèlement l'audio d'origine. Pourtant, les chercheurs rapportent que Whisper a introduit des éléments allant de commentaires raciaux à des traitements médicaux imaginaires dans ses transcriptions.
Des conséquences potentiellement désastreuses
Ces hallucinations pourraient avoir des conséquences particulièrement graves si Whisper venait à être adopté dans des hôpitaux ou d'autres contextes médicaux. Un chercheur de l'Université du Michigan étudiant des réunions publiques a ainsi constaté des hallucinations dans 8 transcriptions sur 10. Un ingénieur en apprentissage automatique a pour sa part relevé des hallucinations dans plus de la moitié des 100 heures de transcriptions Whisper qu'il a étudiées. Enfin, un développeur a signalé des hallucinations dans la quasi-totalité des 26 000 transcriptions qu'il a générées avec Whisper.
Nous remercions les chercheurs d'avoir partagé leurs découvertes.
– Un porte-parole d'OpenAI
La réaction d'OpenAI
Face à ces révélations, un porte-parole d'OpenAI a déclaré que l'entreprise travaillait « continuellement à l'amélioration de la précision de [ses] modèles, notamment en réduisant les hallucinations ». Il a également souligné que les conditions d'utilisation de Whisper interdisaient son emploi « dans certains contextes de prise de décision à fort enjeu ».
Des recherches essentielles pour une IA fiable
Ces recherches mettent en lumière l'importance cruciale de continuer à étudier et à améliorer les systèmes d'IA comme Whisper. Si ces outils offrent des perspectives prometteuses, il est primordial de s'assurer de leur fiabilité, en particulier lorsqu'ils sont destinés à être utilisés dans des domaines sensibles comme la santé. Les travaux des chercheurs permettront sans doute à OpenAI et à d'autres acteurs de l'IA de perfectionner leurs modèles pour limiter ces hallucinations problématiques.
À l'heure où l'IA s'impose comme un outil incontournable, la vigilance reste donc de mise. Les avancées technologiques ne doivent pas se faire au détriment de la précision et de la véracité des informations générées. C'est à ce prix que l'intelligence artificielle pourra réellement tenir ses promesses et révolutionner notre quotidien de manière positive et fiable.