Les Grands Modèles de Langage, le Nouveau Risque des Entreprises ?
Alors que l'intelligence artificielle générative suscite un engouement sans précédent, les géants de la tech comme les startups s'empressent de l'intégrer dans leurs produits et services. Pourtant, dans les coulisses de cette révolution, certaines entreprises commencent à tirer la sonnette d'alarme. C'est le cas de ServiceTitan, une startup spécialisée dans les logiciels pour artisans, qui vient de citer l'utilisation des grands modèles de langage (LLM) de Microsoft et OpenAI comme des facteurs de risque dans son dossier d'introduction en bourse. Un signal fort qui pourrait marquer un tournant.
ServiceTitan met en garde contre les risques des LLM
Dans son prospectus S-1, ServiceTitan consacre plus de 1000 mots à détailler les risques liés à l'utilisation de l'IA générative, et en particulier des LLM. La startup, qui propose des fonctionnalités alimentées par l'IA pour le marketing, la relation client ou encore la comptabilité, s'inquiète notamment :
- Du comportement "hallucinatoire" des LLM, pouvant générer des informations inexactes et des biais discriminatoires
- Des risques de violation de propriété intellectuelle et de droits d'auteur
- De la dépendance à des services tiers comme ceux de Microsoft et OpenAI
- Des enjeux éthiques et réglementaires encore flous autour de l'IA
Des mises en garde qui tranchent avec l'enthousiasme ambiant et qui révèlent les défis auxquels sont confrontées les entreprises exploitant ces technologies de pointe.
L'IA générative, entre promesses et périls
ServiceTitan n'est pas la seule à miser sur l'IA générative. Des agents conversationnels aux outils de création de contenu, les applications se multiplient dans tous les secteurs. Marc Benioff, le PDG de Salesforce, prédit même qu'il y aura un milliard d'agents IA déployés par ses clients d'ici un an.
Mais cette course effrénée à l'IA soulève de nombreuses questions. Les LLM, conçus à l'origine pour générer du texte en imitant le langage humain, ont une propension à "halluciner", c'est-à-dire à inventer des informations de manière convaincante. Un problème majeur lorsqu'il s'agit d'applications professionnelles où la fiabilité est cruciale.
Les LLM ne sont pas des systèmes fondés sur des règles. Ils apprennent des schémas statistiques à partir de vastes corpus de textes et hallucinent parfois des choses qui semblent plausibles mais sont en fait incorrectes.
Sam Altman, PDG d'OpenAI
Au-delà des risques techniques, ce sont aussi les implications éthiques et sociétales de l'IA générative qui sont en jeu. Biais, deepfakes, manipulation, impact sur l'emploi... Les défis sont nombreux et les réponses encore balbutiantes, comme en témoigne le flou réglementaire actuel.
Vers une utilisation raisonnée de l'IA en entreprise ?
Face à ces enjeux, certains acteurs appellent à une approche plus mesurée et réfléchie de l'IA générative en entreprise. Loin de rejeter en bloc cette technologie prometteuse, il s'agit d'en cerner les limites et les risques pour mieux les maîtriser.
C'est tout le sens de la démarche de ServiceTitan, qui assume le choix de l'IA tout en communiquant de manière transparente sur les défis associés. Une manière aussi de se prémunir contre d'éventuelles déconvenues et poursuites.
Car si l'IA générative fascine, elle suscite aussi des craintes, y compris chez les investisseurs. En témoigne le récent procès intenté par Elon Musk contre Microsoft pour ses liens avec OpenAI. À l'heure où les licornes technologiques se bousculent pour entrer en bourse, la gestion des risques liés à l'IA pourrait devenir un critère déterminant.
L'avenir dira si l'avertissement de ServiceTitan est annonciateur d'une tendance de fond ou un épiphénomène. Une chose est sûre : la révolution de l'IA générative en entreprise ne fait que commencer, avec son lot de promesses et de périls. Aux acteurs économiques de trouver le juste équilibre entre audace et prudence pour en tirer le meilleur parti.