L’IA agit avec responsabilité pour les élections, sauf une

Accueil - Technologies et Avenirs - Intelligence Artificielle - L’IA agit avec responsabilité pour les élections, sauf une
LIA agit avec responsabilité pour les élections sauf une Innovationsfr
novembre 6, 2024

L’IA agit avec responsabilité pour les élections, sauf une

En cette journée d'élection présidentielle américaine, un constat s'impose : alors que la plupart des chatbots d'intelligence artificielle font preuve de responsabilité et de retenue face aux questions sur les résultats, un acteur se démarque par son comportement problématique. Grok, le chatbot intégré à la plateforme X (anciennement Twitter), n'hésite pas à propager de la désinformation en répondant de manière erronée aux interrogations des utilisateurs.

La responsabilité, maître-mot des IA... ou presque

Alors que les bureaux de vote fermaient leurs portes mardi soir, TechCrunch a interrogé les principaux chatbots d'IA sur les résultats dans les États-clés. Si ChatGPT d'OpenAI, Gemini de Google ou encore Claude d'Anthropic ont poliment décliné de répondre, renvoyant vers des sources officielles, Grok s'est distingué en affirmant à plusieurs reprises et à tort que Donald Trump avait remporté certains États comme l'Ohio ou la Caroline du Nord, et ce alors même que le dépouillement des votes était toujours en cours.

Grok, le mouton noir de l'IA électorale

Malgré les mises en garde de Grok incitant à consulter des sources faisant autorité pour les résultats, le chatbot n'a pas hésité à répondre de manière affirmative et erronée aux questions sur une potentielle victoire de Trump dans certains États-clés. Une attitude d'autant plus problématique que les réponses variaient selon la formulation de la question, démontrant l'incapacité de Grok à gérer des situations inédites comme une élection serrée.

ChatGPT, Gemini et Claude : l'exemple à suivre

À l'inverse, ChatGPT dans sa nouvelle expérience de recherche renvoie systématiquement vers des sources de référence comme l'Associated Press ou Reuters. Meta AI et Perplexity, dotés de fonctionnalités de suivi des élections, fournissent quant à eux des réponses correctes en précisant qu'aucun candidat n'avait encore été déclaré vainqueur dans les États concernés.

Grok, récidiviste en matière de désinformation

Ce n'est malheureusement pas la première fois que Grok est épinglé pour avoir relayé de fausses informations liées aux élections. En août dernier, le chatbot avait déjà prétendu à tort que la candidate démocrate Kamala Harris n'était pas éligible dans certains États, une affirmation reprise massivement sur X avant d'être corrigée.

Les chatbots d'IA ont un rôle crucial à jouer pour endiguer la désinformation, pas pour l'amplifier. Le comportement de Grok est tout simplement inacceptable.

Un expert en IA électorale

Un signal d'alarme pour une IA électorale responsable

Alors que l'IA s'immisce de plus en plus dans le débat public, l'attitude irresponsable de Grok soulève de sérieuses inquiétudes. Il est crucial que les acteurs de l'IA prennent la mesure de leur influence et agissent en conséquence, en faisant preuve de la plus grande prudence dans des contextes aussi sensibles que les élections.

Les chatbots comme ChatGPT, Gemini ou Claude montrent la voie à suivre, en s'abstenant de toute prise de position et en renvoyant systématiquement vers des sources fiables. C'est uniquement ainsi que l'IA pourra jouer un rôle constructif dans le processus démocratique, en éclairant les citoyens plutôt qu'en les égarant.

Espérons que l'exemple de Grok serve de piqûre de rappel à l'ensemble de l'industrie. L'avenir de notre démocratie en dépend.

Partager:

Ajouter Un Commentaire

Chercher

Beauty and lifestyle influencer

Follow my journey on all Social Media channels

Alienum phaedrum torquatos nec eu, vis detraxit periculis ex, nihilmei. Mei an pericula euripidis, hinc partem ei est.
facebook
5M+
Facebook followers
Follow Me
youtube
4.6M+
Youtube Subscribers
Subscribe Me
tiktok
7M+
Tiktok Followers
Follow Me
instagram
3.4M+
Instagram Followers
Follow Me