« Grok, tu peux m’expliquer ? » « Grok, est-ce que c’est vrai ? » « Grok, tu peux modifier cette photo pour rendre la personne chauve ? » Dans tous les recoins de X, le réseau social d’Elon Musk, les utilisateurs appellent un seul nom à l’aide, tel un super-héros censé résoudre tous leurs problèmes. Des règles de la mécanique quantique aux transferts sportifs en passant par la situation à Gaza, un compte semble avoir réponse à tout : Grok.
Sauf que ce n’est pas une personne, mais une intelligence artificielle (IA) générative au fonctionnement proche de ChatGPT : envoyez une question écrite au programme, et il génère en retour un texte qu’il calcule comme approprié, en fonction de ses données d’entraînement et des consignes données par ses concepteurs. Lancée fin 2023 par l’entreprise xAI (elle aussi fondée par Elon Musk, qui lui a transféré la propriété du réseau X), cette IA est depuis devenue omniprésente sur le réseau. Pour le meilleur et (surtout ?) pour le pire. Pour constater à quel point le recours à l’IA est devenu un réflexe, il suffit d’aller sur la page dédiée à Grok sur le réseau social. Des internautes appellent presque chaque seconde le programme à la rescousse, en commentant « @grok » sous une publication.
Une IA qui « recherche au maximum la vérité » ?
Pourquoi l’IA est-elle utilisée concrètement ? A regarder les requêtes, on pourrait penser que Grok peut tout faire. Pour beaucoup, le robot conversationnel (ou chatbot) vient simplement remplacer une recherche Google, comme ici pour définir la conjonctivite ou là pour expliquer le sens du niqab, le voile intégral porté par certaines femmes musulmanes. D’autres demandent de fournir un résumé, une analyse financière sur le cours de l’or, une traduction d’images, voire de transposer les coûts de fabrication de tuiles solaires chinoises en Afrique du Sud… L’IA est interrogée sur tout et n’importe quoi, 24 heures sur 24.
Certains l’utilisent comme un vérificateur à la demande, par exemple pour savoir à tout moment si Peppa Pig a bien une nouvelle petite sœur (c’est vrai) ou si le président américain Donald Trump a été acquitté en appel de ses 34 condamnations pour falsifications comptables (c’est faux). Ou comme un fournisseur inépuisable d’arguments afin de défendre son opinion : ici pour donner des chiffres d’invasions menées par les Etats-Unis ou la Chine dans d’autres pays, où là pour accuser les conservateurs britanniques d’avoir pris des décisions défavorables à leurs pêcheurs. A l’opposé des positions d’Elon Musk, les réponses du chatbot recommandent de consulter des médias professionnels régulièrement vilipendés par l’homme le plus riche du monde, et défendent les aspects positifs de politiques d’égalité et de diversité, que le camp pro-Trump accuse de tous les maux aux Etats-Unis.
Tout cela semble correspondre à l’objectif affiché par Elon Musk : en faire « l’IA la plus intelligente sur Terre », qui « recherche au maximum la vérité » et « la nature de l’univers ». Et à chacun de ces petits jeux, l’IA peut sembler compétente : au fil des réponses consultées par franceinfo, le chatbot présente différents points de vue d’une manière qui semble respecter l’état des connaissances scientifiques, y compris sur des sujets politiquement sensibles. L’utilisation de Grok pourrait alors être utile, si le chatbot était fiable. Sauf que c’est loin d’être le cas.
Des réponses « inexactes ou inappropriées »
Il n’a pas fallu longtemps à franceinfo pour constater que plusieurs exemples de vérification des faits fournis par Grok étaient erronés. Par exemple, le programme retourne ici un texte selon lequel « depuis septembre 2024, Bruno Retailleau, ministre de l’Intérieur (…) a aussi intensifié la lutte contre le trafic de drogue, avec une hausse de 202 % des saisies de cocaïne et 46 % de celles d’héroïne, et revendique avoir déjoué 12 attentats islamistes ».
Or, ces chiffres sont faux : la hausse des saisies est réelle, mais elle a été constatée sur les deux premiers mois de 2025 par rapport à la même période en 2024, pas depuis septembre 2024 – comme l’expliquait le ministre lui-même lors d’un premier bilan. De même pour le nombre d’attentats : aucune source ne confirme douze attentats déjoués depuis l’arrivée au ministère de l’Intérieur de Bruno Retailleau, lequel expliquait début avril que « six attentats ont été déjoués »depuis sa nomination. Dans cet autre exemple, le chatbot répond à un utilisateur que Donald Trump n’a pas publié de photo incluant l’ancien président des Etats-Unis Barack Obama et appelant à organiser un « tribunal militaire ». Ce qui est faux, puisque la photo était partagée sur le compte Truth Social de Donald Trump dimanche soir. Le chatbot s’est d’ailleurs corrigé en réponse à une autre question, sans évoquer son erreur initiale.
L’IA peut également avoir du mal à interpréter les publications qui lui sont soumises. Il omet ainsi certaines précisions importantes (là, Grok ne précise pas que la vidéo est une modélisation 3D), ou carrément ne comprend pas le contenu d’une image (là, à propos d’un document médical qui informe que son propriétaire est atteint de la chlamydia).
Impossible donc de savoir au premier coup d’œil si une réponse donnée par Grok est juste ou erronée, d’autant que le chatbot ne donne jamais les sources qu’il a utilisées. Les concepteurs de Grok disent avoir conscience de ces écueils.« Il peut arriver que Grok fournisse des informations inexactes ou inappropriées », écrit xAI sur sa foire aux questions, avant de préciser qu’il appartient aux utilisateurs d’« examiner et vérifier soigneusement les réponses de Grok avant de les utiliser ». Les internautes qui appellent Grok, espérant s’éviter de chercher par eux-mêmes, vont-ils s’imposer cette étape fastidieuse, surtout si la réponse de Grok correspond à ce qu’ils attendaient ? Rien n’est moins sûr.
Du « trolling » dégradant
Grok n’est pas non plus irréprochable quand il s’agit d’expliquer une situation ou un débat. Au sujet des effets de l’IA sur le marché du travail, Grok écrit que « les métiers qui demandent de la créativité, de l’empathie ou un jugement complexe, comme l’enseignement, la thérapie ou les métiers spécialisés, sont probablement protégés ». Or tout le monde n’est pas d’accord là-dessus : de nombreux artistes s’alarment depuis des années de l’impact de l’IA sur le nombre de contrats qu’ils obtiennent ou leur rémunération. Et là encore, Grok ne renvoie pas vers des sources plus détaillées, ce qui incite les internautes à prendre ses réponses pour argent comptant.
D’autres utilisateurs semblent débattre directement avec Grok, comme s’ils voulaient « raisonner » le chatbot ou lui faire dire absolument ce qu’ils attendent – ce qui ne sert à rien, car on ne peut pas « retourner le cerveau » de Grok, ni influencer les réponses qu’il donnerait aux autres utilisateurs par ce biais. Ici, par exemple, quelqu’un qui tente de manipuler Grok pour lui faire écrire que des membres de l’administration Trump sont antisociaux et narcissiques.
Grok est également utilisé par des « trolls » pour créer des photomontages pensés comme dégradants, qui ciblent notamment des femmes. L’IA est régulièrement utilisée pour modifier les photos d’utilisatrices afin de retirer leurs vêtements, les rendre chauves ou obèses. Ou encore pour ajouter un chapeau MAGA (« Make America Great Again », le slogan de Donald Trump) et un drapeau israélien sur des images publiées par d’autres utilisateurs.
Un manque de transparence
L’IA peut en outre être orientée par ses créateurs eux-mêmes, comme l’a révélé l’affaire du faux « génocide blanc ». Grok s’était mis à discuter à tout bout de champ dans ses réponses de l’idée erronée qu’il existerait un génocide des Blancs en Afrique du Sud, même quand les requêtes des internautes n’avaient rien à voir. L’entreprise xAI a blâmé une « modification non autorisée » dans les paramètres de Grok, sans désigner le responsable de cette modification – qui a promu une des obsessions récentes d’Elon Musk et Donald Trump.
Cet épisode a mis en lumière un autre problème de Grok : « xAI manque clairement de transparence. Ils font beaucoup moins bien que les autres leaders du secteur », assène auprès de franceinfo Siméon Campos, fondateur de l’ONG Safer AI, qui milite pour de meilleures pratiques de gestion des risques au sein des entreprises d’IA. L’équipe de xAI a promis de révéler publiquement sur la plateforme GitHub les futures mises à jour de la consigne principale de l’IA (le « system prompt »), mais cela ne suffit pas. « Il y a encore des parties du ‘prompt’qu’on ne connaît pas », souligne Siméon Campos, rappelant que X avait fait la même promesse concernant son algorithme de recommandation : « Il a été publié une fois, seulement en partie, et jamais mis à jour depuis. »
« Il faudrait que des auditeurs extérieurs puissent étudier le modèle et les données utilisées pour l’entraîner, pour vérifier qu’il n’y a pas de tentative délibérée d’affecter les valeurs du modèle« , envisage Siméon Campos. Tout en sachant que même sans manipulation volontaire, les données d’entraînement des IA véhiculent souvent des biais, par exemple en termes de représentations genrées (une IA à laquelle on demande de générer « a doctor » en anglais donnera plus souvent un homme médecin qu’une femme). Un autre rappel que pour atteindre la « vérité maximale », il ne faut pas faire aveuglément confiance à une IA.