Pourquoi ne pas utiliser une intelligence artificielle (IA) générative comme ChatGPT ou Gemini pour réviser les épreuves du baccalauréat ? Que ce soit pour la philosophie, l’histoire-géographie, les mathématiques ou la physique, pour les lycéens les plus studieux comme pour ceux qui ont été moins appliqués au cours de leur année de terminale, la tentation peut être grande à l’approche des épreuves.
D’autant que l’IA s’invite déjà dans le quotidien des enseignants comme des élèves, au point que nombre de professeurs redoutent notamment de nouvelles formes de triche. Mais cette habitude n’engendre-t-elle pas un risque d’apprendre des choses complètement fausses, voire de ne rien retenir du tout ? Y a-t-il vraiment de bonnes manières d’utiliser des IA pour préparer le bac ? Quels sont les dangers à éviter ? Franceinfo a posé ces questions à des experts.
Les IA maîtrisent-elles le programme du bac ? Plus ou moins
Avant de rentrer dans le vif du sujet, quelques révisions s’imposent. Les IA génératives comme ChatGPT ne sont pas « intelligentes ». Elles ne « savent » pas et elles ne vont pas non plus fouiller dans une base de données pour trouver la référence la plus adaptée à la question posée.
A la base, ce sont des logiciels qui ont été entraînés sur des milliards de phrases pour analyser les enchaînements de mots les plus probables, et qui génèrent la suite de mots la plus plausible par rapport à la question posée. Ce qui peut donner une affirmation vraie aussi bien qu’une totalement fausse, à l’image de la suggestion automatique de mots sur les smartphones. Le principe est ensuite amélioré, mais le fonctionnement de base demeure, et le risque d’erreur aussi.
Autre point important, « les principales IA génératives ne connaissent pas tous les détails du programme du bac en France en 2025 », rappelle Ari Kouts, expert IA au sein du cabinet de conseil Viseo. Il rappelle que « les IA sont entraînées sur des données du monde entier, souvent en anglais, et la France ne représente qu’une petite partie » qui ne pèse pas bien lourd quand le logiciel calcule sa réponse. « Et les données utilisées pour entraîner ces IA s’arrêtent souvent en 2024 », précise-t-il. Les nouveautés du programme de 2025 ont donc de fortes chances de passer à la trappe.
Il ne faut pas non plus croire que, quand les IA font des erreurs, celles-ci sont toujours évidentes, du type « 2+2 = 5 ». « Sur des questions politiques autour de la Seconde Guerre mondiale, par exemple, ChatGPT peut présenter les choses d’une manière biaisée ou ‘trop nuancée’, que seul un spécialiste pourrait repérer », avertit Margarida Romero, professeure des universités à l’Université Côte d’Azur. Ça tombe bien, ce sont des spécialistes qui ont écrit les manuels scolaires, donc « mieux vaut toujours vérifier dans ses leçons ensuite », insiste la co-éditrice du livre blanc intitulé « Enseigner et apprendre à l’ère de l’intelligence artificielle ».
Les IA peuvent-elles expliquer des concepts de philo, d’histoire ou de maths ? Pas forcément
C’est l’un des usages les plus évidents des IA génératives : demander d’expliquer des notions mal comprises. Le devoir selon Kant, l’analyse combinatoire ou la guerre froide… Les IA semblent avoir réponse à tout et pouvoir les expliquer en détail inlassablement.
Ari Kouts recommande de préciser son « prompt » (la question qu’on pose à l’IA) autant que possible pour l’adapter au besoin. Un exemple rapide : « Tu es un professeur d’université expert en philosophie. Tu maîtrises notamment la philosophie de l’art et les rapports entre nature humaine et culture. Tu accompagnes toujours tes explications d’un exemple concret et d’une citation de philosophe sur le sujet. Explique-moi la pensée de Platon sur l’art et la beauté. »
Mais encore une fois, ChatGPT ne sait pas tout. Même plein d’assurance, le logiciel peut être à côté de la plaque, et même inventer les citations ou les titres de livres qu’il donne. Un exemple ? En réponse au « prompt » de franceinfo, ChatGPT attribue à Platon une citation qui reprend bien une idée du philosophe, mais pas dans ses mots. Même constat du côté de Gemini, l’IA de Google. Il faut donc toujours aller lire ses manuels, leçons ou livres appropriés pour vérifier si la réponse est vraie, et si « l’explication de la morale selon Kant pour un enfant de 10 ans » correspond à la version réelle.
Les réponses des IA sont-elles justes quand on leur donne des sources fiables ? Pas toujours
Il y a plusieurs moyens de limiter la casse. Le principal : fournir à l’IA des documents qu’elle va utiliser comme sources, comme les leçons ou des manuels de la matière choisie. Elle pourra ainsi rapprocher ses réponses du programme officiel. De préférence chapitre par chapitre, et pas tout un manuel d’un coup, pour éviter que la bonne réponse ne soit noyée dans la masse. « L’IA NotebookLM de Google est très bonne pour ça, assure Ari Kouts. Elle renvoie même aux citations précises des documents qu’elle a utilisés. »
Mais même ainsi, le fonctionnement de base de l’IA peut discrètement prendre le pas sur les sources pour influencer la réponse, avertit Margarida Romero. Et si vous demandez à une IA de lire ou de créer une carte ou un graphique, c’est à vos risques et périls. « Ça marche relativement bien avec des modèles comme GPT-4o », souligne Ari Kouts. « Mais il y a davantage d’erreurs qu’à l’écrit, et il suffit qu’il décode mal une nuance de couleur ou un titre, ou des symboles qui se ressemblent, ou une carte faite à la main… »
Une autre possibilité sur ChatGPT consiste à piocher dans une banque de « GPT » pré-programmés par des utilisateurs pour jouer un rôle particulier, avec le « prompt » et les bases de données adaptés. En théorie, du moins : un GPT dédié à la philosophie interrogé par franceinfo a, lui aussi, donné des citations qui n’existent pas, et impossible de savoir si les sources fournies à ces GPT sont aussi fiables que l’affirment leurs créateurs. La même prudence s’impose donc.
Une IA peut-elle faire des fiches de révision ? Plutôt oui, mais ce n’est pas la meilleure façon d’apprendre
Les IA génératives peuvent résumer un document de nombreuses manières. Avec des puces, avec des exemples ou non, des dates importantes en gras… « NotebookLM peut générer une frise chronologique avec les dates importantes en histoire, cite Ari Kouts, et même résumer le cours sous forme de podcast . »
Les conseils précédents valent toujours : donner des documents de cours pour « guider » l’IA, procéder partie par partie pour éviter la surcharge d’informations inutiles, et vérifier absolument tout. Ce qui est en principe plus facile, puisqu’on peut explorer les sources utilisées par l’IA.
« Faire des fiches de révision est une bonne idée », appuie pour franceinfo Colin de la Higuera, enseignant-chercheur en informatique à l’Université de Nantes. Mais il tempère aussitôt : « Ça n’est que la moitié de l’exercice, c’est un peu comme lire des annales du bac. Ça n’est pas parce qu’on a les mêmes leçons avec un habillage plus joli qu’on a appris quelque chose. »
Une autre faiblesse de l’IA, c’est qu’« on retient beaucoup moins d’informations quand on lit ou écrit sur un écran que sur du papier », rappelle Margarida Romero. Et recopier les « bullet points » de l’IA sur une feuille sans réfléchir ne changera pas grand-chose. « On peut avoir la sensation d’avoir fait un effort, mais on n’est pas passé par les mêmes phases de questionnement » qu’en faisant la fiche soi-même, insiste Margarida Romero. Par exemple : « Est-ce que cette idée peut être utilisée pour ce thème, est-ce que je peux dire ça d’une autre manière ? » On se souvient généralement mieux des moyens mnémotechniques (jeux de mots, images mentales…) qui viennent de son propre cerveau.
Une IA peut-elle créer des exercices pour s’entraîner ? Oui, mais pas dans toutes les matières
C’est l’usage pour lequel les spécialistes interrogés par franceinfo semblent plus enthousiastes. « Pour apprendre avec une IA, il faut l’utiliser comme un partenaire qui nous questionne, pas comme quelqu’un qui fait l’effort à notre place », propose Margarida Romero. « Par exemple, lui demander : ‘Pose-moi des questions sur ça’, ‘Est-ce que tu peux générer d’autres questions probables sur ce sujet ?’, ‘Est-ce que tu as des pistes pour améliorer ma réponse’ ?… »
Mais là encore, pas n’importe comment. Les conseils précédents (documents sources, « prompt » précis, vérification, pas trop d’indices afin de réfléchir par soi-même…) valent toujours. « NotebookLM a un bouton QCM [questionnaire à choix multiples] directement intégré pour créer un questionnaire à partir de documents sources », rappelle Ari Kouts. « Ça peut aussi être utile pour les langues comme l’anglais ou l’espagnol, pour imiter un dialogue et demander un retour en direct », note Colin de la Higuera – même si l’anglais écrit par les IA n’est pas toujours le même que l’anglais courant, avec une utilisation exagérée de certains mots, comme le rappelle Numerama.
Sur les sciences dures, comme les maths ou la physique, demander à ChatGPT des exercices sur mesure, c’est prendre le risque d’être déçu. « Les IA peuvent expliquer des théories, mais ça ne veut pas dire qu’elles savent les utiliser », avertit Ari Kouts. Les exercices créés par des humains, dans des manuels, des annales ou sur internet, sont donc en principe plus fiables.
Pour les matières plus littéraires, c’est contrasté. On peut demander à une IA des exemples de sujets de dissertation sur les thèmes du programme de philosophie, et essayer de les faire soi-même (même s’il existe déjà de nombreux exemples de vrais sujets sur internet). « On peut aussi demander à une IA de générer 20 plans possibles pour un même sujet de dissertation, d’en approfondir un en particulier, de donner des exemples… », évoque Ari Kouts.
Mais si, après avoir fait l’exercice, on veut demander un corrigé, on retombe sur les problèmes de fiabilité ou d’originalité déjà évoqués. Et si on demande directement le corrigé, c’est pire, insiste Colin de la Higuera : « C’est encore moins bien que si on s’était trompé en faisant un vrai exercice soi-même ! »
Pour résumer, impossible de se prononcer dans l’absolu sur l’utilisation de l’IA pour réviser de manière générale. Tout dépend de l’IA choisie, du « prompt » qu’on lui soumet, des documents fournis, de la méthode… Et surtout de la réflexion menée par l’élève et de ce qu’il en retire. Mais les risques sont nombreux, et tester chaque méthode prend un temps considérable qui peut aussi être utilisé autrement. « Est-ce qu’un élève qui n’a pas envie de lire ses notes apprendra plus avec l’IA qu’en ne faisant rien du tout ? Probablement, même s’il y a des choses fausses dans le lot », lâche Ari Kouts. Mais on est loin du remède miracle. Et en cas de mauvaise note, impossible de blâmer ChatGPT.