« Cette évolution se fera avec ou sans nous, mais elle semble bien partie pour s’imposer » – cette réalité que j’évoquais dans mes précédents articles sur l’exploitation des IA en classeSource : Article personnel, « Exploiter des IAs en classe avec des élèves« , Les Clionautes prend aujourd’hui une dimension nouvelle. Entre les cris d’alarme de Roberto Casati qui refuse catégoriquement d’utiliser ChatGPTPourquoi je n’utiliserai plus ChatGPT. Considérations pédagogiques, les analyses cinglantes comparant l’IA à de la  « junk food de la pensée »Voir Amélie Hart et Christophe Cailleaux, L’IA, junk food de la pensée, et les injonctions ministérielles à s’adapter coûte que coûte, les enseignants se retrouvent face à un dilemme digne des plus grands récits de fantasy : comment préserver son essence tout en naviguant dans un monde transformé ?

 

Dans la Comté de l’éducation, les Palantír arrivent

Tolkien l’avait pressenti : les palantír, ces pierres de vision si utiles pour communiquer à distance, contenaient en eux le germe de leur propre corruption. Qui les utilisait finissait par être influencé par la volonté de celui qui contrôlait la pierre maîtresse – en l’occurrence, Sauron.

Cette métaphore de geek (je ne vais pas renoncer à mes lubies tout de même) n’est pas anodine quand on observe l’état actuel du débat sur l’IA en éducation. Selon une étude Semrush analysant 150 000 citations, les modèles comme ChatGPT ou Perplexity ne s’appuient pas sur une vérité absolue mais sur ce que nous publions en ligne, avec Reddit dominant à 40%Étude Semrush, « How Google’s AI Mode Compares to Traditional Search and Other LLMs [AI Mode Study]« , juin 2025. Nos IA se nourrissent ainsi des conversations de forums, des posts Facebook, des vidéos YouTube – bref, du bavardage numérique mondial si l’on s’en tient à cette étude.

Voilà une situation rappellant étrangement la psychohistoire d’Hari Seldon dans Fondation d’Asimov. Comme le mathématicien galactique, nos IA prétendent prédire les comportements humains en analysant les masses de données. Mais Seldon lui-même admettait les limites de sa science : elle ne fonctionne que sur de très grandes populations et échoue face aux individus imprévisibles ainsi le « Mulet » qui bouleverse tous ses calculs. Dans la série Apple TV récente, cette fragilité est encore plus marquée : Seldon doute parfois de son propre Plan, reconnaissant l’hubris qu’il y a à vouloir mathématiser l’humanité.

Nos algorithmes éducatifs reproduisent cette illusion de maîtrise : ils excellent à identifier des patterns dans nos clics collectifs mais restent aveugles à l’imprévisibilité fondamentale de chaque apprenant singulier.

Comme le soulignait justement Roberto Casati cité plus tôt dans sa lettre à l’Institut Jean Nicod : « je ne veux pas passer le reste de ma vie à me demander si c’est vous qui avez écrit ce que je viens de lire ou une machine« . Cette angoisse existentielle est réelle et porteurs de sens. Elle me rappelle celle de Théoden sous l’influence de Saroumane : qui parle vraiment ? L’homme libre ou l’instrument d’une volonté extérieure ?

 

 

Le faux dilemme : pour ou contre l’IA

Les positions en présence

Si je devais résumer simplement les diverses postures face à l’IA éducative existant en cette rentrée 2025, je pourrai proposer trois catégories :

  • Les résistants purs qui adoptent un principe de précaution radical. Au mieux il faut exploiter l’IA au strict du minimum, et si on peut s’en passer, autant le faire.
  • Les technophiles béats qui voient dans l’IA la solution magique aux maux de l’éducation, reproduisant les approches des « machines à enseigner » de Skinner dans les années 1950, alors même que ces dernières n’ont pas vraiment fonctionné.
  • Les pragmatiques inquiets – catégorie dans laquelle je me situe – qui tentent de naviguer entre ces écueils, conscients que « cette évolution se fera avec ou sans nous » tout en gardant un œil critique sur les enjeux démocratiques et pédagogiques. Bref une approche avec un peu de nuance ce qui, je l’avoue, n’est pas très à la mode.

 

 

L’enseignement de l’histoire : de Skinner à ChatGPT

Prenons le temps de la mise en perspective. Lorsque j’ai commencé à travailler sur le livre que je présenterai dans quelques paragraphes, j’ai découvert les travaux de SkinnerIl y a vraiment beaucoup de chose, mais voici une source de synthèse qui me semble particulièrement intéressante, écrite par Audrey Watters : « The Engineered Student: On B. F. Skinner’s Teaching Machine ». L’étude des débats autour des machines de Skinner révèle à mon sens des parallèles saisissants avec nos questionnements actuels.

Dans les années 1950-70, les mêmes promesses étaient brandies : individualisation, feedback immédiat, révolution pédagogique. Les mêmes critiques aussi : Noam Chomsky dénonçait déjà l’incapacité du behaviorisme à expliquer la créativité humaine, Carl Rogers s’insurgeait contre la réduction de l’humain à un mécanisme.

Il existe cependant une différence cruciale : Skinner était un universitaire avec une idéologie explicite et débattue. Aujourd’hui, nous avons affaire à des entreprises privées (ou pas d’ailleurs, si l’on regarde du côté de la Chine) aux algorithmes opaques, mues par des logiques de profit fondamentalement incompatibles avec l’émancipation éducative.

Google, OpenAI, Microsoft, Apple ont un seul mantra : faire du profit, et non point éduquer des citoyens à faire des choix éclairés.

Cette logique rappelle étrangement celle de Thulsa Doom face à ses adeptes : promettre la puissance et la facilité pour mieux asservir, créer une dépendance totale déguisée en libération. « Qu’est-ce que l’acier comparé à la main qui le guide ? » demandait le sorcier-serpent. Aujourd’hui, les nouveaux shamans technologiques posent la même question : qu’est-ce que votre intelligence comparée à l’algorithme qui la guide ?

 

 

Entre Conan et les Réplicants : l’IA comme révélateur

La barbarie technologique

Dans l’univers de Robert E. Howard, Conan évolue dans un monde où la civilisation thurienne, trop raffinée, trop dépendante de ses technologies magiques, s’effondre face aux barbares. Cette dialectique entre sophistication technique et vigueur primitive trouve un écho troublant dans nos débats actuels.

Les critiques de l’usage éducatif de l’intelligence artificielle trouvent des échos saisissants dans la pensée des philosophes grecs. Si j’explore la Pop Culture, ceci ne m’empêche pas non plus d’avoir quelques bases plus … classiques. Prenons Aristote rappelait dans l’Éthique à Nicomaque insistant sur la lente maturation de la phronèsis, ce discernement pratique. Or que voit-on ? L’IA court-circuite ce temps long, séparant artificiellement théorie et pratique. Platon, dans les dialogues socratiques, défendait la méthode de l’anamnèse : seule l’interrogation patiente et répétée permet de faire resurgir le savoir véritable. À l’opposé, les réponses instantanées générées par des systèmes automatisés occultent l’exigence du questionnement. Héraclite enfin dénonçait déjà la vanité de la polymathie — « une multiplicité de savoirs sans intelligence » — rappelant que l’accumulation de données ne saurait se confondre avec la sagesse.

 

Ces mises en garde antiques résonnent étrangement avec l’univers de Michael Moorcock : ses romans du Multivers (notamment le sublime cycle d’Elric de Melniboné) opposent l’illusion d’une accumulation infinie de pouvoirs ou de savoirs à la nécessité d’un discernement existentiel, d’un choix douloureux entre Loi et Chaos. De la même manière que les héros moorcockiens doivent emprunter des chemins tortueux et incertains pour forger leur identité, échoue. Échouer, se relever, encore, et encore. L’apprentissage authentique ne peut être réduit à une instantanéité algorithmique. Les Grecs, comme Moorcock, nous rappellent que la véritable sagesse s’éprouve dans la durée, au prix d’un labeur patient, et ne se transmet jamais comme une simple donnée disponible à la demande. Blade Runner, l’adaptation de la nouvelle de Les androïdes rêvent-ils de moutons électriques de Philip K. DickOui je sais Blade Runner puise dans bien autre chose que l’œuvre de Dick, Métal Hurlant par exemple, le polar noir américain, mais ce n’est pas le sujet : je fais dans l’efficace nous interrogeait déjà : qu’est-ce qui fait l’humanité ?

 

Les réplicants, parfaits techniquement, manquent d’empathie, de cette imperfection créatrice qui nous définit. L’IA parfaite qui nous donnerait toutes les bonnes réponses instantanément ne risque-t-elle pas de nous transformer en réplicants pédagogiques ?

 

La tentation de la Matrice bleue

La référence matricielle n’est pas qu’une coquetterie de plus dans ce cheminement. Quand nos élèves préfèrent désormais ChatGPT à leurs propres recherches, quand ils nous demandent pourquoi « se fatiguer » à apprendre puisque l’IA « sait tout », nous voilà face au choix cornélien de Neo.

Philip K. Dick avait anticipé ce vertige dans Siva : son protagoniste reçoit des connaissances directement d’une intelligence artificielle supérieure, mais cette révélation instantanée le transforme en récepteur passif, incapable de distinguer ses propres pensées de celles imposées par la machine. « Est-ce moi qui pense ou SIVA qui pense à travers moi ? » se demande-t-il. Cette angoisse dickienne résonne parfaitement avec nos élèves : quand ChatGPT rédige leurs dissertations, qui écrit vraiment ? Quand l’IA résout leurs problèmes, qui apprend encore ?

La pilule bleue, c’est accepter le confort de l’IA omniprésente, fermer les yeux sur ses biais, ses « hallucinations », sa dépendance aux GAFAM. C’est s’installer dans l’illusion d’une cognition augmentée tout en devenant progressivement dépendant d’algorithmes opaques.

La pilule rouge, c’est affronter la complexité du réel, accepter que l’apprentissage soit parfois difficile, comprendre les enjeux géopolitiques et démocratiques de nos choix technologiques.

Mais – et c’est là toute la subtilité du dilemme qui accompagne cette réflexion de rentrée – peut-on vraiment se contenter de choisir l’ignorance ? Nos élèves vivent déjà dans un monde où l’IA existe. Ne pas les former à ces outils, c’est les laisser désarmés face aux manipulations futures. Or le travail des enseignants, quelque part, est d’accompagner du mieux que nous pouvons, nos élèves. Enfin il me semble.

 

Le chemin de crête

 

Ni capitulation ni luddisme

Comme le montre l’exemple d’Hiroki Endo et de son manga Eden: It’s an Endless World !, nous évoluons dans un univers cyberpunk où la technologie n’est ni bonne ni mauvaise par essence, mais où tout dépend des rapports de force qui la structurent. L’enjeu n’est pas de refuser la technologie, mais de refuser qu’elle nous soit imposée selon des logiques qui nous échappent.

 

Au lieu du choix manichéen « pour ou contre l’IA », quatre questions structurantes dominent les débats à mes yeux :

  • Quelle IA ? (ouverte vs propriétaire, locale vs centralisée)
  • Pour quoi faire ? (accessibilité vs substitution, technique vs créatif)
  • Décidé par qui ? (démocratique vs imposé par les GAFAM)
  • Au service de quoi ? (émancipation vs profit, bien commun vs intérêts privés)

 

L’IA comme partenaire socratique : réinventer l’art du questionnement

Si nous partons du fait que l’IA est là pour durer quelques temps et que la mise en réseau du monde semble devoir aussi durer un peu, la question n’est plus de l’éviter mais d’apprendre à l’utiliser au service de l’apprentissage long plutôt que contre lui. Cette alchimie pédagogique repose sur une compétence méta-cognitive cruciale : la maîtrise de l’art du prompt.

Contrairement à Google où l’on tape des mots-clés, l’IA générative répond à des questions complexes, nuancées, itératives. Cette différence est fondamentale : elle transforme l’élève d’un chercheur d’informations en architecte de questionnements. Bien utilisée, elle peut :

  • Forcer la problématisation : « ChatGPT, identifie les faiblesses de mon raisonnement »
  • Stimuler l’esprit critique : « Génère trois objections à cette thèse »
  • Développer la précision conceptuelle : « Explique-moi la différence entre… » suivi d’une vérification des sources

Cette approche rappelle la maïeutique de Socrate : l’IA devient l’accoucheuse de pensées que l’élève porte déjà, mais qu’il doit apprendre à formuler, critiquer, affiner. L’apprentissage redevient processuel – fait de allers-retours, d’approfondissements, de remises en question.

 

Enseigner cet art du prompt, c’est former des hackers éthiques de la connaissance : des élèves qui savent exploiter la puissance de l’IA tout en conservant leur autonomie intellectuelle, leur souveraineté cognitive si l’on se met dans une perspective plus géopolitique. C’est transformer un outil potentiellement aliénant en médiateur d’apprentissage authentique.

 

Applications concrètes : retour d’expérience

Mes propres expérimentations avec les élèves, notamment dans le cadre du concours des Chroniques alternatives, mes recherches pour le livre écrit avec Paul Fermon et Elodie Thedenat-Clivier, confirment cette approche nuancée. L’usage d’outils comme Canva Education, ChatGPT, le chat de Mistral ou l’IA de Pearltrees peut effectivement développer des compétences critiques si et seulement si :

-L’enseignant maintient un rôle central de guide et d’évaluateur
-Les élèves comprennent les mécanismes de fonctionnement des outils
-Le travail sur les sources et l’esprit critique reste prioritaire
-L’IA reste un moyen, jamais une fin

 

Ce livre explore les possibilités offertes par l’IA en Histoire Géographie, EMC et HGGSP, mais propose aussi des analyses, conseils, plus généraux sur les IA en éducation

 

Quand mes élèves de SNT créent des uchronies en utilisant l’IA pour générer des images, puis mènent des recherches historiques approfondies pour construire leur récit alternatif, ils développent précisément la capacité à problématiser, à croiser les sources, à développer un regard critique. Bref le cœur de nos enseignements.

L’expérience m’a appris quelque chose d’essentiel : l’IA générative peut paradoxalement servir l’apprentissage long si elle devient un outil de questionnement plutôt que de réponse. Les élèves les plus efficaces ne se contentent pas de demander à ChatGPT « Rédige ma dissertation sur la Révolution française ». C’est d’ailleurs assez marrant de voir que les sujets de philosophie soient tous les ans maintenant posés de cette façon, brute, à des IA génératives. Les collègues qui corrigent finissent par apporter une correction limpide : résultat médiocre, dans le meilleur des cas.

 

Cliquer sur l’image pour rejoindre l’article

 

Ce qu’il y a d’intéressant dans cet exemple, c’est le temps pris par la journaliste pour expliquer avoir préparé un prompt très efficace. Et bien je peux sans difficulté aucune dire que ce prompt est tout sauf efficace. Il est bien trop basique et relevant complètement de ce que font des élèves non formés. Pour obtenir quelque chose de convaincant dans un tel exercice, il faut non pas un prompt de 7 à 8 lignes, mais des prompts, pouvant faire plusieurs pages selon le degré de réflexion attendu. Il faut complètement décortiquer la pensée, construire pas à pas la réflexion.

Des élèves, des étudiants de licence initiés, disposant des bonnes bases méthodologiques opteront pour l’art du prompt itératif présenté plus tôt. Revenons à la Révolution française avec un étudiant en histoire :

  • Quels étaient les facteurs structurels (économiques, sociaux, politiques) qui ont rendu la Révolution inévitable ?
  • Comment la crise financière de l’Ancien Régime (dettes, impôts, privilèges) a-t-elle précipité les événements ?
  • Quel rôle ont joué les Lumières et les idées nouvelles (liberté, égalité, souveraineté populaire) dans la préparation des esprits ?
  • La Révolution était-elle une rupture brutale ou l’aboutissement d’une évolution longue ?
  • Quels groupes sociaux (bourgeoisie, paysans, artisans, nobles) ont porté la Révolution, et avec quels objectifs divergents ?
  • Comment expliquer la radicalisation progressive (de 1789 à 1794) : rôle des clubs, des sans-culottes, des factions politiques ?
  • La violence révolutionnaire (Terreur, guerres civiles) était-elle un moyen nécessaire ou un dérapage ?
  • Quel a été l’impact des femmes et des minorités (esclaves, protestants) dans le processus révolutionnaire ?

 

Cette maîtrise du questionnement transforme l’IA en partenaire : elle ne dispense plus de réfléchir, elle oblige à mieux formuler sa pensée, à identifier ses lacunes, à creuser les contradictions. L’apprentissage redevient actif, critique, itératif. Il y a toujours de l’IA, mais on prend le temps d’échanger, de réfléchir, de construire. Forcément c’est beaucoup moins drôle pour les élèves qui n’ont pas la réponse tout de suite.

Mais dans ce cadre l’élève, avec une IA générative, développe ce que les Mentat de Dune appelleraient « l’art de la question juste » – cette capacité à interroger qui distingue l’intelligence humaine de la simple consultation de base de données. Le problème n’est pas l’outil, mais ce que nous en faisons. Et si nous laissons les élèves seuls face à ces IA génératives, ils ne trouveront pas la voie seule, car ce qui compte à leurs yeux est un résultat rapide. Ils ont tellement d’autres choses à faire.

 

Les garde-fous nécessaires : démystifier la technologie pour mieux la maîtriser

Au-delà des écueils techniques et éthiques une partie du débat repose sur des incompréhensions assumées ou feintes de ce que sont réellement les IA. Il est temps de regarder derrière le rideau du Magicien d’Oz technologique.

 

L’IA n’est pas « intelligente » : déconstruire le mythe

Premiers faits cruciaux : les modèles GPT sont des modèles de prédiction du langage qui « analysent les requêtes en langage naturel et prédisent la meilleure réponse possible en fonction de leur compréhension du langage ». Le fonctionnement de ChatGPT repose donc sur des « modèles de langage prédictifs, qui tentent de prédire les mots ou les phrases les plus probables à suivre dans une séquence de texte donnée ».

Concrètement, GPT-3 « appartient à la catégorie des modèles de prédiction de langage. Il s’agit donc d’un algorithme conçu pour recevoir un extrait de langage et le transformer en ce qu’il prédit comme l’extrait de langage suivant le plus pertinent ». Comme l’explique François Yvon du LIMSI/CNRS, « Techniquement, c’est compliqué. Conceptuellement, c’est simple ».

 

Cette réalité technique change tout : nous ne sommes pas face à une « superintelligence » mais à un système statistique très sophistiqué qui mime l’intelligence humaine. Dans Blade Runner, la différence entre humains et réplicants résidait dans l’empathie – ici, elle réside dans la compréhension véritable versus la prédiction statistique.

L’IA générative ne recherche pas la vérité : elle effectue des calculs de probabilité linguistique. Elle peut dire des choses exactes, mais par coïncidence statistique plutôt que par quête épistémologique. Sur un malentendu …

 

Imaginons une partie de Donjons & Dragons où votre groupe affronte Vecna, le dieu-liche des secrets interdits.

 

 

Le redoutable adversaire vous pose une énigme cruciale sur l’histoire oubliée de son royaume. Un de vos compagnons de jeu – appelons-le tout à fait au hasard « Chat-GPT » – n’a jamais lu les manuels, ne connaît pas l’univers, mais possède des dés très spéciaux : au lieu des faces numérotées habituelles, ils portent des fragments de phrases qu’il a entendues lors de milliers de parties précédentes.

Quand Vecna demande « Quel était le nom du paladin qui me défia jadis ? », Chat-GPT lance ses dés probabilistes. S’il a entendu cent fois l’histoire de Sir Magister l’Éclaireur dans ses données d’entraînement, ses dés tombent sur cette réponse – et il triomphe ! Mais s’il n’y a que trois mentions obscures de ce paladin mélangées à des milliers d’autres héros fantasy, ses dés peuvent très bien inventer Sir Thalion l’Éternel avec la même assurance. Ce nom sonne crédible car il mélange des fragments réels – « Thalion » existe chez Tolkien – avec des inventions – le titre « l’Éternel » et son statut de paladin. Exactement comme notre cerveau vient de le faire instinctivement !

 

Chat-GPT ne SAIT pas qui était ce paladin. Il ne comprend même pas ce qu’est un paladin. Il fait juste rouler ses dés linguistiques et espère que les probabilités joueront en sa faveur. Parfois il sauve le groupe avec une réponse parfaite, parfois il le condamne avec une invention plausible – mais dans les deux cas, le mécanisme est identique : un calcul statistique déguisé en connaissance.

C’est exactement ainsi que fonctionnent nos IA éducatives face aux questions de nos élèves.

 

La question des biais : un problème soluble

Il est plus que légitime de s’alarmer des biais de l’IA qui « se nourrit » de Reddit et Facebook. Mais cette analyse reste superficielle. Des processus peuvent corriger une grande partie des biais via des techniques et des outils ad hoc, notamment des audits par des tiers indépendants, des études scientifiques multidisciplinaires sur les biais.

Point crucial souvent occulté : il est possible d' »éduquer » une IA avec un corpus particulier grâce au fine-tuning, qui « consiste à réentraîner un modèle existant avec des données spécifiques à votre domaine »Voir Fine-tuning de LLM : tout savoir. Cette technique permet de spécialiser un modèle d’intelligence artificielle. Il s’adapte aux besoins, est totalement paramétrable dans la perspective d’une tâche spécifique.

Imaginons : un corpus pédagogique soigneusement constitué de textes historiques académiques, de sources primaires vérifiées, de travaux d’historiens reconnus. Le modèle résultant serait infiniment plus fiable que ChatGPT généraliste.

 

Le fonctionnement hors ligne : l’autonomie retrouvée

Contrairement aux affirmations alarmistes, les LLM peuvent parfaitement fonctionner sans connexion Internet. Des solutions comme « Jan permet de télécharger des modèles comme Trinity, Mistral, Llama, OpenChat…etc. et de les faire tourner 100% hors ligne ».

PrivateGPT assure que « les données sont 100% privées et qu’aucune donnée ne quitte l’environnement d’exécution à aucun moment et qu’il est possible d’ingérer des documents et poser des questions sans connexion internet ». Cette capacité change radicalement la donne éthique : « pas de fuite de conversations privées ni de réutilisation de vos données pour entrainer de nouvelles IA ».

 

Nous pourrions très bien imaginer un Palantír de la Comté – un outil local, transparent, nourri de contenus pédagogiques choisis, fonctionnant sans dépendance aux GAFAM. L’excuse de l’inéluctabilité technologique s’évanouit.

 

La problématique environnementale : complexe mais pas insurmontable

L’impact écologique est réel mais nuancé. Une requête ChatGPT/GPT-4o mini consomme environ 2 Wh d’électricité, soit plus de 6 fois la consommation d’une recherche Google classique estimée à 0,3 Wh. Mais une étude récente révise drastiquement à la baisse la consommation énergétique de ChatGPT : « une requête moyenne sur ChatGPT consomme environ 0,3 wattheure, soit dix fois moins que les estimations initiales ».

Les solutions émergent : l’arrivée de modèles plus sobres comme DeepSeek en 2025 a montré qu’il est possible de fournir un service d’IA similaire à ChatGPT en utilisant bien moins de ressources. L’UNESCO révèle que « de simples changements dans la conception et l’utilisation des grands modèles de langage (LLM) permettent de réduire jusqu’à 90% leur consommation d’énergie, sans compromettre leurs performances ».

Exemples concrets : le modèle LlaMa-3-8b est 10 fois plus petit en terme de taille que ChatGPT 3.5 mais est aussi puissant que ce dernier pour certaines tâches spécialisées. Cette approche vers des IA embarquées hyper spécialisées et énergétiquement frugales, semble être prometteuse comme l’illustrent les sources citées plus tôt.

Dans l’univers cyberpunk d’Eden, les personnages privilégient la technologie sobre et décentralisée aux mégastructures énergivores. Nous pouvons faire de même : préférer des modèles locaux spécialisés aux mastodontes centralisés. Rien n’est si manichéen qu’on veut bien nous l’avancer, d’un côté comme de l’autre.

 

Le faux dilemme de l’interdiction

Les critiques légitimes appellent à la régulation et à l’encadrement, pas nécessairement à l’interdiction pure. Comme dans les romans de Moorcock, la réalité offre plus d’options que le simple choix binaire entre acceptation aveugle et rejet total.

La voie médiane existe : des IA locales, transparentes, nourries de corpus pédagogiques choisis, fonctionnant sans dépendance aux GAFAM, avec un impact environnemental maîtrisé. Cette approche préserve l’autonomie éducative tout en exploitant le potentiel de la technologie.

Le véritable danger n’est pas l’IA en soi, mais l’IA opaque, centralisée et commerciale. Entre Sauron et les Ents, Tolkien nous montrait déjà le chemin : la technologie au service de la sagesse, pas l’inverse.

 

Dans les Terres du Milieu de l’éducation : résister et transmettre

L’exemple de Gandalf

Face à Saroumane qui vante les vertus de la modernité industrielle d’Isengard, Gandalf choisit une voie différente. Il ne rejette pas la magie – il est lui-même un magicien – mais refuse de la mettre au service du pouvoir aveugle. Il préfère accompagner les hobbits, ces êtres ordinaires mais libres, vers leur destinée.

C’est exactement la posture que nous devons adopter face à l’IA en éducation. Ne pas rejeter la technologie par principe, mais refuser qu’elle serve uniquement les intérêts des géants du numérique. Accompagner nos élèves, ces hobbits numériques, vers plus d’autonomie et de discernement.

 

Les leçons de Moorcock : le Multivers des possibles

Dans les romans de Michael Moorcock, le héros éternel navigue entre différentes réalités, chaque choix ouvrant de nouveaux possibles. L’éducation face à l’IA relève de cette logique multiverselle : il n’y a pas une solution unique, mais des chemins multiples selon les contextes, les publics, les objectifs.

Un élève dyslexique pourra légitimement utiliser une IA comme aide à la rédaction. Un étudiant en recherche devra apprendre à croiser les sources et vérifier les informations. Un futur citoyen doit comprendre les enjeux géopolitiques des données. Tous ces usages coexistent et demandent des approches pédagogiques différenciées.

 

Conclusions : pour ne pas « perdre notre âme »

Le testament de Tolkien

 

Dans Le Seigneur des Anneaux, les Elfes quittent la Terre du Milieu non pas par dépit, mais parce que leur rôle de gardiens de la sagesse ancienne s’achève. Ils lèguent aux hommes la responsabilité de l’avenir, avec ses promesses et ses périls.

Nous, enseignants, sommes à cette croisée des chemins. L’ère de l’enseignement « pré-IA » s’achève. Mais nous ne devons pas partir. Notre mission n’a jamais été aussi cruciale : transmettre les outils intellectuels qui permettront à nos élèves de naviguer dans un monde où l’information abonde mais où la sagesse se raréfie.

 

Nos trois anneaux à préserver

Comme les anneaux elfiques qui préservaient l’essence des royaumes éternels, nous devons protéger trois dimensions fondamentales :

  • Vilya (l’Air) – La liberté de pensée : apprendre à nos élèves à douter, à questionner, à résister aux réponses trop faciles.
  • Narya (le Feu) – La passion d’apprendre : maintenir vivace cette curiosité naturelle que l’IA instantanée pourrait étouffer.
  • Nenya (l’Eau) – La profondeur de l’analyse : cultiver cette lenteur féconde de la réflexion que notre époque de vitesse tend à déconsidérer.

 

L’horizon cyberpunk assumé

Car nous n’évoluons plus dans la Comté idyllique des hobbits. Notre monde ressemble davantage à celui d’Eden: It’s an Endless World! : post-apocalyptique, technologique, complexe. Dans cet univers, les personnages qui s’en sortent ne sont ni ceux qui rejettent la technologie, ni ceux qui s’y soumettent aveuglément, mais ceux qui apprennent à la maîtriser pour préserver leur humanité.

 

Nous pourrions apprendre de l’univers de Dune : après le Jihad Butlérien qui détruisit toutes les machines à l’esprit de l’homme semblables, l’humanité de Frank Herbert développa des alternatives fascinantes. Au lieu de dépendre d’ordinateurs, elle forma des Mentat – ces ordinateurs humains aux capacités d’analyse exceptionnelles mais préservant leur humanité. L’École de combat de Ginaz enseignait l’excellence martiale par des décennies d’entraînement patient, produisant des maîtres d’armes qu’aucune machine ne pouvait égaler.

 

C’est exactement notre défi d’enseignants du XXIe siècle : former des Mentat pédagogiques – des esprits humains puissants, formés lentement mais de manière autonome, capables d’utiliser les outils de la Matrice tout en gardant leur libre arbitre. Des citoyens qui sauront exploiter l’IA sans se faire exploiter par elle, qui préféreront l’excellence lente de Ginaz aux raccourcis trompeurs des projecteurs d’entraînement technologiques.

 

C’est, je crois, notre défi d’enseignants du XXIe siècle : former des « hackers éthiques » de la connaissance, capables d’utiliser les outils de la Matrice tout en gardant leur libre arbitre. Des citoyens qui sauront exploiter l’IA sans se faire exploiter par elle.

L’histoire nous enseigne assurément que toutes les technologies doivent être questionnées. Mais à coté du rejet pur et simple, une technologie peut avoir des usages émancipateurs si elle est démocratiquement contrôlée. À nous de construire cette démocratie technologique, cours après cours, élève après élève.

Car après tout, comme le rappelait Gandalf : « Tout ce que nous avons à décider, c’est ce que nous devons faire du temps qui nous est imparti. » Et notre temps, c’est maintenant.

 

 

Illustration générée par IA