IA : l’illusion du savoir et de la compétence
IA : l’illusion du savoir et de la compétence
Encadrer l’outil sans perdre l’humain — retour d’expérience et enjeux réels
Un plaidoyer pour un usage pertinent qui n’atrophie pas l’humain
L’intelligence artificielle s’impose aujourd’hui avec une évidence presque désarmante dans tous les environnements professionnels. Elle rédige, structure, analyse, propose. Elle donne le sentiment d’une efficacité accrue, d’un temps maîtrisé, d’une complexité soudainement apprivoisée. En apparence, elle simplifie. En réalité, elle transforme en profondeur notre rapport au savoir, à l’effort intellectuel et, plus encore, à la décision.
Car il faut le dire avec précision : utiliser une réponse générée par une intelligence artificielle ne signifie en aucun cas la comprendre. Et c’est précisément dans cet écart que se loge le premier danger, celui, insidieux, de l’illusion de compétence. Ce phénomène n’a plus rien de théorique. Il se constate, s’observe, se vérifie chaque jour, dans les amphithéâtres comme dans les salles de réunion.
Depuis près de vingt ans d’enseignement universitaire, j’ai vu se succéder des transformations majeures : la numérisation des contenus, l’accès instantané à l’information, la multiplication des ressources pédagogiques mais ce à quoi nous assistons aujourd’hui dépasse ces évolutions. Il ne s’agit pas d’une étape supplémentaire. Il s’agit d’un basculement.
L’irruption de l’intelligence artificielle introduit une rupture d’une nature différente. Là où l’accès à l’information exigeait encore un effort de sélection, de hiérarchisation, de compréhension, l’IA propose désormais une réponse immédiatement formulée, déjà structurée, prête à être utilisée. Et c’est précisément là que réside le danger. Contrairement aux inquiétudes premières, souvent focalisées sur la fraude, le véritable enjeu n’est pas que les étudiants trichent. Il est bien plus profond, bien plus silencieux, et sans doute bien plus préoccupant : ils risquent de ne plus apprendre.
Ce que j’observe aujourd’hui est révélateur d’un glissement. Les travaux sont impeccables sur la forme, les raisonnements semblent cohérents, les démonstrations tiennent en apparence. Pourtant, dès que l’on interroge, dès que l’on déplace la question, dès que l’on exige une explicitation orale, le décalage apparaît.
L’étudiant ne maîtrise pas ce qu’il a produit. Il ne comprend pas véritablement ce qu’il a rendu. Il a obtenu une réponse sans en construire le chemin.
Or, apprendre n’a jamais consisté à produire un résultat. Apprendre, c’est élaborer un raisonnement, affronter une difficulté, structurer une pensée. Lorsque cette dynamique disparaît, c’est l’ensemble de la chaîne de compétence qui se désagrège.
Ce phénomène s’enracine dans une confusion croissante entre produire et comprendre. L’intelligence artificielle permet aujourd’hui de générer un devoir structuré, une analyse juridique apparemment cohérente, une dissertation argumentée avec une fluidité remarquable. Mais cette capacité de production ne dit rien de la compréhension réelle. Elle peut même, paradoxalement, la masquer.
Cette illusion est renforcée par la disparition progressive de ce que les sciences cognitives désignent comme les « frictions nécessaires ». Apprendre suppose une résistance. Il faut chercher, hésiter, se tromper, reformuler, organiser sa pensée. Ce sont ces étapes, souvent inconfortables, qui construisent la compétence. L’intelligence artificielle, en supprimant ces frictions, court-circuite le processus. Elle offre une réponse immédiate, structurée, crédible. L’étudiant accède directement au résultat sans avoir traversé le raisonnement. Or, c’est précisément ce raisonnement qui constitue l’apprentissage. Sans lui, il ne subsiste qu’une apparence de savoir.
Peu à peu, ce fonctionnement installe une forme de dépendance cognitive. Il ne s’agit plus d’un usage ponctuel, mais d’un réflexe. Face à la difficulté, l’outil devient la première réponse. La question appelle immédiatement une solution générée. La rédaction se transforme en assistance permanente. Ce glissement modifie en profondeur les automatismes intellectuels. L’analyse, la structuration, l’argumentation autonome deviennent secondaires, voire accessoires. L’étudiant s’habitue à déléguer ce qu’il devrait construire.
Dans le même mouvement, l’esprit critique s’atrophie. Les réponses produites par l’intelligence artificielle possèdent une qualité redoutable : elles sont fluides, organisées, convaincantes. Elles donnent l’impression de la justesse, même lorsqu’elles sont approximatives ou erronées. Sans formation solide, sans vigilance intellectuelle, l’utilisateur ne remet pas en question, ne vérifie pas, ne conteste pas. L’autorité perçue de la machine s’impose là où devrait s’exercer le doute.
Ce phénomène transforme silencieusement le rôle même de l’université. Celle-ci n’a jamais eu pour seule vocation de transmettre des connaissances. Elle forme à la rigueur, à la complexité, à l’autonomie de pensée. Elle apprend à questionner, à douter, à construire. Or, avec l’essor de l’IA, un glissement s’opère : nous passons progressivement d’un modèle d’apprentissage à un modèle de production. L’objectif implicite devient de rendre un travail, de produire un contenu, de répondre à une consigne. La compréhension, elle, s’efface en arrière-plan.
Les conséquences de ce basculement ne s’arrêtent pas aux portes de l’université. Elles se prolongent naturellement dans le monde professionnel. Nous voyons émerger des profils capables d’utiliser des outils puissants, de produire des contenus crédibles, mais fragilisés lorsqu’il s’agit d’analyser une situation complexe, de prendre une décision ou d’assumer une responsabilité.
Ce sont des professionnels assistés, mais vulnérables.
Dans l’entreprise, cette dynamique prend une dimension encore plus critique. Forte de plus de vingt ans d’expérience en tant que juriste, j’ai pu observer des tentatives, parfois assumées, parfois plus diffuses, de substitution partielle de la fonction juridique par l’intelligence artificielle. L’argument est connu : gain de temps, réduction des coûts, accès immédiat à des réponses.
Mais la réalité est tout autre. Les analyses se révèlent incomplètes, les raisonnements fragiles, la contextualisation absente. Et surtout, une apparence de fiabilité s’installe. C’est là que réside le danger majeur. L’erreur visible peut être corrigée. L’erreur crédible, elle, s’impose.
Face à ces dérives, le législateur commence à tracer des lignes. Il rappelle que l’intelligence artificielle ne peut se substituer à certaines professions, précisément parce qu’elles engagent une responsabilité, une capacité d’interprétation, une appréciation humaine. Ce n’est pas un refus du progrès. C’est une exigence. Dans ces domaines, la décision ne se réduit jamais à une réponse technique. Elle implique un jugement, une stratégie, une prise de risque assumée.
Mais au-delà du droit et de l’entreprise, c’est un véritable basculement sociologique qui s’opère. Nous assistons à une externalisation progressive de la pensée. La formulation, l’analyse, la structuration de nos idées sont de plus en plus déléguées. À terme, c’est notre rapport même à l’effort intellectuel qui se modifie. Pourquoi réfléchir longuement lorsque la réponse est immédiatement disponible ?
Parallèlement, une standardisation des raisonnements s’installe. Les réponses générées tendent vers des formes optimisées, homogènes, prévisibles. La singularité s’efface, la divergence s’amenuise, l’innovation se fragilise. Ce qui faisait la richesse de la pensée — sa diversité, sa complexité, ses aspérités — se lisse progressivement.
La valeur ne réside plus dans la production elle-même, mais dans la capacité à analyser, à discerner, à décider.
Dans ce contexte, la notion même d’expertise se redéfinit. Si chacun peut produire un contenu crédible, la valeur ne réside plus dans la production elle-même, mais dans la capacité à analyser, à discerner, à décider. Autrement dit, dans ce que l’intelligence artificielle ne peut pas faire à notre place. Ouf ! Une soulagement peut-être…
Cette mutation affecte également notre rapport à l’autorité. Là où l’expertise reposait sur la connaissance, l’expérience, la formation, certains accordent désormais un crédit équivalent à une réponse générée. Une tension s’installe entre l’expertise réelle et la perception de compétence. Et avec elle, une fragilisation de la responsabilité. Au final, celui qui utilise l’outil demeure responsable. Encore faut-il être capable d’en mesurer les limites.
Bref, encadrer l’usage de l’intelligence artificielle ne relève pas d’une option. C’est une nécessité stratégique. Le droit amorce ce mouvement, mais il ne suffira pas. Les organisations doivent intégrer une véritable réflexion sur leurs pratiques, leurs exigences, leur gouvernance.
Étant donné que l’IA ne peut être réduite à un simple levier de productivité. Elle engage des choix, des responsabilités, des équilibres. Sans cadre, elle ne renforce pas la performance. Elle accroît le risque.
Dès lors, la véritable question n’est pas de savoir s’il faut utiliser l’intelligence artificielle. Elle s’impose déjà. La question est de savoir comment l’utiliser sans se déposséder de ses propres capacités. Comment préserver l’effort intellectuel, maintenir l’exigence, cultiver le discernement.
Après dix-huit années d’enseignement universitaire et vingt années en entreprise, une conviction s’impose avec force. L’enjeu n’est pas technologique. Il est profondément humain.
L’intelligence artificielle n’est ni un avocat, ni un médecin, ni un décideur. Elle ne doit pas le devenir par facilité. Elle est un outil d’une puissance remarquable, mais un outil qui, mal utilisé, peut affaiblir l’apprentissage, fragiliser les compétences, altérer la décision.
Les organisations qui réussiront ne seront pas celles qui utiliseront le plus l’IA. Elles seront celles qui sauront l’intégrer sans renoncer à penser, produire sans perdre la compréhension, gagner du temps sans abandonner leur discernement.
Car au fond, la véritable question n’est pas : que peut faire l’intelligence artificielle ?
Mais bien :
Que sommes-nous encore capables de faire sans elle ?
Article rédigé et publié le 31 mars 2026 par Aurélie Joubert


