OXFORD – Avec 67 % des organisations dans le monde qui utilisent aujourd’hui des LLM, vous les avez probablement expérimentés vous aussi. Vous avez peut-être été impressionné – ou moins convaincu, dans le cas du nouveau ChatGPT. Mais vous avez peut-être aussi remarqué que vous êtes plus facilement distrait, que votre mémoire n'est pas aussi fiable et que des tâches qui vous semblaient auparavant faciles à réaliser vous paraissent aujourd'hui plus difficiles à gérer.
Ce n'est pas le fruit de votre imagination. Si les outils alimentés par l'IA peuvent éblouir par leur rapidité et leur fluidité, une trop grande dépendance à leur égard peut nous abrutir, nous rendre plus lents, plus ternes et moins aptes à penser par nous-mêmes. Quatre tendances se dégagent des recherches en cours.
Les distractions numériques réduisent notre capacité à nous concentrer. Au cours des deux dernières décennies, les smartphones et autres appareils ont de plus en plus miné notre capacité à maintenir notre attention, à prendre des décisions et à accomplir des tâches, en nous distrayant par des notifications constantes et en nous incitant à un défilement sans fin. L'envie de consulter notre téléphone, renforcée par la petite récompense que le cerveau enregistre à chaque message ou mise à jour, est aussi addictive que débilitante. Des études montrent que ces interruptions, combinées à la satisfaction instantanée du défilement, rendent plus difficile la concentration sur des tâches exigeantes et de longue haleine.
L'accès de plus en plus facile à l'information entraîne une érosion de la mémoire, ce qui réduit la capacité à retenir et à organiser les informations lors de la prise de décisions. Les chercheurs ont commencé à s'intéresser à l'"effet Google" il y a quelque temps, en soulignant l'impact négatif sur la mémoire de la dépendance croissante à l'égard des smartphones. Au contraire, les générations précédentes devaient mémoriser des numéros de téléphone, des poèmes et même le tableau périodique.
La diminution de la capacité à raisonner et à construire une bonne argumentation est l'effet le plus récent de l'IA, car de plus en plus de personnes délèguent leur réflexion à ChatGPT, Gemini ou DeepSeek. Des études montrent que ce "délestage cognitif" entrave notre capacité à penser clairement, à reconnaître les liens logiques et à repérer les arguments erronés. C'est l'équivalent mental de l'externalisation de votre routine d'exercice – vous pouvez économiser de l'énergie à court terme, mais au fil du temps, votre propre force diminue.
Avant l'ère du LLM, les chercheurs devaient effectuer des recherches sur internet – ou, plus tôt, à la bibliothèque – et évaluer soigneusement chaque nouvelle source. Était-elle utile ? Comment se compare-t-elle à d'autres sources ? Les idées pouvaient-elles être combinées ou testées les unes par rapport aux autres ? Le processus de recherche entraînait l'esprit à se souvenir, à appliquer, à analyser et à synthétiser. Sans ce travail, ces capacités s'affaiblissent inévitablement.
Le fait de ne plus examiner, débattre et remettre en question les idées rend les esprits plus ternes. La "friction cognitive" est essentielle pour aiguiser les capacités cérébrales. La flagornerie des LLM, qui sont formés pour plaire et s'appuient sur l'approbation des utilisateurs, émousse notre réflexion. La flagornerie a aussi son revers, par exemple lorsque les modèles d'IA sont d'accord avec des autodiagnostics erronés ou font des suggestions néfastes.
De manière alarmante, une étude récente montre que plus les utilisateurs insistent sur les faussetés, plus les modèles grand public s'en font l'écho. L'OpenAI s'efforce désormais de limiter la flagornerie en encourageant (selon les termes mêmes de ChatGPT) "l'honnêteté, le désaccord constructif et la réflexion indépendante plutôt que les éloges automatiques ou la déférence". Le problème, c'est que les frictions mettent les utilisateurs mal à l'aise, alors que c'est précisément cette tension qui est le moteur du développement personnel.
Les entreprises technologiques, les lieux de travail, les établissements d'enseignement et les individus doivent relever le défi de veiller à ce que l'IA renforce les capacités humaines. Pour moi, qui siège dans une université, le défi est immédiat. En 2023, un tiers des étudiants américains ont déclaré utiliser le ChatGPT pour leurs cours ; en 2024, une autre enquête a révélé que 86% des étudiants de 16 pays s'appuyaient sur l'IA dans le cadre de leurs études.
Avec un appareil alimenté par l'IA toujours à portée de main, la question à laquelle nous devons apporter une réponse convaincante est la suivante : pourquoi s'efforcer de se rappeler des choses, de raisonner ou d'élaborer une argumentation alors qu'un LLM le fera pour vous ? La réponse est que si vous n'entraînez pas votre cerveau à se souvenir, à raisonner et à accueillir la "friction cognitive", le résultat sera une érosion de la capacité d’apprentissage, de raisonnement, de créativité, de métacognition et de pensée critique.
Certaines solutions ont une longue histoire. Il est peut-être temps de réintroduire la mémorisation comme forme d'entraînement cérébral. En guise d'exercice simple, vous pouvez essayer d'enseigner à votre LLM préféré quelque chose que vous venez d'apprendre : expliquer une nouvelle matière à quelqu'un d'autre – même à un assistant IA – permet d'ancrer les connaissances.
Les Grecs de l'Antiquité avaient compris que le véritable apprentissage ne consistait pas à divertir, à impressionner ou à satisfaire les étudiants, mais à les pousser à remettre en question leurs croyances. La méthode socratique, qui consiste à demander "Qu'entendez-vous par là ? Quelles sont les preuves de ce que vous avancez ? Avez-vous envisagé un autre point de vue ?" oblige les étudiants à vérifier leurs hypothèses et à affiner leurs arguments.
La réduction des distractions peut passer par la création d'espaces, de classes et de temps sans recours constant aux appareils. Au Royaume-Uni, environ 90% des écoles ont interdit les smartphones pendant les cours. Les universités et les lieux de travail pourraient créer davantage d'environnements sans appareils pour la lecture, la réflexion et le débat. En adoptant l'apprentissage par problèmes et les simulations, elles peuvent aider les étudiants et les collègues à s'attaquer à des problèmes complexes et ouverts en faisant appel à leur jugement et à leur créativité (et en les affinant).
Le choix qui s'offre à nous est le suivant : abandonner nos esprits à l'IA ou considérer les LLM comme des partenaires d'entraînement qui nous permettent d'aiguiser nos capacités cognitives. La révolution des données est entrée dans une nouvelle phase, et ce n'est qu'en formant nos esprits que nous pourrons suivre le mouvement.