Partie 2 · 1h · Exercice de commentaire d'article (avec notes personnelles manuscrites)
Sur le modèle de ce qui été réalisé en projet :
Lire l'article imposé ci-après et choisir un concept du cours parmi ceux proposés ci-après
Question 1. Vulgariser le concept choisi (3 points)
Question 2. Présenter l'article (3 points)
Question 3. Articuler le concept et l'article (produire une ou deux articulations est suffisant par rapport aux attentes de cet examen) (4 points)
Concepts proposés (en choisir un seul)
Constitutivité technique
Réfutabilité
Capitalisme de surveillance
Article imposé (extraits) · À l’université, l’IA générative « n’est pas tabou », mais toujours questionnée (Next, 5 janvier 2026)
Trois ans après l'arrivée de ChatGPT, les universitaires sont partagés sur la position à tenir face à cet outil, notamment dans les amphis. Refus poli et argumenté ou intégration malgré tout ? À l’université de Bordeaux-Montaigne, par exemple, des assises sur le sujet sont en cours. À Grenoble, l'enseignante-chercheuse en informatique Florence Maraninchi explique à Next que « ce n’est pas un tabou avec les étudiants, on en discute ».
Avant même la sortie de ChatGPT, certains étudiants utilisaient déjà les modèles de langage pour générer tout ou partie de leurs devoirs. Cette pratique, qui s’est largement popularisée avec l’arrivée du chatbot d’OpenAI, a changé les choses à l’université. Il est devenu compliqué de garder les mêmes systèmes d’évaluation. En effet, les devoirs, notamment ceux traditionnellement faits à la maison, ne peuvent plus être considérés comme des travaux personnels.
Trois ans après l’arrivée massive de l’IA générative dans notre quotidien, son utilisation est massive à l’université, par les étudiants de toutes disciplines, qu’ils soient en sciences humaines et sociales, en informatique, en philosophie, en ingénierie ou ailleurs.
Ainsi, 85 % des étudiants de l’université de Bordeaux-Montaigne (axée notamment sur la littérature et les sciences humaines et sociales) déclarent, en réponse à un questionnaire de l’établissement, avoir souvent recours aux IA génératives, et près de 70 % affirment l’utiliser tout le temps.
Si vous traînez en bibliothèque universitaire, vous pouvez parfois entendre des « il dit quoi ChatGPT ? » dans la bouche d’étudiants et d’étudiantes qui bossent leurs cours avec l’IA sans pour autant répéter bêtement ce que dit la machine.
Des universitaires appellent à l’ « arrêt de l'adoption aveugle » ou à l'« objection de conscience »
Si certains estiment que l’IA générative est là et qu’il faut faire avec, force est de constater que le sujet fait encore débat à l'université, en France mais aussi à l’étranger. Ainsi, en juin 2025, plusieurs universitaires néerlandais ont publié une lettre ouverte adressée aux universités de leur pays réclamant l’ « arrêt de l'adoption aveugle des technologies d'IA dans le milieu universitaire ». Celle-ci a recueilli plus de 1 500 signatures, dont celles de plusieurs de leurs collègues en dehors du pays.
En septembre, les enseignants-chercheurs qui ont impulsé cette lettre ouverte ont publié un nouveau texte plus précis pour expliquer « pourquoi les universités doivent prendre leur rôle au sérieux afin a) de contrer le marketing, le battage médiatique et les effets néfastes de l'industrie technologique, et b) de préserver l'enseignement supérieur, la pensée critique, l'expertise, la liberté académique et l'intégrité scientifique ».
Ces critiques ne viennent pas de nulle part ou de personnes qui n’y comprennent rien, au contraire. Par exemple, la première autrice de ces deux textes, Olivia Guest, est enseignante-chercheuse en neurosciences computationnelles, un domaine où on essaie de « comprendre le traitement de l'information opéré par le cerveau à l'aide des modèles de l'informatique », comme le rappelle Wikipédia.
« Étude après étude, il apparaît que les étudiants souhaitent développer ces compétences de pensée critique, qu'ils ne sont pas paresseux et qu'un grand nombre d'entre eux seraient favorables à l'interdiction de ChatGPT et d'outils similaires dans les universités », expliquait Olivia Guest dans un communiqué de son université.
Du côté français aussi la question reste discutée. En février 2025, Florence Maraninchi, professeure en informatique à Grenoble-INP UGA, a publié un billet pour expliquer pourquoi elle n’utilise pas ChatGPT et d’autres outils du genre. « Mon refus personnel de mettre le doigt dans l’engrenage ChatGPT s’appuie beaucoup sur mes connaissances scientifiques antérieures et ma méfiance envers des systèmes opaques, non déterministes et non testables, mais il est aussi nourri de positions politiques », expliquait-elle.
Depuis, un manifeste pour une « objection de conscience » dans l’enseignement supérieur a été publié. Il réunit à ce jour près de 2 000 signatures. « Nous considérons que le déploiement de l’IAg dans les institutions de l’ESR et de l’EN est incompatible avec les valeurs de rationalité et d’humanisme que nous sommes censé·es représenter et diffuser », y expliquent les enseignants-chercheurs.
« La mission de l’université n’a jamais consisté à ignorer ce qui se passe dans la société, mais à en construire la compréhension critique », lui rétorque le Réseau scientifique de recherche et de publication (TERRA-HN) dans un texte intitulé « Refuser l’IA à l’université, c’est en abandonner le contrôle au capitalisme ».
[...]
Une contradiction profonde avec les objectifs d'enseignement
Mais il reste encore plein de questions à se poser sur les possibilités ou non de s’en servir dans l’enseignement supérieur. « Si c’est juste pour faire ton devoir à ta place, on sait tous que ça ne marchera pas. Les étudiants aussi, mais en même temps, tant que ça passe, pourquoi est-ce qu’ils ne joueraient pas ? », s’interroge-t-il.
« En plus de toutes les questions de néocolonialisme, d’enjeux environnementaux, d’enjeux idéologiques des majors du milieu, il reste quand même dans l’usage de ces LLM dans l’enseignement, et particulièrement en lettres et sciences humaines, une contradiction profonde avec ce qu’on veut développer chez nos étudiants, une capacité critique, de formulation, d’analyse qui sont irrémédiablement liées aux capacités rédactionnelles : on apprend à penser en apprenant à écrire », explique Cédric Brun.
« Si les étudiants l’utilisent en permanence pour déléguer leur production, ils n’apprennent pas ces fondamentaux et nous ne remplissons pas notre contrat. Pour autant, ça peut être un bon outil si on l’utilise avec un recul critique », ajoute-t-il. Et d’expliquer à Next qu’en tant qu’enseignant en philosophie des sciences, il a expérimenté depuis 2022 en affinant un LLM avec des dissertations existantes, pour en produire d’autres dont il sait qu’elles auront des défauts.
Dans ce cadre, les étudiants, en petits groupes, font le travail de problématisation, puis font générer une dissertation par le modèle à partir de leur travail. Ensuite, ils doivent corriger la copie du groupe d’à côté. « Ce qui m’intéresse, explique-t-il, c’est l’ensemble des remarques qu’ils vont faire sur la copie ». Après, les étudiants récupèrent leur copie d’origine et doivent rédiger, cette fois-ci à la main, sans LLM, et en temps limité, leur propre devoir.
« C’est une pratique qui change la donne en termes de compréhension des réquisits méthodologiques de l’exercice. Ça les oblige tous à se mettre explicitement en situation de savoir ce qu’ils ont à faire. La dissertation est un travail qui repose beaucoup sur l’implicite, sur le fait que tu sais faire ou pas », affirme l’enseignant.
Parce que dans l’enseignement habituel en philosophie, explique Cédric Brun, « une fois qu’on t’a dit "il faut faire une problématique", si tu n’as pas compris ce qu’est une problématique, tu n’en feras jamais. Le fait de devoir le corriger, de devoir créer des prompts pour expliquer à la machine ce que tu attends d’elle en terme de rédaction, t’oblige à formuler pour toi-même les règles à respecter pour faire l’exercice. Il y a un côté "métacognition" qu’on peut aller chercher, qui est très utile, y compris pour des travaux qui sont nécessaires pour apprendre des compétences, des savoir-faire qu’on cherche à développer chez eux ».
[...]
Un service d’expérimentation en collaboration avec Mistral en 2026 pour les universités françaises
Si la question de l’utilisation de l’IA générative et de ses modalités reste débattue au sein de l’université, « un service d’accès à une IA générative souveraine, développé avec Mistral et opéré sur les datacenters de l’ESR » va être lancé en expérimentation dès fin janvier par l’Amue, une agence de mutualisation de services numériques pour les universités et autres établissements de l’enseignement supérieur.
Chaque établissement devra payer le service en fonction du nombre d’utilisateurs à qui il veut en faire profiter (une part, 10 sièges + 150 000 tokens, pour 600 €). Reste à voir si les universités, qui ont été nombreuses ces derniers temps à tirer le signal d’alarme à propos de leur budget, pourront se le permettre.