Accueil>L’intelligence artificielle est-elle un danger pour l’enseignement supérieur ?
24 mars 2023
L’intelligence artificielle est-elle un danger pour l’enseignement supérieur ?

GPT4, Google Bard, Copilot… Comment penser et adapter les enseignements aux outils de l’Intelligence Artificielle (IA) et aux nouvelles normes du XXIe siècle ?
Mathias Vicherat, directeur de Sciences Po, a posé la question à ChatGPT : quels sont les grands enjeux de l’IA pour l’enseignement supérieur et la recherche ?
Quatre défis majeurs ont été indiqués par l’outil : une amélioration de l’expérience d’apprentissage grâce à un espace plus collaboratif, une automatisation de certaines tâches des enseignants afin qu’ils se concentrent sur le plus important, une analyse systématique des données pour améliorer l’enseignement et enfin la formation aux outils de l’IA qui va devenir un prérequis pour l’insertion professionnelle. ChatGPT a précisé que son utilisation devait être “une ressource supplémentaire et pas une solution à tous les problèmes”.
Afin d’enrichir le débat public sur ces thèmes, Sciences Po a lancé un cycle de conférences sur ce lien complexe entre outils de l’IA et enseignement supérieur.
“Ne devenons pas les outils de nos outils”
La première conférence a eu lieu le 16 mars 2023 en présence de cinq invités parfois inquiets mais tous passionnés par ce sujet : Cécile Badoual (Vice-présidente Formation, Université Paris Cité), Dominique Boullier (professeur des universités, chercheur au Centre d'études européennes et de politique comparée de Sciences Po), Alain Goudey (Directeur Général Adjoint en charge du numérique à Neoma BS, professeur en marketing), Valentin Goujon (doctorant en sociologie au médialab de Sciences Po) et Asma Mhalla (membre du Laboratoire d'Anthropologie Politique de l'EHESS/CNRS, enseignante à Columbia GC, à l’École Polytechnique et à Sciences Po). Alice Antheaume (journaliste et directrice exécutive de l'École de journalisme de Sciences Po, membre du Comité Relatif à l'honnêteté, à l'indépendance et au pluralisme de l'information et des programmes de Radio France) était la modératrice du débat.
Le directeur de Sciences Po a affirmé lors de son discours d’introduction l’importance d’appréhender tout nouvel outil, et particulièrement ceux de l’IA, en faisant preuve d’esprit critique. Il s’est déclaré surpris de la “réduction médiatique” de l’obligation rappelée par Sciences Po à ses étudiants de citer leurs sources, dont l’utilisation de ChatGPT.
En tant qu’université de recherche internationale en sciences sociales, Sciences Po est convaincue de l’apport de ces nouveaux outils dans le domaine de la pédagogie comme de la recherche et ne néglige en rien sa mission de “former les étudiants à ce type d’outils”. Ainsi, un nouveau cours sur l’IA sera dispensé à tous les étudiants en première année de master dès le printemps 2024.
Mathias Vicherat a également précisé que Sciences Po s'appuierait sur son Institut des Compétences et de l’Innovation pour former les enseignants aux enjeux des outils de l’IA. La recherche sur l’IA existe par ailleurs au sein de l’institution depuis de nombreuses années, que ce soit au cœur du médialab fondé par Bruno Latour, de l’Institut McCourt ou encore du projet pluridisciplinaire “Shaping AI” porté en partenariat avec l’Allemagne, le Canada et le Royaume-Uni.
The winner takes it all : marché contre éthique
Asma Mhalla, Alain Goudey et Dominique Boullier ont souligné la frénésie d’annonces et de mises sur le marché déclenchées par la sortie de ChatGPT en novembre 2022. Pour la première, cette innovation n’est “pas tellement une disruption technologique” mais bénéficie “d’effets d’échelle et d’adoption des ses usages extraordinaires”. Pour le second, cette “extrême médiatisation”, alors que l’IA existe depuis 1956, tient à une logique de compétition commerciale sur un marché où, pour le dernier, le plus rapide gagnera : “the winner takes it all”.
Cette adoption rapide, autour d’usages “ludiques et sympathiques” ne doit pas, pour Asma Mhalla, créer une “accoutumance” qui dépolitise des outils dont les usages sont en réalité à double tranchant et qui peuvent rapidement être utilisés à des “fins militaires, policières” (avec l’exemple parmi d’autres de la reconnaissance faciale). La question essentielle à se poser pour l’enseignante-chercheuse est “quelle vision du monde est encapsulée dans ces outils ?”, qui sont loin d’être neutres et aujourd’hui produits par des entreprises américaines privées. Dominique Boullier s’est accordé avec sa consoeur en affirmant qu’une technologie “se fait toujours vecteur de normes”. Cécile Badoual les a rejoint en soulevant la question des données, qui est vastement ignorée par les utilisateurs de ces outils et qui est pourtant prioritaire : “que fait-on en donnant nos données à ces outils et à qui les donne-t-on ?”.
Si Valentin Goujon a salué l’essor “qualitatif et quantitatif” des outils de l’IA – grâce notamment aux progrès technologiques de l’IA connexionniste et de l’architecture neuronale, mais aussi à l’explosion du volume des données –, Dominique Boullier s’est désolé que le débat public se porte sur “des modèles de très mauvaise qualité”. Pour le professeur et chercheur, la logique de marché, du “rough consensus