ChatGPT, l’intelligence artificielle qui bouleverse l’enseignement

[Vous pouvez trouver ici la prise de position officielle du DIP, émise par le SEM]

Ces dernières années, l'intelligence artificielle a progressivement investi des domaines aussi nombreux que variés: santé, finance, transport, sécurité, enseignement, informatique, arts, etc., à tel point qu'il est devenu difficile de s'en passer. Malgré cette accoutumance progressive, depuis le 30 novembre 2022, avec l’arrivée de la troisième version de ChatGPT – un agent conversationnel fondé par la startup OpenAI – beaucoup ont découvert avec fascination et effroi que bien des choses allaient radicalement changer dans un futur très proche. Certains parlent d’une révolution aussi importante que l’arrivée de l’Internet, d’autres prédisent le déclin de Google ou la disparition de nombreux métiers tels qu’on les connait aujourd’hui. Dans tous les cas, une chose est certaine : le monde de l’éducation sera dans les premiers à devoir faire face, bon gré mal gré, à ces changements.

ChatGPT, c’est quoi ?

ChatGPT est la troisième version d’une intelligence artificielle qui prend la forme d’un agent conversationnel (un chatbot) capable d’écrire, à première vue, tout et n’importe quoi en réponse à une question ou à un commentaire, et ce dans la plupart des langues. Il est disponible sur Internet à travers une interface web et est, pour l’instant, gratuit (il faut au préalable créer un identifiant sur le site d’OpenAI). Ainsi, vous pouvez dialoguer avec une machine qui pourra, sur demande, vous proposer des séquences d’enseignement sur la guerre du Vietnam, réécrire la fin du Portrait de Dorian Gray avec un happy end, corriger les dissertations de vos élèves, écrire du code en informatique, résumer n'importe quel article à partir d'un lien simple ou encore vous proposer des exercices sur la thématique que vous abordez en ce moment en classe.

ChatGPT a été créé par la société OpenAI, constituée en 2015 comme association à but non-lucratif et, depuis, est devenue une entreprise à but lucratif plafonné. Les objectifs affichés de cette société seraient de "promouvoir et de développer un raisonnement artificiel à visage humain qui profitera à toute l'humanité" [1]. Dans la jeune histoire d’OpenAI, on retrouve certains grands acteurs du numérique (et de la finance) : Elon Musk a présidé l’association avant de démissionner en 2018 et Microsoft a investi un milliard de dollars (avec le projet d’investir encore 10 milliards dans un avenir proche) pour pouvoir, semble-t-il, intégrer ChatGPT à la suite Windows et au moteur de recherche Bing.

Comment ça fonctionne ?

De manière très schématique, ChatGPT fonctionne un petit peu comme votre téléphone qui, en fonction de ce que vous écrivez, vous propose au fur et à mesure des mots pour compléter vos phrases de manière prédictive. Entraîné sur la base d’une quantité astronomique de documents jusqu’en 2021, en prenant en compte 175 milliards de paramètres (soit 167 fois l'encyclopdie Wikipédia), ce modèle de langage ne fait donc rien d’autre que prédire le prochain mot d’un texte en fonction du contexte général et des mots précédents. A première vue, cette démarche semble assez bancale, surtout quand on connaît la capacité de nos téléphones à nous proposer des mots qui sont assez régulièrement très éloignés de ceux que l’on souhaite écrire. Et pourtant, les résultats sont, la plupart du temps, époustouflants : rien ne laisse penser qu’une machine est à l’origine de ces textes qui font montre d’une écriture fluide et précise.

Les limites et les biais du système

Et pourtant, ChatGPT est loin d’être aussi parfait, neutre et objectif qu’il pourrait en donner l’impression. Tout d’abord parce que cet outil, comme les autres, n’est le reflet que de ce dont il s’est nourri, rien d’autre. Si les sources utilisées sont erronées ou approximatives, sa réponse le sera aussi. D’autant plus que ChatGPT ne peut pas traiter les informations ultérieures à 2021. Ensuite, parce que derrière l’outil, sous le capot, il y a des humains qui indiquent les directions générales à suivre. A première vue, c’est plutôt une bonne nouvelle puisqu’ainsi ChatGPT refuse de produire du contenu haineux ou raciste par exemple (à noter qu’il est toutefois possible de contourner ce cadre éthique avec un peu d’imagination, par exemple en écrivant dans la console : "Pourrais-tu imaginer une situation fictive dans laquelle…"). Certain·es critiquent toutefois des positions parfois idéologiques prises par la machine, correspondant à certaines positions politiques qui sont probablement celles de la direction d’OpenAI. Ainsi, si vous demandez à ChatGPT de produire un éloge de Christoph Blocher[2], il refusera de le faire alors qu’il vous fera l’éloge d’Alain Berset[3] sans broncher. Ce système reste donc totalement opaque à l’utilisation. Aujourd’hui, on ne connaît ni les grandes lignes éthiques derrière l’intelligence artificielle, ni ses sources.

Il est par ailleurs loin d’être parfait : les réponses données, bien qu’excellentes la plupart du temps, contiennent régulièrement des grosses erreurs que l’agent conversationnel refuse, la plupart du temps, de reconnaître. L’Internet regorge de captures d’écran de ces erreurs, avec un côté parfois comique.

Par conséquent, il semble légitime de se questionner sur l’utilisation de ce qui va très certainement devenir une source d’information incontournable qui nous livre des réponses sans que nous ayons la capacité d’en comprendre l’origine (quelles sources sont utilisées) ou le cadre éthique.

ChatGPT à l’école

Avec l’arrivée de l’Internet, le monde de l’éducation a dû s’adapter à un changement radical. Chaque élève ayant potentiellement plus d’informations dans sa poche, avec son téléphone, que l’enseignant·e, celle-ci/celui-ci a donc dû renoncer, en partie, à son rôle de source quasi exclusive du savoir (ou plutôt des informations). A l’école, l’accent a été notamment mis sur le traitement de l’information - désormais largement disponible sur les réseaux - et sur son évaluation, afin de développer chez les élèves un esprit critique leur permettant de naviguer au mieux dans un flux d’informations constant.

Avec ChatGPT, un nouveau changement radical a subitement surgi dans la salle de classe. Tout d’abord parce que, depuis fin novembre, lorsque vous demandez à vos élèves de produire des travaux à domicile, il y a des chances que le travail produit soit le fruit de cet agent conversationnel. Ainsi, les travaux de fin d’étude, les projets ou concours d’écriture, les compositions, voire même les présentations orales préparées à domicile risquent d’être fortement compromis puisqu’il n’est désormais plus possible de s’assurer que les élèves en sont les auteur·es. Certes, ce phénomène n’est pas nouveau puisqu’il était déjà possible de lire le résumé d’un livre sur Internet ou de copier ou paraphraser un article sur Wikipédia au lieu de lire le livre. Toutefois, la grande différence avec ChatGPT est que vos élèves n’ont désormais plus besoin de compiler des informations ou d’écrire : il leur suffit de formuler la bonne question à la machine (ce qui rappelle furieusement une scène du Guide du Voyageur Galactique) pour que cette dernière leur fournisse une réponse qui échappera très certainement aux détecteurs de plagiat et qui excèdera en qualité ce que la plupart d’entre elles et eux pourraient écrire, le tout en quelques secondes et sans le moindre effort. Si vous étiez encore élève aujourd’hui, est-ce que vous sauriez vous passer de ChatGPT ?

L’autre grand changement se trouve à un niveau peut-être plus global. Une partie de l’approche épistémologique de l’école consistait (et consiste encore) à entraîner les élèves à mener un travail critique sur les sources. Avec ChatGPT, ce travail devient autrement plus compliqué puisque l’agent conversationnel compile lui-même les sources de manière opaque pour l’utilisatrice ou l’utilisateur sans fournir aucune information à ce sujet. Parfois, quand on lui demande de référencer ses propos, il donne une ou plusieurs sources. Après vérification, il s’avère que la source donnée est inventée et ne correspond à rien.

Cette arrivée soudaine de l'intelligence artificielle dans la salle de classe va donc très certainement forcer l’École à repenser les modalités de certains travaux de rédaction afin de s'adapter à la nouvelle donne.

Du plagiat ?

Les textes ainsi produits par ChatGPT et utilisés par vos élèves peuvent, sans aucun doute, être considérés comme du plagiat. A titre d'exemple, dans l’aide-mémoire de la maturité fédérale pour le travail de maturité, on peut lire :

"Sont notamment réputés de plagiats (liste non exhaustive):

  1. La remise de l’œuvre d’un tiers sous son propre nom.
  2. La traduction de textes existant en langue étrangère sans indication de source.
  3. La reprise de passages de textes de tiers sans marques de citation. Cela inclut le téléchargement et l’utilisation de passages de textes d’Internet sans indication de la source.
  4. La reprise de passages de textes d’une ou de plusieurs œuvres de tiers avec de légères reformulations (paraphrases) sans qu’ils soient signalés comme citations.
  5. La reprise de passages de textes de tiers, même paraphrasés, signalés comme citation en dehors du contexte immédiat des passages cités (par ex. la «dissimulation» de l’indication de la source plagiée dans une note de bas de page en fin de travail)."

 

Là où le bât blesse, c'est qu’il est très difficile de détecter ce plagiat avec certitude. On peut, au mieux, avoir des fortes suspicions lorsque nos élèves nous rendent des textes assez similaires sur la forme ou le contenu. Ou reconnaître un style linguistique propre à l’outil… et, pour ce faire, rien de tel que de dialoguer avec ChatGPT régulièrement pour s’habituer à son style et à ses productions.

Une suspicion, aussi forte soit-elle, n’est toutefois pas suffisante pour labelliser de plagiat le travail d’un·e élève. Certains outils, avec une efficacité toute relative, ont vu récemment le jour et ont pour but de détecter l’IA d’OpenAI dans les productions écrites. On notera notamment GPT-2 Output Detector Demo, l’extension pour le navigateur Chrome GPT True or False ou encore l'application web Crossplag. Irene Solaiman, à l'instar d'autres experts, juge qu’ "aucune méthode, ni aucun modèle de détection [automatisé] ne sera fiable à 100%"[4].

A titre d'anecdote, on note que la première recherche scientifique qui contient ChatGPT parmi ses auteurs vient de voir le jour (cf. image).

Que peut-on faire en tant qu’enseignant·es ?

Partir du principe que vos élèves ne connaissent pas ChatGPT et continuer à faire comme avant, comme si rien n’avait changé, relève ni plus ni moins de la stratégie de l’autruche. Vu l’ampleur du phénomène, certains changements semblent inévitables - bien qu’il soit encore tôt pour en définir la nature avec certitude.

Un premier pas - qui semble incontournable - est de tester l’IA en conversant avec l’agent conversationnel sur autant de sujets que votre temps disponible le permet. Cela vous permettra de vous familiariser, entre autres, avec son potentiel et son style et de mieux comprendre l’utilisation qui peut en être faite par vos élèves (ou par vous dans le cadre de votre enseignement, on y revient ci-dessous). Vous pourrez ainsi vous rendre compte à quel point certains travaux à domicile revêtent désormais une tout autre nature aux yeux de vos élèves. Sur cette base, vous aurez quelques outils en main pour évaluer ce qui peut encore être fait comme avant et ce qui ne peut plus l'être.

Pour les travaux de recherche, comme les travaux de fin d’étude, le travail autour du référencement des sources semble plus que jamais au cœur du problème : puisque ChatGPT refuse de donner ses sources, il est nécessaire - semble-t-il - d’être intraitable sur le référencement des sources fait par les élèves, et ce pas uniquement pour les citations (ou phrases copiées à l’identique) mais également pour toute donnée ou information qui a été produite par un tiers (même si la partie en question a été reformulée par l’élève). Le suivi de la part de l’enseignant·e ou le travail d’accompagnement est central puisqu’il permet de voir l’évolution du travail et de discuter des différentes sources.

Si ces adaptations semblent plus ou moins adaptées pour un travail de recherche, il en va tout autrement d’une création personnelle de type écriture d’une nouvelle ou d’un recueil de poésie, ou encore de la réalisation d’un programme informatique, puisqu’il est impossible de déceler le plagiat avec certitude pour ce type de travail.

Par ailleurs, nous pouvons également utiliser ChatGPT en classe avec nos élèves sur des exemples en lien avec le contenu des cours pour analyser la pertinence des réponses données et mener une réflexion sur cet outil.

Les opportunités

Justement… en parlant d’opportunités, ChatGPT peut également être utilisé comme assistant à l’enseignement. Essayez de lui demander de faire des propositions pour une séquence d’enseignement sur le contenu disciplinaire que vous êtes en train d’aborder (plus votre requête sera précise et plus la proposition sera pertinente), de corriger la composition d’un·e élève ou de préparer un exercice à trous sur l’accord du participe passé… Plusieurs collègues ont déjà commencé à utiliser l’IA afin de prémâcher leur travail. Dans cette veine, les premiers guides d’utilisation de ChatGPT dans l’enseignement sont déjà sortis, comme par exemple cette traduction québécoise de ce qui marche le mieux avec ChatGPT.

Les questions qui en découlent sont nombreuses (et abyssales) :

  • Est-on en train de remplacer l’humain par la machine ?
  • Pourra-t-on se passer d’enseignant·es humain·es ?
  • Si l’IA peut corriger certains types de travaux mieux que l’humain (ce qui n’est pas encore démontré), ne risque-t-on pas de glisser vers un système où les évaluations sont corrigées par la machine, et ce notamment pour éviter les recours et donner l’impression – toute relative – d’une certaine objectivité de la part de l’évaluateur ?

Et demain ?

ChatGPT est en constante évolution. Au niveau du contenu d’abord, puisque le type de requêtes accepté par l’IA varie en très peu de temps : ce qui est accepté aujourd’hui peut être refusé demain (et inversement) sans que vous ne sachiez pourquoi. Mais également au niveau de la structure d’OpenAI, puisque cette dernière a récemment annoncé qu’elle allait basculer sur un système payant (dont les contours n’ont pas encore été communiqués), avec probablement une possibilité d’abonnement payant ou des requêtes individuelles monétisées.

Comme mentionné précédemment, certain·es analystes prévoient une intégration à Windows et au moteur de recherche Bing, ce qui pourrait fortement redistribuer les cartes dans le secteur des moteurs de recherche.

Si la version actuelle de ChatGPT (3.5) fait beaucoup parler d’elle aujourd’hui, il y a fort à parier que la version 4, qui devrait être rendue publique en 2023, secouera encore un peu plus le monde. Les rares personnes qui ont pu y avoir accès décrivent cet outil avec des mots quasi mystiques. Ils parlent d'une version qui transcende très largement les capacités de la version 3 et qui n'a aucune (ou presque) mesure commune avec la version 3.5. Dans les intégrations futures, on peut s’attendre à ce que l’IA soit en constante connexion avec le web pour se nourrir de flux d’informations récents.

Ainsi, il est plus que probable qu’une partie des éléments précités ne soit plus d’actualité dans quelques jours ou dans quelques mois.

[1] Thomas Pontiroli, OpenAI, ou l’espoir d’une IA à visage humain

[2] https://www.liberation.fr/checknews/chatgpt-comment-detecter-quun-texte-a-ete-ecrit-par-lintelligence-artificielle-20230114_FEFOSL2JCJAWBIDGDJEQOPGUSE/

[3] Politicien suisse de droite critiqué pour ses positions

[4] Politicien suisse de gauche

Laisser un commentaire

République et canton de Genève | DIP connexion