Il y a quelques mois, j’ai reçu un article à relire. Il s’agissait d’un article analysant un sondage : la récolte de données avait été faite manuellement et l’analyse était générée par des modèles de langage (IA).
J’ai été bluffée par la qualité de l’analyse et les jolis graphiques qui l’accompagnaient.
Bluffée… c’est vraiment le bon mot ! Car, après relecture, il y avait beaucoup d’erreurs et d’incohérences. Heureusement, des relecteurs plus attentifs que moi les ont relevées. Pour ma part, je n’ai vu la médiocrité de l’article qu’après qu’on m’encourage à y être attentive.
Pourquoi peut-on se faire si facilement avoir par une production d’IA médiocre ? Parce que, globalement, nos cerveaux ne sont pas bien difficiles à convaincre ! Les illusions d’optique sont un bon support pour nous le rappeler.

Dans le cas précis que je raconte, je vois un “biais cognitif” à l’œuvre : l’effet de halo.
On a tendance à attribuer tout un tas de qualités à des personnes sur simple observation d’une de leur qualité. Par exemple, on aura l’impression qu’une personne belle doit être aussi intelligente, consciencieuse, etc. Comme tous les biais cognitifs, il affecte notre jugement sans qu’on en soit conscients. (2)

Quel lien avec mon histoire ? L’article était (très) bien présenté et (très) bien écrit. Ces qualités sur la forme ont probablement eu un “effet halo” qui m’a laissé penser automatiquement que le fond était également de bonne qualité.
Cette “mésaventure” m’apprend donc quelque chose d’important : il faut faire attention à ne plus utiliser la forme comme un proxy de la qualité du fond. C’était un critère déjà discutable avant l’ère des IA génératives de texte, et qui devient complétement trompeur aujourd’hui.
Prenons le chemin long de “la spirale de la tortue” : doutons, informons-nous, analysons… et recommençons !

NB :
– le titre mentionne “chatGPT” mais pour l’écriture de l’article, ce n’est pas seulement chatGPT qui avait été utilisé
– cette mésaventure pourrait donner l’impression que les grands modèles de langages sont uniquement de la poudre aux yeux. Je ne le pense pas. J’utilise notamment des IA pour m’aider à coder (voire pour coder à ma place) et le résultat est excellent (et il ne s’agit pas seulement de bluff puisque j’obtiens un programme qui tourne et fait ce que je veux 😉 )
– si les liens entre IA et esprit critique vous intéressent, nous proposons régulièrement des formations en présence sur ces thèmes. Il reste de la place pour le mercredi à thème du 11 mars où il en sera notamment question. Il existe également une formation à distance : https://edu.ge.ch/site/fc/sem-10349/
Références :
(1) Tables de Shepard : https://fr.wikipedia.org/wiki/Tables_de_Shepard
(2) L’effet de halo, présenté sur la chaine youtube ScienceÉtonnante : https://www.youtube.com/watch?v=xJO5GstqTSY / page wikipedia : https://fr.wikipedia.org/wiki/Effet_de_halo
(3) Effet de halo : https://inforjeunes.be/effet-de-halo/
(4) Je tiens cette image de l’association A Seconde Vue, association de promotion de l’esprit critique : https://www.afis.org/Entretien-avec-Luc-Rodet
Image d’illustration générée le 3 mars avec gemini