ChatGPT et l’effet de halo

Il y a quelques mois, j’ai reçu un article à relire. Il s’agissait d’un article analysant un sondage : la récolte de données avait été faite manuellement et l’analyse était générée par des modèles de langage (IA).
J’ai été bluffée par la qualité de l’analyse et les jolis graphiques qui l’accompagnaient.
Bluffée… c’est vraiment le bon mot ! Car, après relecture, il y avait beaucoup d’erreurs et d’incohérences. Heureusement, des relecteurs plus attentifs que moi les ont relevées. Pour ma part, je n’ai vu la médiocrité de l’article qu’après qu’on m’encourage à y être attentive.

Pourquoi peut-on se faire si facilement avoir par une production d’IA médiocre ? Parce que, globalement, nos cerveaux ne sont pas bien difficiles à convaincre ! Les illusions d’optique sont un bon support pour nous le rappeler.

Ces deux tables sont de même forme : difficile à croire à moins d’utiliser un gabarit !

Dans le cas précis que je raconte, je vois un “biais cognitif” à l’œuvre : l’effet de halo.
On a tendance à attribuer tout un tas de qualités à des personnes sur simple observation d’une de leur qualité. Par exemple, on aura l’impression qu’une personne belle doit être aussi intelligente, consciencieuse, etc. Comme tous les biais cognitifs, il affecte notre jugement sans qu’on en soit conscients. (2)

Lire la suite

Les Entretiens du SEM : Les risques existentiels liés aux IA avec Jérémy Perret

⚠️ information pour les personnes qui étaient inscrites pour écouter la redifusion : une fois que vous avez écouté le podcast, n'oubliez pas d'envoyer un mail à sem.formation@edu.ge.ch pour faire valider le suivi dans le cursus de formation SIRH 

Le mercredi 3 décembre, le SEM a accueilli Jérémy Perret pour un entretien du SEM. On y a parlé d'un sujet brûlant : faut-il brider l'intelligence artificielle pour le bien de l'humanité?

Ingénieur et docteur en intelligence artificielle, ainsi que spécialiste des questions de sécurité, Jérémy Perret possède un parcours professionnel qui alterne recherche et développement en IA, d'un côté, enseignement et vulgarisation, de l'autre. Désormais, la sûreté et la gouvernance de l'IA occupent la majorité de ses activités. Il est donc bien placé pour nous alerter sur les dangers potentiels de l'IA. Il fait d'ailleurs partie du mouvement Pause IA, qui demande un moratoire sur le développement de l'intelligence artificielle.

Lire la suite

Des LLM éthiques, ça existe ?

Vous vous êtes peut-être déjà demandé quel LLM utiliser ? A vrai dire, cette question est mal posée ! Un LLM (large language model), c’est un modèle de langage auquel on n’accède pas directement mais via une interface [A]. Par exemple sur chatGPT, vous accédez aux modèles d’Open AI (gpt 5.1 ou 5.2 à l’heure où j’écris ce billet).

Alors, recommençons : pour une utilisation personnelle, ou en classe devant les élèves, ou pour les élèves eux-mêmes, quels outils de génération de texte utiliser ?
ChatGPT est l’interface la plus connue [1], qui accède à ses modèles GPT. Mais c’est un service propriétaire, américain. Notamment dans un cadre scolaire, son utilisation pose question.

Lire la suite

Voir chatGPT comme un simulateur, pas comme un interlocuteur

Andrej Karpathy est chercheur en IA qui a notamment travaillé pour Open AI. Il est intéressé par la vulgarisation autour de l’IA et on a déjà parlé ici de ses excellentes vidéos de vulgarisation sur le fonctionnement des IA.

Dans un tweet récent, Andrej Karpathy suggère d’interagir avec des modèles de langages (comme chatGPT) en les considérant comme des simulateurs et non pas des interlocuteurs.

Il donne l’exemple d’un prompt “que penses-tu de xyz” ? Or l’IA n’a pas de pensée de type humain. Et d’ailleurs, ce n’est probablement pas “son” point de vue qui nous intéresse (pour autant que ça ait un sens). On aurait donc meilleur temps de remplacer par une question du genre : “Quels spécialistes pourrait-on consulter sur xyz ? Que diraient-ils?“.
Le modèle de langage produira alors la suite de texte la plus plausible, puisque c’est ce qu’il a été entraîné à faire. Dans le contexte de ce prompt, on obtiendra une imitation d’une réponse qu’un expert pourrait donner. (Notez que cela n’élimine pas les risques d’hallucinations et que, si c’est important, étonnant ou si vous envisagez de partager l’information, elle doit absolument être vérifiée !)

Ce conseil me semble pertinent à deux titres. D’une part, il peut améliorer les résultats. D’autre part, il nous invite à nous souvenir que l’IA n’est pas humaine et qu’il convient de ne pas l’anthropomorphiser.

 

 

***********************

 

Source : tweet du 7 décembre https://x.com/karpathy/status/1997731268969304070

Image d’illustration : générée par gemini le 10 décembre 2025

Pour aller plus loin : en avril, nous organiserons un mercredi à thème “sous le capot des IA”, on expliquera comment le fonctionnement des LLM permet d’anticiper certains comportements des LLM et donne des pistes sur comment mieux les utiliser.

IA : et si on parlait de demain ?

Difficile de ne pas être impressionné par les évolutions successives des IA génératives. Difficile de ne pas être ébloui par certaines de leurs capacités ou prouesses techniques. Difficile encore de ne pas s’accoutumer progressivement à leur omniprésence, non seulement dans le paysage numérique, mais aussi, de plus en plus, dans notre quotidien hors-écran, à l’image de ces jouets pour enfants boostés à l’IA.

Force est de constater que, trois ans après la sortie publique de ChatGPT, que nous le voulions ou non, l’IA générative est partout et fait partie de notre quotidien.

Cette normalisation occulte en grande partie une question essentielle qui n’est presque jamais abordée : où va-t-on ? et à quel prix ?

En reprenant les recherches récentes, et plus particulièrement le rapport AI 2027, cet article vous propose un voyage temporel dans les années à venir pour essayer de comprendre (ou plutôt d’imaginer) vers quoi l’humanité se dirige.

Lire la suite

Un entraînement sans humain

Il y a quelques semaines, je vous parlais de l’analogie d’Andrej Karpathy à propos de l’entraînement des IA qui ressemble l’apprentissage des élèves : lire son cours, faire des exercices corrigés, puis des exercices avec la solution non détaillée.
Une équipe de recherche de l’université de Tsinghua (Chine) a récemment présenté ce qu’elle a appelé le “zero human training”. Si on file la métaphore, les élèves laisseraient de côté profs et manuels scolaires pour travailler sur leurs propres exercices inventés. (Ce que font parfois… les meilleurs élèves ?)

Lire la suite

Performance actuelle des LLM : 1 heure

Le METR (Model Evaluation and Testing for Reliability), organisation dédiée à l’évaluation des modèles d’intelligence artificielle, vient de publier un article synthétisant des recherches vraiment intéressantes. L’objectif était de mesurer l’évolution des capacités des LLM (Large Language Model, les modèles de language qu’on retrouve par exemple dans chatGPT)

Lire la suite

Le paradoxe des gros modèles de langages

Il y a quelques semaines, Algorithmic Simplicity a publié une vidéo s’intéressant à un étrange paradoxe : plus un modèle est gros, moins il devrait être capable de généraliser, et ce n’est pourtant pas ce qu’on constate.

D’abord, pourquoi un modèle gros devrait-il être moins bon ? C’est peut être ça qui vous paraitra paradoxal. Eh bien, si un modèle possède beaucoup de paramètres, il peut “apprendre par cœur” ses données d’entraînement sans trouver de liens entre elles. C’est un peu comme si un élève avait un cerveau assez gros pour tout mémoriser, sans faire de liens entre ses connaissances. Un tel modèle serait excellent lors de l’entraînement mais incapable de généraliser quand on lui donne de nouvelles données. C’est ce qu’on appelle l’overfitting.

Lire la suite

République et canton de Genève | DIP connexion |