Des LLM éthiques, ça existe ?

Vous vous êtes peut-être déjà demandé quel LLM utiliser ? A vrai dire, cette question est mal posée ! Un LLM (large language model), c’est un modèle de langage auquel on n’accède pas directement mais via une interface [A]. Par exemple sur chatGPT, vous accédez aux modèles d’Open AI (gpt 5.1 ou 5.2 à l’heure où j’écris ce billet).

Alors, recommençons : pour une utilisation personnelle, ou en classe devant les élèves, ou pour les élèves eux-mêmes, quels outils de génération de texte utiliser ?
ChatGPT est l’interface la plus connue [1], qui accède à ses modèles GPT. Mais c’est un service propriétaire, américain. Notamment dans un cadre scolaire, son utilisation pose question.

Lire la suite

Intelligence artificielle générative et recherche en ligne: la fin du paradoxe de Ménon?

Depuis quelques mois, la frontière entre IA générative et recherche en ligne se brouille, et ça change tout. Vraiment?

Il n’y a pas si longtemps, l’accès aux informations en temps réel était un point faible de certains outils d’Intelligence artificielle générative. Se rappelle-t-on que les premières versions de ChatGPT n’avaient pas accès à Internet “en direct” et commettaient des erreurs grossières, la faute à des données d’entraînement figées dans le temps (et à un certain excès de confiance – veuillez excuser l’anthropomorphisme)?

La donne a beaucoup changé depuis. À un moment donné, des modèles concurrents de celui édité par OpenAI (Perplexity ou Microsoft Bing, par exemple) se sont spécialisés dans la génération de réponses étayées par des références. Puis la possibilité d’accéder ou non à la recherche en temps réel a progressivement cessé d’être un critère distinguant offres payantes ou gratuites.

Aujourd’hui, la convergence entre les deux domaines se poursuit, dans la mesure où les outils de recherche en ligne, Google en particulier avec son Mode IA, recourent à l’intelligence artificielle pour proposer des réponses sous forme conversationnelle, en plus ou à la place des résultats de recherche. Duck.ai de DuckDuckGo (historiquement un acteur de la recherche en ligne) est également emblématique de cette évolution.

Ce mouvement de convergence s’étend aujourd’hui aux navigateurs, que ce soit en ligne ou sous forme d’application, comme on le voit avec ChatGPT Atlas d’OpenAI ou Comet de Perplexity. On parle, à leur sujet, de “moteurs de réponses” plutôt que de recherche. Prochaine étape: les systèmes d’exploitation.

Quelles conséquences?

Les effets de ce mélange des genres sont très sensibles et déjà bien documentés. De nombreux utilisateurs de Google, notamment, se contentent de la synthèse des résultats proposée en haut de page et renoncent à cliquer sur les résultats – les fameux “ten blue links”. Ce phénomène, appelé “Zero-click search”, se traduit par une chute de fréquentation pour de nombreux sites, notamment médiatiques, avec des conséquences économiques importantes. Plus généralement, ces nouveaux usages font passer les sources des informations au second plan: on parle de crise de l’attribution.

Lire la suite

Un confessionnal pour les IA ?

Dans cet article, je vous faisais part d’une étude d’OpenAI expliquant que la manière dont les IA sont entrainées explique en partie les hallucinations. En effet, lors de l’entrainement, les modèles sont plus “récompensés” pour donner une bonne réponse que “punis” pour en donner une mauvaise. Ils ont donc toujours intérêt à tenter une réponse et à prétendre qu’ils sont sûrs d’eux (le vocabulaire anthropomorphique est utilisé ici pour simplifier la formulation mais, vous le savez, les LLM n’ont pas d’intentions, au sens humain).

Open AI vient de publier le résultat d’une expérimentation où ils ont ajouté un second système de récompenses, distinct de celui qui guide la réponse principale. Ce second système n’évalue pas la qualité de la réponse : il est entraîné à revenir sur une réponse déjà produite et en repérer les erreurs, dans une autocritique qu’OpenAI appelle “confession“.

Pourquoi séparer les deux systèmes ? Parce qu’un seul signal de récompense pousse le modèle à cacher ses incertitudes. En avouant qu’il se trompe, le modèle diminuerait la qualité de la réponse et se verrait pénalisé sur cet aspect-là. En fait, la multiplicité des critères à optimiser est un problème profond qui est une des causes des hallucinations des modèles de langage. Ils doivent à la fois maximiser la justesse de la réponse, son utilité, le respect des règles, les préférences des utilisateurs, etc.
Ici, donc, Open AI a séparé le système de récompenses lié à l’honnêteté des confessions. Le premier système n’est pas pénalisé par la “confession” d’un mensonge ou d’une erreur par le deuxième système. La détection d’erreur est traîtée à part, ce qui évite que le modèle ait intérêt à dissimuler ses fautes pour optimiser un score global.

Open AI propose de creuser cette piste, qu’ils trouvent prometteuse, relevant pour l’instant assez peu de faux négatifs ou de faux positifs.

J’aime bien vous parler des recherches qui se font en sécurité de l’IA… quand je les comprends ! Je trouve que cette recherche a le mérite d’être très accessible. Par ailleurs, j’y vois un écho intéressant avec notre métier d’enseignant : les élèves progressent quand ils comprennent leurs erreurs, pas s’ils les dissimulent. Une partie de notre travail consiste, je crois, à mettre en place un climat de confiance qui invite les élèves à repérer leurs erreurs, les partager éventuellement, et les voir comme une opportunité de progresser. Ce n’est pas possible s’ils sont évalués à ce moment là !

 

Source : https://openai.com/index/how-confessions-can-keep-language-models-honest/

Illustration : exemple provenant de l’article principal https://cdn.openai.com/pdf/6216f8bc-187b-4bbb-8932-ba7c40c5553d/confessions_paper.pdf

Pour aller plus loin : formation en ligne “sécurité des IA”, https://edu.ge.ch/site/fc/securite-intelligences-artificielles-sem-10346/

 

Voir chatGPT comme un simulateur, pas comme un interlocuteur

Andrej Karpathy est chercheur en IA qui a notamment travaillé pour Open AI. Il est intéressé par la vulgarisation autour de l’IA et on a déjà parlé ici de ses excellentes vidéos de vulgarisation sur le fonctionnement des IA.

Dans un tweet récent, Andrej Karpathy suggère d’interagir avec des modèles de langages (comme chatGPT) en les considérant comme des simulateurs et non pas des interlocuteurs.

Il donne l’exemple d’un prompt “que penses-tu de xyz” ? Or l’IA n’a pas de pensée de type humain. Et d’ailleurs, ce n’est probablement pas “son” point de vue qui nous intéresse (pour autant que ça ait un sens). On aurait donc meilleur temps de remplacer par une question du genre : “Quels spécialistes pourrait-on consulter sur xyz ? Que diraient-ils?“.
Le modèle de langage produira alors la suite de texte la plus plausible, puisque c’est ce qu’il a été entraîné à faire. Dans le contexte de ce prompt, on obtiendra une imitation d’une réponse qu’un expert pourrait donner. (Notez que cela n’élimine pas les risques d’hallucinations et que, si c’est important, étonnant ou si vous envisagez de partager l’information, elle doit absolument être vérifiée !)

Ce conseil me semble pertinent à deux titres. D’une part, il peut améliorer les résultats. D’autre part, il nous invite à nous souvenir que l’IA n’est pas humaine et qu’il convient de ne pas l’anthropomorphiser.

 

 

***********************

 

Source : tweet du 7 décembre https://x.com/karpathy/status/1997731268969304070

Image d’illustration : générée par gemini le 10 décembre 2025

Pour aller plus loin : en avril, nous organiserons un mercredi à thème “sous le capot des IA”, on expliquera comment le fonctionnement des LLM permet d’anticiper certains comportements des LLM et donne des pistes sur comment mieux les utiliser.

IA : et si on parlait de demain ?

Difficile de ne pas être impressionné par les évolutions successives des IA génératives. Difficile de ne pas être ébloui par certaines de leurs capacités ou prouesses techniques. Difficile encore de ne pas s’accoutumer progressivement à leur omniprésence, non seulement dans le paysage numérique, mais aussi, de plus en plus, dans notre quotidien hors-écran, à l’image de ces jouets pour enfants boostés à l’IA.

Force est de constater que, trois ans après la sortie publique de ChatGPT, que nous le voulions ou non, l’IA générative est partout et fait partie de notre quotidien.

Cette normalisation occulte en grande partie une question essentielle qui n’est presque jamais abordée : où va-t-on ? et à quel prix ?

En reprenant les recherches récentes, et plus particulièrement le rapport AI 2027, cet article vous propose un voyage temporel dans les années à venir pour essayer de comprendre (ou plutôt d’imaginer) vers quoi l’humanité se dirige.

Lire la suite

Confier ses états d’âme à des agents conversationnels?

Dans le célèbre roman jeunesse Harry Potter et la Chambre des secrets, la petite Ginny Weasley confie longuement ses états d’âme à un journal intime enchanté ayant appartenu au mystérieux Tom Jedusor, et manque d’y laisser la vie. Son père, apprenant ce qui s’est passé, s’écrie : « Qu'est-ce que je t'ai toujours dit ? Ne fais jamais confiance à quelque chose qui peut penser par lui-même si tu ne peux pas voir où il garde son cerveau? » Difficile de ne pas faire le lien avec un événement récent dans le monde « moldu ».

Lire la suite

Écrans et sommeil chez les ados

Lors de l'Entretien du SEM du 12 novembre 2025, nous avons reçu Virginie Sterpenich dans nos locaux pour parler du sommeil des ados et, plus particulièrement, de l'impact des smartphones et autres écrans sur leurs nuits.

Virginie Sterpenich, collaboratrice scientifique au département des neurosciences fondamentales de la faculté de médecine de l'UNIGE, a présenté l'étude menée par son équipe, qui montre que des règles parentales strictes concernant l’usage des smartphones le soir (par exemple, pas de téléphone dans la chambre et pas d’écran après une certaine heure) augmentent significativement la durée de sommeil des jeunes — en moyenne 40 minutes supplémentaires par nuit. Ce gain de repos améliore directement leurs résultats scolaires et leur bien-être.

Lire la suite

Pourquoi les IA hallucinent-elles ?

Open AI a publié une étude s’intéressant aux “hallucinations” des IAs. C’est cette fâcheuse tendance que peuvent avoir les LLM (large language model, comme chatGPT par exemple) à produire parfois du texte parfaitement plausible mais faux. L’article nous explique que ces hallucinations sont le résultat de plusieurs facteurs.

Lire la suite

République et canton de Genève | DIP connexion