Bilan IA 2025
Sur la chaine youtube Alexandre TL, on trouve une intéressante rétrospective de l’IA en 2025. L’article qui suit en résume les principaux éléments.
Des LLM éthiques, ça existe ?
Vous vous êtes peut-être déjà demandé quel LLM utiliser ? A vrai dire, cette question est mal posée ! Un LLM (large language model), c’est un modèle de langage auquel on n’accède pas directement mais via une interface [A]. Par exemple sur chatGPT, vous accédez aux modèles d’Open AI (gpt 5.1 ou 5.2 à l’heure où j’écris ce billet).
Alors, recommençons : pour une utilisation personnelle, ou en classe devant les élèves, ou pour les élèves eux-mêmes, quels outils de génération de texte utiliser ?
ChatGPT est l’interface la plus connue [1], qui accède à ses modèles GPT. Mais c’est un service propriétaire, américain. Notamment dans un cadre scolaire, son utilisation pose question.
Intelligence artificielle générative et recherche en ligne: la fin du paradoxe de Ménon?
Depuis quelques mois, la frontière entre IA générative et recherche en ligne se brouille, et ça change tout. Vraiment?
Il n’y a pas si longtemps, l’accès aux informations en temps réel était un point faible de certains outils d’Intelligence artificielle générative. Se rappelle-t-on que les premières versions de ChatGPT n’avaient pas accès à Internet “en direct” et commettaient des erreurs grossières, la faute à des données d’entraînement figées dans le temps (et à un certain excès de confiance – veuillez excuser l’anthropomorphisme)?
La donne a beaucoup changé depuis. À un moment donné, des modèles concurrents de celui édité par OpenAI (Perplexity ou Microsoft Bing, par exemple) se sont spécialisés dans la génération de réponses étayées par des références. Puis la possibilité d’accéder ou non à la recherche en temps réel a progressivement cessé d’être un critère distinguant offres payantes ou gratuites.
Aujourd’hui, la convergence entre les deux domaines se poursuit, dans la mesure où les outils de recherche en ligne, Google en particulier avec son Mode IA, recourent à l’intelligence artificielle pour proposer des réponses sous forme conversationnelle, en plus ou à la place des résultats de recherche. Duck.ai de DuckDuckGo (historiquement un acteur de la recherche en ligne) est également emblématique de cette évolution.
Ce mouvement de convergence s’étend aujourd’hui aux navigateurs, que ce soit en ligne ou sous forme d’application, comme on le voit avec ChatGPT Atlas d’OpenAI ou Comet de Perplexity. On parle, à leur sujet, de “moteurs de réponses” plutôt que de recherche. Prochaine étape: les systèmes d’exploitation.
Quelles conséquences?
Les effets de ce mélange des genres sont très sensibles et déjà bien documentés. De nombreux utilisateurs de Google, notamment, se contentent de la synthèse des résultats proposée en haut de page et renoncent à cliquer sur les résultats – les fameux “ten blue links”. Ce phénomène, appelé “Zero-click search”, se traduit par une chute de fréquentation pour de nombreux sites, notamment médiatiques, avec des conséquences économiques importantes. Plus généralement, ces nouveaux usages font passer les sources des informations au second plan: on parle de crise de l’attribution.
Un confessionnal pour les IA ?
Dans cet article, je vous faisais part d’une étude d’OpenAI expliquant que la manière dont les IA sont entrainées explique en partie les hallucinations. En effet, lors de l’entrainement, les modèles sont plus “récompensés” pour donner une bonne réponse que “punis” pour en donner une mauvaise. Ils ont donc toujours intérêt à tenter une réponse et à prétendre qu’ils sont sûrs d’eux (le vocabulaire anthropomorphique est utilisé ici pour simplifier la formulation mais, vous le savez, les LLM n’ont pas d’intentions, au sens humain).
Open AI vient de publier le résultat d’une expérimentation où ils ont ajouté un second système de récompenses, distinct de celui qui guide la réponse principale. Ce second système n’évalue pas la qualité de la réponse : il est entraîné à revenir sur une réponse déjà produite et en repérer les erreurs, dans une autocritique qu’OpenAI appelle “confession“.
Pourquoi séparer les deux systèmes ? Parce qu’un seul signal de récompense pousse le modèle à cacher ses incertitudes. En avouant qu’il se trompe, le modèle diminuerait la qualité de la réponse et se verrait pénalisé sur cet aspect-là. En fait, la multiplicité des critères à optimiser est un problème profond qui est une des causes des hallucinations des modèles de langage. Ils doivent à la fois maximiser la justesse de la réponse, son utilité, le respect des règles, les préférences des utilisateurs, etc.
Ici, donc, Open AI a séparé le système de récompenses lié à l’honnêteté des confessions. Le premier système n’est pas pénalisé par la “confession” d’un mensonge ou d’une erreur par le deuxième système. La détection d’erreur est traîtée à part, ce qui évite que le modèle ait intérêt à dissimuler ses fautes pour optimiser un score global.
Open AI propose de creuser cette piste, qu’ils trouvent prometteuse, relevant pour l’instant assez peu de faux négatifs ou de faux positifs.
J’aime bien vous parler des recherches qui se font en sécurité de l’IA… quand je les comprends ! Je trouve que cette recherche a le mérite d’être très accessible. Par ailleurs, j’y vois un écho intéressant avec notre métier d’enseignant : les élèves progressent quand ils comprennent leurs erreurs, pas s’ils les dissimulent. Une partie de notre travail consiste, je crois, à mettre en place un climat de confiance qui invite les élèves à repérer leurs erreurs, les partager éventuellement, et les voir comme une opportunité de progresser. Ce n’est pas possible s’ils sont évalués à ce moment là !
Source : https://openai.com/index/how-confessions-can-keep-language-models-honest/
Illustration : exemple provenant de l’article principal https://cdn.openai.com/pdf/6216f8bc-187b-4bbb-8932-ba7c40c5553d/confessions_paper.pdf
Pour aller plus loin : formation en ligne “sécurité des IA”, https://edu.ge.ch/site/fc/securite-intelligences-artificielles-sem-10346/
Voir chatGPT comme un simulateur, pas comme un interlocuteur
Andrej Karpathy est chercheur en IA qui a notamment travaillé pour Open AI. Il est intéressé par la vulgarisation autour de l’IA et on a déjà parlé ici de ses excellentes vidéos de vulgarisation sur le fonctionnement des IA.
Dans un tweet récent, Andrej Karpathy suggère d’interagir avec des modèles de langages (comme chatGPT) en les considérant comme des simulateurs et non pas des interlocuteurs.
Il donne l’exemple d’un prompt “que penses-tu de xyz” ? Or l’IA n’a pas de pensée de type humain. Et d’ailleurs, ce n’est probablement pas “son” point de vue qui nous intéresse (pour autant que ça ait un sens). On aurait donc meilleur temps de remplacer par une question du genre : “Quels spécialistes pourrait-on consulter sur xyz ? Que diraient-ils?“.
Le modèle de langage produira alors la suite de texte la plus plausible, puisque c’est ce qu’il a été entraîné à faire. Dans le contexte de ce prompt, on obtiendra une imitation d’une réponse qu’un expert pourrait donner. (Notez que cela n’élimine pas les risques d’hallucinations et que, si c’est important, étonnant ou si vous envisagez de partager l’information, elle doit absolument être vérifiée !)
Ce conseil me semble pertinent à deux titres. D’une part, il peut améliorer les résultats. D’autre part, il nous invite à nous souvenir que l’IA n’est pas humaine et qu’il convient de ne pas l’anthropomorphiser.
***********************
Source : tweet du 7 décembre https://x.com/karpathy/status/1997731268969304070
Image d’illustration : générée par gemini le 10 décembre 2025
Pourquoi les IA hallucinent-elles ?
Open AI a publié une étude s’intéressant aux “hallucinations” des IAs. C’est cette fâcheuse tendance que peuvent avoir les LLM (large language model, comme chatGPT par exemple) à produire parfois du texte parfaitement plausible mais faux. L’article nous explique que ces hallucinations sont le résultat de plusieurs facteurs.
