Des LLM éthiques, ça existe ?

Vous vous êtes peut-être déjà demandé quel LLM utiliser ? A vrai dire, cette question est mal posée ! Un LLM (large language model), c’est un modèle de langage auquel on n’accède pas directement mais via une interface [A]. Par exemple sur chatGPT, vous accédez aux modèles d’Open AI (gpt 5.1 ou 5.2 à l’heure où j’écris ce billet).

Alors, recommençons : pour une utilisation personnelle, ou en classe devant les élèves, ou pour les élèves eux-mêmes, quels outils de génération de texte utiliser ?
ChatGPT est l’interface la plus connue [1], qui accède à ses modèles GPT. Mais c’est un service propriétaire, américain. Notamment dans un cadre scolaire, son utilisation pose question.

Lire la suite

Intelligence artificielle générative et recherche en ligne: la fin du paradoxe de Ménon?

Depuis quelques mois, la frontière entre IA générative et recherche en ligne se brouille, et ça change tout. Vraiment?

Il n’y a pas si longtemps, l’accès aux informations en temps réel était un point faible de certains outils d’Intelligence artificielle générative. Se rappelle-t-on que les premières versions de ChatGPT n’avaient pas accès à Internet “en direct” et commettaient des erreurs grossières, la faute à des données d’entraînement figées dans le temps (et à un certain excès de confiance – veuillez excuser l’anthropomorphisme)?

La donne a beaucoup changé depuis. À un moment donné, des modèles concurrents de celui édité par OpenAI (Perplexity ou Microsoft Bing, par exemple) se sont spécialisés dans la génération de réponses étayées par des références. Puis la possibilité d’accéder ou non à la recherche en temps réel a progressivement cessé d’être un critère distinguant offres payantes ou gratuites.

Aujourd’hui, la convergence entre les deux domaines se poursuit, dans la mesure où les outils de recherche en ligne, Google en particulier avec son Mode IA, recourent à l’intelligence artificielle pour proposer des réponses sous forme conversationnelle, en plus ou à la place des résultats de recherche. Duck.ai de DuckDuckGo (historiquement un acteur de la recherche en ligne) est également emblématique de cette évolution.

Ce mouvement de convergence s’étend aujourd’hui aux navigateurs, que ce soit en ligne ou sous forme d’application, comme on le voit avec ChatGPT Atlas d’OpenAI ou Comet de Perplexity. On parle, à leur sujet, de “moteurs de réponses” plutôt que de recherche. Prochaine étape: les systèmes d’exploitation.

Quelles conséquences?

Les effets de ce mélange des genres sont très sensibles et déjà bien documentés. De nombreux utilisateurs de Google, notamment, se contentent de la synthèse des résultats proposée en haut de page et renoncent à cliquer sur les résultats – les fameux “ten blue links”. Ce phénomène, appelé “Zero-click search”, se traduit par une chute de fréquentation pour de nombreux sites, notamment médiatiques, avec des conséquences économiques importantes. Plus généralement, ces nouveaux usages font passer les sources des informations au second plan: on parle de crise de l’attribution.

Lire la suite

Un confessionnal pour les IA ?

Dans cet article, je vous faisais part d’une étude d’OpenAI expliquant que la manière dont les IA sont entrainées explique en partie les hallucinations. En effet, lors de l’entrainement, les modèles sont plus “récompensés” pour donner une bonne réponse que “punis” pour en donner une mauvaise. Ils ont donc toujours intérêt à tenter une réponse et à prétendre qu’ils sont sûrs d’eux (le vocabulaire anthropomorphique est utilisé ici pour simplifier la formulation mais, vous le savez, les LLM n’ont pas d’intentions, au sens humain).

Open AI vient de publier le résultat d’une expérimentation où ils ont ajouté un second système de récompenses, distinct de celui qui guide la réponse principale. Ce second système n’évalue pas la qualité de la réponse : il est entraîné à revenir sur une réponse déjà produite et en repérer les erreurs, dans une autocritique qu’OpenAI appelle “confession“.

Pourquoi séparer les deux systèmes ? Parce qu’un seul signal de récompense pousse le modèle à cacher ses incertitudes. En avouant qu’il se trompe, le modèle diminuerait la qualité de la réponse et se verrait pénalisé sur cet aspect-là. En fait, la multiplicité des critères à optimiser est un problème profond qui est une des causes des hallucinations des modèles de langage. Ils doivent à la fois maximiser la justesse de la réponse, son utilité, le respect des règles, les préférences des utilisateurs, etc.
Ici, donc, Open AI a séparé le système de récompenses lié à l’honnêteté des confessions. Le premier système n’est pas pénalisé par la “confession” d’un mensonge ou d’une erreur par le deuxième système. La détection d’erreur est traîtée à part, ce qui évite que le modèle ait intérêt à dissimuler ses fautes pour optimiser un score global.

Open AI propose de creuser cette piste, qu’ils trouvent prometteuse, relevant pour l’instant assez peu de faux négatifs ou de faux positifs.

J’aime bien vous parler des recherches qui se font en sécurité de l’IA… quand je les comprends ! Je trouve que cette recherche a le mérite d’être très accessible. Par ailleurs, j’y vois un écho intéressant avec notre métier d’enseignant : les élèves progressent quand ils comprennent leurs erreurs, pas s’ils les dissimulent. Une partie de notre travail consiste, je crois, à mettre en place un climat de confiance qui invite les élèves à repérer leurs erreurs, les partager éventuellement, et les voir comme une opportunité de progresser. Ce n’est pas possible s’ils sont évalués à ce moment là !

 

Source : https://openai.com/index/how-confessions-can-keep-language-models-honest/

Illustration : exemple provenant de l’article principal https://cdn.openai.com/pdf/6216f8bc-187b-4bbb-8932-ba7c40c5553d/confessions_paper.pdf

Pour aller plus loin : formation en ligne “sécurité des IA”, https://edu.ge.ch/site/fc/securite-intelligences-artificielles-sem-10346/

 

Pourquoi les IA hallucinent-elles ?

Open AI a publié une étude s’intéressant aux “hallucinations” des IAs. C’est cette fâcheuse tendance que peuvent avoir les LLM (large language model, comme chatGPT par exemple) à produire parfois du texte parfaitement plausible mais faux. L’article nous explique que ces hallucinations sont le résultat de plusieurs facteurs.

Lire la suite

Entretien du SEM : comment dominer le jeu vidéo?

Le mercredi 28 mai,  nous avons accueilli Lucien Ding, responsable genevois de l’Académie Noétic, lors d’un «entretien du SEM»

Noétic? Cette association propose des cours de jeux vidéo pour les jeunes. Bien au-delà d’un travail de «virtuosité» pour les joueurs, l’académie a pour vocation d’accompagner les adolescents dans une pratique raisonnée des jeux vidéo. A chaque cours, des thèmes tels que les achats dans les jeux vidéo, l’économie de l’attention, les conflits autour des écrans avec les parents, etc. sont abordés.

Lucien Ding, ancien joueur de haut niveau et doté d’une expérience de travailleur social, est un coach qui plaît aux jeunes et rassure les parents.

Lire la suite

Les IA qui apprennent un peu comme des élèves

Andrej Karpathy (1) a publié il y a quelques mois une longue vidéo (3 heures 30 !) sur le fonctionnement des modèles de langage tels que chatGPT (LLM : large language model). Au cours de cette vidéo, il utilise une analogie, que je trouve parlante, sur les différents types d’apprentissage de ces modèles : apprendre pour une IA, ce serait un peu comme apprendre pour un élève :

1) Lire le cours
C’est la première phase : le pré-entraînement. L’IA “lit” des tonnes de textes (livres, sites universitaires, encyclopédies, etc.). Elle apprend à reconnaître des structures, des phrases, des concepts. Comme un élève qui lit son manuel pour se familiariser avec les bases. A cette étape, elle ne fait qu’ “ingurgiter” l’information lue.
Bien sûr, analogie oblige, ce vocabulaire est très anthropomorphique et il serait plus correct de dire qu’à cette étape, on cherche un programme capable de prédire le mot suivant lorsqu’on lui donne un début de texte, ce qui nécessite d’encoder des régularités statistiques dans les structures, les phrases, les concepts. J’ai fait une animation pour bien comprendre ce qui se passe dans cette phase de “pre-training”, vous la trouverez ici : https://espritcritique.fbfb.eu/fonctionnementLLM/
A l’issue de cette étape, un modèle de langage est presque inutilisable. Il a ingurgité les données mais ne saurait pas les “communiquer”. Par exemple, il risque de prédire que le texte qui vient à la suite d’une question est une autre question car, dans ses données d’entrainement, les questions viennent souvent par listes. Il faut donc passer à la deuxième étape.

Lire la suite

Quand les IA génératives sont-elles utiles ? (P versus NP ?!)

Les IA génératives sont impressionnantes, mais on sent que leur utilité varie selon les contextes. Une première idée serait de ne les utiliser que dans les domaines dans lesquels on est expert. Mais il me semble que, plus précisément, les IA  génératives sont utiles dans les situations où vérifier est plus simple que produire.

Écrire un texte peut prendre des heures, mais repérer une incohérence ou une faute de style se fait souvent en quelques secondes. De même, générer un code informatique complexe est une tâche ardue, mais tester s’il fonctionne est souvent immédiat; Dans les situations où il y a une telle asymétrie, les IA peuvent proposer une solution rapide, et l’on tranche en un instant si c’est correct et pertinent ou non.

Cela signifierait que les IA ne sont pas utiles à tous pour les même taches. A titre personnel, je les utilise énormément pour coder (il faudra d’ailleurs que je vous en parle: la possibilité de créer en quelques heures des activités numériques pour les élèves me semble un changement potentiellement profond dans l’enseignement !). Pour cet article, créer une image d’illustration aurait pu être un véritable casse-tête, mais vérifier que l’image générée par chatGPT convient – d’après le prompt: “Génère une image qui montre un robot qui donne une copie à un humain qui semble sur le point de la vérifier” – est d’une simplicité enfantine (j’en profite pour créditer l’image!). Les IA génératives sont également très efficaces pour la génération d’idées, toujours suivant la même règle: c’est généralement facile d’évaluer la pertinence et l’intérêt des idées présentées, mais difficile de les avoir.

Peut être que le principe “utilisez des IA génératives dans les cas où vérifier est plus simple que produire” pourrait aider nos élèves à faire un meilleur usage des IA ? Ce n’est qu’une hypothèse, à discuter et tester !

Post-scriptum :
Nos lecteurs informaticiens trouveront probablement que cela rappelle le problème ouvert “P = NP ?”, et si vous trouvez cela intrigant, je vous recommande cette vidéo de sciences étonnantes:

Les jeunes, leurs smartphones, les médias: JAMES vous dit tout

Les usages des jeunes en matière de médias et de numérique font l’objet d’une attention soutenue, c’est un euphémisme. Pour qui s’intéresse à cette vaste et complexe question, l’étude JAMES (pour Jeunes Activités Médias – Enquête Suisse) constitue une source de choix. Tous les deux ans depuis 2010, celle-ci cartographie les habitudes des 12 à 19 ans dans les trois régions linguistiques de la Suisse. Commanditée par un grand opérateur de télécommunications, elle est réalisée par une équipe de la School of Applied Psychology de l’Université de Zurich sur la base d’un échantillon de 1183 personnes.

JAMES mesure non seulement les usages (utilisation du téléphone portable, réseaux sociaux, « consommation » d’information et de médias en général, jeux vidéos, messagerie, …), mais aussi l’accès aux services (abonnements, services de streaming, …) et aux équipements, en relation avec différentes variables comme l’âge, le genre, la région linguistique, le lieu d’habitation (ville/campagne), l’origine et le statut socioéconomique de la famille. Pour ce qui est du smartphone, par exemple, les personnes interrogées ont dû indiquer non seulement la durée d’utilisation, mais aussi les fonctions principales de cet appareil dans leurs pratiques quotidiennes, ou encore les applications les plus fréquemment utilisées. Des aspects moins directement liés aux médias et au numérique sont également traités, à travers une série de questions sur les loisirs en général, ce qui offre une intéressante mise en perspective. Les risques associés au numérique, notamment le (cyber)harcèlement, sont également abordés.

JAMES 2024 : l’IA arrive de manière rapide et massive

Les résultats de JAMES 2024 sont disponible depuis quelques semaines. La dernière étude ayant été menée en 2022, il s’agit de la première édition à aborder les outils d’intelligence artificielle. Les chiffres confirment que les jeunes Suisses et Suissesses ne font pas exception : comparativement à d’autres services en ligne, les outils d’intelligence artificielle ont été adoptés rapidement et massivement. 71% des jeunes ont expérimenté ChatGPT ou un autre outil d’IA et 34% des jeunes l’utilisent au moins une fois par semaine (p. 75). La question de la source d’information de prédilection constitue un enjeu majeur. Relevons que les 18-19 ans s’informent plus fréquemment en recourant à Wikipedia (34% au moins une fois par semaine, p. 41) qu’aux applications d’IA (27%). Dans ce domaine, la part du lion revient aux moteurs de recherche : 86% des jeunes (tous âges confondus) les utilisent tous les jours ou plusieurs fois par semaine dans le but de s’informer. Ce pourcentage s’élève à 57% pour les réseaux sociaux, 25% pour Wikipedia et à 22% pour les applications d’IA.

Lire la suite

Quatre mini-conférences en ligne proposées par Compilatio

En deux ans, les établissements académiques ont-ils (vraiment) réussi à s’adapter aux IA génératives ?

C’est sous ce titre que Compilatio [1] propose à ses utilisatrices et utilisateurs une série de quatre conférences en lignes.  Autant de rendez-vous au format compact (quarante-cinq minutes), entre le 25 et le 29 novembre, toujours à 15 heures.

Permettons-nous de regretter, au passage, le manque de parité face au micro (quatre intervenants pour une seule intervenante), mais relevons néanmoins l’originalité de certains titres. Deux d’entre eux piquent particulièrement la curiosité, entre hommage à Jacques Brel (“Mais non, Jef, t’es pas tout seul!”) et punchline inspirante de Bergson (“Le futur n’est pas ce qui va arriver, mais ce que nous en ferons”).

Selon vos centres d’intérêts, votre choix se portera peut-être sur une première intervention à propos des enjeux liés à l’écriture, ou sur une autre proposant plus généralement des pistes pour repenser l’école dans un monde marqué par les IA génératives. Un orateur issu de l’Université Jean Moulin Lyon 3 livrera un témoignage sur la mise en place d’une politique de prévention dans cette institution. La dernière intervention, elle, se penchera sur la question brûlante de l’évaluation des travaux d’élèves.

Un programme riche et varié, donc, que l’on ne peut que recommander!

Programme et inscription (gratuite mais obligatoire) sur le site de Compilatio. Places limitées.

[1] Compilatio est le nom de la société à l’origine de Magister+, le logiciel de détection du plagiat accessible pour l’ensemble des enseignantes et enseignants du Secondaire II genevois via le portail eduge.ch L’offre de formation en ligne du SEM comprend un cours sur l’utilisation de Magister+ et un autre sur la prévention du plagiat en général. N’hésitez pas à consulter également la page Faire face au plagiat dans un contexte numérique.

Illustration: une vision dystopique due à Dall-E

IA et fausses informations

On savait que l’arrivée de chatGPT venait avec un risque de voir pulluler de fausses informations, bien rédigées et plus difficiles à “débunker”. Articles, podcasts, vidéos, on a l’impression qu’aucun média n’est épargné ! Voici quelques exemples :

Face à la difficulté d’évaluer la qualité d’une information, il apparaît de plus en plus urgent de former nos élèves à l’esprit critique. Il est essentiel que tous prennent conscience des biais inhérents à la cognition humaine et soient informés des moyens permettant de dépasser ces travers. Ce n’est qu’en prenant connaissance de la manière dont se construit une connaissance de manière fiable et robuste que les jeunes pourront porter un regard sceptique sur les informations auxquelles ils sont exposés.
Les études qui mesurent le développement de l’esprit critique chez les étudiants sont claires : en parler dans son cours ne suffit pas. Des progrès n’ont lieu que si l’on propose des cours spécifiquement dédiés à l’esprit critique, comprenant des contenus théoriques mais aussi des exercices visant à transférer les apprentissages académiques à des situations réelles (source: https://www.oecd-ilibrary.org/education/does-higher-education-teach-students-to-think-critically_cc9fa6aa-en ).

 

Image générée par DALL-E le 5 novembre 2024

République et canton de Genève | DIP connexion