Entretien du SEM : comment dominer le jeu vidéo?

Le mercredi 28 mai,  nous avons accueilli Lucien Ding, responsable genevois de l’Académie Noétic, lors d’un «entretien du SEM»

Noétic? Cette association propose des cours de jeux vidéo pour les jeunes. Bien au-delà d’un travail de «virtuosité» pour les joueurs, l’académie a pour vocation d’accompagner les adolescents dans une pratique raisonnée des jeux vidéo. A chaque cours, des thèmes tels que les achats dans les jeux vidéo, l’économie de l’attention, les conflits autour des écrans avec les parents, etc. sont abordés.

Lucien Ding, ancien joueur de haut niveau et doté d’une expérience de travailleur social, est un coach qui plaît aux jeunes et rassure les parents.

A ce propos, il dit avoir constaté, au fil des années, un fossé se créer entre l’usage du numérique par les jeunes et la compréhension de ce monde par leur entourage. C’est-à-dire? «Tant les jeunes que leurs parents maîtrisent le numérique, mais chaque groupe maîtrise ses propres codes. Et les jeunes comprennent mieux les codes des parents que l’inverse. C’est d’ailleurs logique, puisque lorsque la culture des jeunes est rattrapée par celles de leurs aînés, elle perd de son charme.»

Ancien membre de la division eSport de Servette, Lucien Ding a en outre travaillé quelques années dans un établissement scolaire pour jeunes en difficulté. A la fois coach et éducateur, il a le profil idéal pour assumer la responsabilité de la section genevoise de Noétic.

L’Académie compte actuellement une centaine de membres répartis entre les académies Fribourg, Renens et Genève, cette dernière étant fréquentée par une trentaine de jeunes. Pour quelle tranche d’âge? «Il n’y a pas de règle absolue. Actuellement, à Genève, cela va de 8 à 17 ans, avec une moyenne se situant entre 12 et 14 ans. Mais, Fribourg, un des «jeunes» a 43 ans.»

 

Ecoutez l’intégralité de l’entretien :

 

NB : Si vous souhaitez que le suivi de ce podcast apparaisse dans votre cursus de formation SIRH, envoyez un mail à sem.formation@edu.ge.ch

 

 

Crédit image : shutterstock

Remonter le temps avec la Wayback Machine

Depuis bien des siècles, les bibliothèques permettent à un large public d’accéder à une multitude de ressources. Mais elles ont aussi un autre but : celui de préserver la diversité culturelle. On parle alors de « conservation du patrimoine ». Or, dans les dernières décennies, une partie croissante de notre vie se déroule en ligne. On peut dès lors se demander comment archiver un artefact aussi complexe qu’Internet.

Lire la suite

Un entraînement sans humain

Il y a quelques semaines, je vous parlais de l’analogie d’Andrej Karpathy à propos de l’entraînement des IA qui ressemble l’apprentissage des élèves : lire son cours, faire des exercices corrigés, puis des exercices avec la solution non détaillée.
Une équipe de recherche de l’université de Tsinghua (Chine) a récemment présenté ce qu’elle a appelé le “zero human training”. Si on file la métaphore, les élèves laisseraient de côté profs et manuels scolaires pour travailler sur leurs propres exercices inventés. (Ce que font parfois… les meilleurs élèves ?)

Lire la suite

Performance actuelle des LLM : 1 heure

Le METR (Model Evaluation and Testing for Reliability), organisation dédiée à l’évaluation des modèles d’intelligence artificielle, vient de publier un article synthétisant des recherches vraiment intéressantes. L’objectif était de mesurer l’évolution des capacités des LLM (Large Language Model, les modèles de language qu’on retrouve par exemple dans chatGPT)

Lire la suite

Le paradoxe des gros modèles de langages

Il y a quelques semaines, Algorithmic Simplicity a publié une vidéo s’intéressant à un étrange paradoxe : plus un modèle est gros, moins il devrait être capable de généraliser, et ce n’est pourtant pas ce qu’on constate.

D’abord, pourquoi un modèle gros devrait-il être moins bon ? C’est peut être ça qui vous paraitra paradoxal. Eh bien, si un modèle possède beaucoup de paramètres, il peut “apprendre par cœur” ses données d’entraînement sans trouver de liens entre elles. C’est un peu comme si un élève avait un cerveau assez gros pour tout mémoriser, sans faire de liens entre ses connaissances. Un tel modèle serait excellent lors de l’entraînement mais incapable de généraliser quand on lui donne de nouvelles données. C’est ce qu’on appelle l’overfitting.

Lire la suite

Les IA qui apprennent un peu comme des élèves

Andrej Karpathy (1) a publié il y a quelques mois une longue vidéo (3 heures 30 !) sur le fonctionnement des modèles de langage tels que chatGPT (LLM : large language model). Au cours de cette vidéo, il utilise une analogie, que je trouve parlante, sur les différents types d’apprentissage de ces modèles : apprendre pour une IA, ce serait un peu comme apprendre pour un élève :

1) Lire le cours
C’est la première phase : le pré-entraînement. L’IA “lit” des tonnes de textes (livres, sites universitaires, encyclopédies, etc.). Elle apprend à reconnaître des structures, des phrases, des concepts. Comme un élève qui lit son manuel pour se familiariser avec les bases. A cette étape, elle ne fait qu’ “ingurgiter” l’information lue.
Bien sûr, analogie oblige, ce vocabulaire est très anthropomorphique et il serait plus correct de dire qu’à cette étape, on cherche un programme capable de prédire le mot suivant lorsqu’on lui donne un début de texte, ce qui nécessite d’encoder des régularités statistiques dans les structures, les phrases, les concepts. J’ai fait une animation pour bien comprendre ce qui se passe dans cette phase de “pre-training”, vous la trouverez ici : https://espritcritique.fbfb.eu/fonctionnementLLM/
A l’issue de cette étape, un modèle de langage est presque inutilisable. Il a ingurgité les données mais ne saurait pas les “communiquer”. Par exemple, il risque de prédire que le texte qui vient à la suite d’une question est une autre question car, dans ses données d’entrainement, les questions viennent souvent par listes. Il faut donc passer à la deuxième étape.

Lire la suite

Les entretiens du SEM : esprit critique et numérique avec Elena Pasquinelli

Elena Pasquinelli a donné la conférence inaugurale du colloque PraTIC : “Esprit critique et numérique, quand Turing rencontre Piaget” le mercredi 2 avril 2025. La philosophe et chercheuse en sciences cognitives a analysé les atouts et limites de notre esprit critique naturel, ainsi que les stratégies éducatives pour mieux l’armer face aux défis contemporains. Nous avons profité de sa présence exceptionnelle à Genève pour converser avec elle avant la conférence. Nous avons enregistré cet “entretien du SEM” un peu particulier car sans public ! Elena Pasquinelli nous propose son éclairage sur l’enseignement de l’esprit critique et sur les liens avec le numérique dans une vision, vous l’entendrez, résolument optimiste !

Bonne écoute.

 

Pour aller plus loin :

université populaire “esprit critique”, cycle de conférences

courte présentation de la guillotine de Hume

 

Crédit image : https://fondation-lamap.org/elena-pasquinelli

Quand les IA génératives sont-elles utiles ? (P versus NP ?!)

Les IA génératives sont impressionnantes, mais on sent que leur utilité varie selon les contextes. Une première idée serait de ne les utiliser que dans les domaines dans lesquels on est expert. Mais il me semble que, plus précisément, les IA  génératives sont utiles dans les situations où vérifier est plus simple que produire.

Écrire un texte peut prendre des heures, mais repérer une incohérence ou une faute de style se fait souvent en quelques secondes. De même, générer un code informatique complexe est une tâche ardue, mais tester s’il fonctionne est souvent immédiat; Dans les situations où il y a une telle asymétrie, les IA peuvent proposer une solution rapide, et l’on tranche en un instant si c’est correct et pertinent ou non.

Cela signifierait que les IA ne sont pas utiles à tous pour les même taches. A titre personnel, je les utilise énormément pour coder (il faudra d’ailleurs que je vous en parle: la possibilité de créer en quelques heures des activités numériques pour les élèves me semble un changement potentiellement profond dans l’enseignement !). Pour cet article, créer une image d’illustration aurait pu être un véritable casse-tête, mais vérifier que l’image générée par chatGPT convient – d’après le prompt: “Génère une image qui montre un robot qui donne une copie à un humain qui semble sur le point de la vérifier” – est d’une simplicité enfantine (j’en profite pour créditer l’image!). Les IA génératives sont également très efficaces pour la génération d’idées, toujours suivant la même règle: c’est généralement facile d’évaluer la pertinence et l’intérêt des idées présentées, mais difficile de les avoir.

Peut être que le principe “utilisez des IA génératives dans les cas où vérifier est plus simple que produire” pourrait aider nos élèves à faire un meilleur usage des IA ? Ce n’est qu’une hypothèse, à discuter et tester !

Post-scriptum :
Nos lecteurs informaticiens trouveront probablement que cela rappelle le problème ouvert “P = NP ?”, et si vous trouvez cela intrigant, je vous recommande cette vidéo de sciences étonnantes:

Dopamine, pour mieux comprendre les réseaux sociaux

Vous vous sentez parfois un peu perdu·e devant tous ces réseaux sociaux? Vous souhaitez pouvoir comprendre certains des mécanismes qui sont à l’œuvre derrière quelques-unes des applications que l'on utilise au quotidien? Vous aimeriez pouvoir sensibiliser vos élèves ou même vos enfants face aux stratégies agressives mises en place pour nous rendre accros? Ou tout simplement comprendre pourquoi c'est si difficile de lâcher son téléphone pour lire un chapitre de ce livre que vous aimeriez tellement lire mais que vous n'arrivez jamais à lire?

Au travers de courtes vidéos ludiques et dynamiques, Dopamine, la série d'Arte, propose une exploration des réseaux sociaux les plus utilisés chez les jeunes. Instagram, Tiki Tok, Snapchat ou encore YouTube... chaque application a développé un trésor d'ingéniosité pour nous rendre captives et dépendants, en développant différents mécanismes qui stimulent la production de dopamine, ce neurotransmetteur à l'origine de nos actions.

Allez, encore une petite vidéo... allez j'envoie vite ce message... allez, encore un niveau à Candy Crush...

Pourquoi est-ce si difficile de lâcher son téléphone? Une partie de la réponse dans les vidéos d'Arte, à voir et revoir!

Et si ces quelques vidéos vous donnent envie d'aller un peu plus loin, nous ne pouvons que vous recommander l'excellent livre de Max Fisher, Chaos Machine, qui est le fruit d'années d'investigations sur les mécanismes et les effets des réseaux sociaux... c'est tout simplement hallucinant!

[Cet article a été écrit sans recourir à des IA génératives]

Lire la suite

République et canton de Genève | DIP connexion