ChatGPT repose sur un modèle de langage entraîné à minimiser l’erreur de prédiction du mot suivant étant donné un début de phrase.
Pour faire (très) simple: lors de la phase d’entraînement, on a donné des textes tronqués à GPT qui devait “deviner” le mot suivant (précisément, le “token” suivant). Selon sa réponse, on a ajusté les paramètres pour le “corriger” et améliorer la prédiction. Une fois la phase d’entraînement terminée, on donne un texte nouveau à chatGPT qui, bien paramétré, prédit une suite souhaitable, mot à mot.
ChatGPT génère donc des phrases plausibles, cohérentes syntaxiquement et généralement pertinentes. Mais… il n’est pas conçu pour ressortir des connaissances.
Vous connaissez probablement les “deepfake”: ces images, sons ou vidéos générés par des intelligences artificielles et hyperréalistes. Elles sont “deep” parce qu’elles utilisent du deep-learning et “fake” parce qu’elles sont fausses. C’est une arme redoutable de la désinformation!
Dans une récente chronique sur France Inter, Pierre Haski évoquait des enjeux politiques liés aux données personnelles obtenues et stockées par des services en ligne.
C’est l’occasion de recommander, plus généralement, les chroniques “géopolitique” de Pierre Haski , président de l’association reporters sans frontières.
Et pour ne pas les rater, si vous les ajoutiez à votre application de podcasts?
Imaginez: vos élèves se rendent sur une page (par exemple depuis un QR Code) qui leur demande un code pour accéder à la ressource que vous avez mise à disposition pour eux. Il leur faut résoudre des exercices pour trouver le code, ce qui peut donner une dimension ludique (et motivante) à ce travail.
Mon correcteur orthographique n’accepte pas le mot “cybercondrie”. Ce néologisme a pourtant droit à sa page Wikipedia qui donne la définition: “La cybercondrie est un terme décrivant l’habitude de certains individus souffrant d’hypocondrie d’utiliser l’Internet pour rechercher de manière parfois compulsive de l’information sur la santé, les soins de santé, la médication ou les traitements, que ce soit pour eux-mêmes ou pour d’autres individus. ”
La cybercondrie était le thème du dernier épisode du podcast Choses à savoir – Santé dont d’autres épisodes vous apprendront : pourquoi ne pas prendre de douche froide quand il fait chaud, pourquoi regarder une éclipse à l’œil nu est dangereux, etc.
C’est un sympathique podcast d’épisodes de 2 minutes qui vous donneront l’occasion de briller en société… ou dans des articles de blog?
Je vous propose aujourd’hui de découvrir un outil tout à fait charmant basé sur de l’intelligence artificielle! Il est capable de donner du mouvement à des dessins de personnages. Après une analyse de l’image (de l’œuvre d’art!), le moteur reconnaît les bras, les jambes, la tête:
Le programme utilise ces informations pour animer le personnage.
Le site propose ensuite sauvegarder les animations sous forme d’un petit film.
Vous pouvez tester le service gratuitement sur le site Animated Drawings. Enseignant.e en primaire? Enseignant.e en arts plastiques? Curieuses et curieux? N’hésitez pas à essayer, c’est très chouette!
Les formateurs du SEM utilisent volontiers des outils numériques en classe (voir par exemple cette page de témoignages où l’on décrit quelques unes de nos utilisations préférées).
Dans cet article, j’aimerais pour une fois promouvoir du matériel… non technologique! J’ai équipé cette année mes élèves d’ardoises qu’iels* utilisent pour répondre à des questions que je pose en phase de classe entière.
Vous voulez retourner, verticalement ou horizontalement, l’image de votre webcam?
Vous voulez prendre un “screenshot”, c’est-à-dire une photo ponctuelle, de ce que vous filmez?
Ou simplement, vous voulez enregistrer ce que filme votre webcam sous la forme d’un fichier vidéo?
Mélodie Maire a développé une page qui regroupe plusieurs outils très pratiques. Cette page pourrait bien devenir le meilleur compagnon des caméras HUE qui sont dans vos salles. Ça se passe à cette adresse: https://edu.ge.ch/qr/webcam
Timnit Gebru et Margarett Mitchell chercheuses sur l’éthique des IAs pour google ont été renvoyées respectivement en décembre 2020 et février 2021. Les raisons des licenciements ne sont pas tout à fait certaines mais ils font suite à un article sur l’éthique des IA de google sur le langage et qui met en garde sur les dangers qui peuvent être liés à une utilisation de ces IAs, pas encore au point.
Malheureusement, cette information n’a pas eu beaucoup de retentissement médiatique. Je vous propose de corriger le tir en écoutant Timnit Gebru dans cette conférence TED.
Elle y présente des utilisations controversées des IAs, par exemple sur la reconnaissance de visages, et pose deux questions:
– est-il souhaitable d’avoir une base de données des visages? (en 2018, au moment de cette vidéo, il semblerait que le visage d’1 américain sur 2 soit dans une base de visages).
– les IAs sont-elles assez robustes pour faire de la surveillance? Les biais, vous le verrez (je ne veux pas tout divulgâcher!) sont multiples et aux conséquences problématiques.
Les IAs propagent et amplifient des bais sociaux indésirables. D’après Timnit Gebru, les solutions sont techniques mais devront aussi passer par des audits et des régulations. Elle fait l’analogie avec l’industrie des automobiles et les réglementations qui ont été mises en place très tardivement pour inclure les femmes dans les crash-tests.
L’idée n’est pas de diaboliser les IAs mais:
1) D’en avoir une utilisation raisonnable, à la mesure de ce qu’elles sont capables de faire.
2) De choisir une orientation de la recherche éthique et sécurisée (quitte à ne pas maximiser les profits 😉 )