ChatGPT: plausible ≠ Correct

ChatGPT repose sur un modèle de langage entraîné à minimiser l’erreur de prédiction du mot suivant étant donné un début de phrase.

Pour faire (très) simple: lors de la phase d’entraînement, on a donné des textes tronqués à GPT qui devait “deviner” le mot suivant (précisément, le “token” suivant). Selon sa réponse, on a ajusté les paramètres pour le “corriger” et améliorer la prédiction. Une fois la phase d’entraînement terminée, on donne un texte nouveau à chatGPT qui, bien paramétré, prédit une suite souhaitable, mot à mot.

ChatGPT génère donc des phrases plausibles, cohérentes syntaxiquement et généralement pertinentes. Mais… il n’est pas conçu pour ressortir des connaissances.

Lire la suite

Deep Fake et politique

Vous connaissez probablement les “deepfake”: ces images, sons ou vidéos générés par des intelligences artificielles et hyperréalistes. Elles sont “deep” parce qu’elles utilisent du deep-learning et “fake” parce qu’elles sont fausses. C’est une arme redoutable de la désinformation!

Lire la suite

Protection des données et enjeux politiques

Dans une récente chronique sur France Inter, Pierre Haski évoquait des enjeux politiques liés aux données personnelles obtenues et stockées par des services en ligne.

L’épisode peut être écouté ici: https://www.radiofrance.fr/franceinter/podcasts/geopolitique/geopolitique-du-mercredi-06-juillet-2022-5536722

C’est l’occasion de recommander, plus généralement, les chroniques “géopolitique” de Pierre Haski , président de l’association reporters sans frontières.

Et pour ne pas les rater, si vous les ajoutiez à votre application de podcasts?

Lien vers le podcast: https://www.radiofrance.fr/franceinter/podcasts/geopolitique

Êtes-vous cybercondriaque ?

Mon correcteur orthographique n’accepte pas le mot “cybercondrie”. Ce néologisme a pourtant droit à sa page Wikipedia qui donne la définition: “La cybercondrie est un terme décrivant l’habitude de certains individus souffrant d’hypocondrie d’utiliser l’Internet pour rechercher de manière parfois compulsive de l’information sur la santé, les soins de santé, la médication ou les traitements, que ce soit pour eux-mêmes ou pour d’autres individus. ”

La cybercondrie était le thème du dernier épisode du podcast Choses à savoir – Santé dont d’autres épisodes vous apprendront : pourquoi ne pas prendre de douche froide quand il fait chaud, pourquoi regarder une éclipse à l’œil nu est dangereux, etc.

C’est un sympathique podcast d’épisodes de 2 minutes qui vous donneront l’occasion de briller en société… ou dans des articles de blog?

Lien vers le podcast: https://podcasts-francais.fr/podcast/choses-a-savoir-sante

Animer des dessins de personnages

Je vous propose aujourd’hui de découvrir un outil tout à fait charmant basé sur de l’intelligence artificielle! Il est capable de donner du mouvement à des dessins de personnages. Après une analyse de l’image (de l’œuvre d’art!), le moteur reconnaît les bras, les jambes, la tête:
 
Le programme utilise ces informations pour animer le personnage.
Le site propose ensuite sauvegarder les animations sous forme d’un petit film.
Vous pouvez tester le service gratuitement sur le site Animated Drawings.  Enseignant.e en primaire? Enseignant.e en arts plastiques? Curieuses et curieux? N’hésitez pas à essayer, c’est très chouette!

Des tablettes très low-tech

Les formateurs du SEM utilisent volontiers des outils numériques en classe (voir par exemple cette page de témoignages où l’on décrit quelques unes de nos utilisations préférées).
Dans cet article, j’aimerais pour une fois promouvoir du matériel… non technologique! J’ai équipé cette année mes élèves d’ardoises qu’iels* utilisent pour répondre à des questions que je pose en phase de classe entière.

Lire la suite

Le compagnon des webcams

Vous voulez retourner, verticalement ou horizontalement, l’image de votre webcam?

Vous voulez prendre un “screenshot”, c’est-à-dire une photo ponctuelle, de ce que vous filmez?

Ou simplement, vous voulez enregistrer ce que filme votre webcam sous la forme d’un fichier vidéo?

Mélodie Maire a développé une page qui regroupe plusieurs outils très pratiques. Cette page pourrait bien devenir le meilleur compagnon des caméras HUE qui sont dans vos salles. Ça se passe à cette adresse: https://edu.ge.ch/qr/webcam

Des cookies de différents goûts

Dans cet épisode de String Theory, Ackanir usurpe une identité (d’une personne consentante pour l’expérience!) en volant un cookie! Une occasion:

1) de rappeler qu’il est prudent de verrouiller son ordinateur ou son téléphone quand on le quitte!

2) de résumer ce que sont les “cookies” qu’on nous demande d’accepter lorsqu’on navigue sur Internet et le lien avec la protection des données.

Lire la suite

L’éthique de google (ne) fait (pas assez) l’actualité:

Timnit Gebru et Margarett Mitchell chercheuses sur l’éthique des IAs pour google ont été renvoyées respectivement en décembre 2020 et février 2021. Les raisons des licenciements ne sont pas tout à fait certaines mais ils font suite à un article sur l’éthique des IA de google sur le langage et qui met en garde sur les dangers qui peuvent être liés à une utilisation de ces IAs, pas encore au point.

Malheureusement, cette information n’a pas eu beaucoup de retentissement médiatique. Je vous propose de corriger le tir en écoutant Timnit Gebru dans cette conférence TED.

Elle y présente des utilisations controversées des IAs, par exemple sur la reconnaissance de visages, et pose deux questions:
– est-il souhaitable d’avoir une base de données des visages? (en 2018, au moment de cette vidéo, il semblerait que le visage d’1 américain sur 2 soit dans une base de visages).
– les IAs sont-elles assez robustes pour faire de la surveillance? Les biais, vous le verrez (je ne veux pas tout divulgâcher!) sont multiples et aux conséquences problématiques.

Les IAs propagent et amplifient des bais sociaux indésirables. D’après Timnit Gebru, les solutions sont techniques mais devront aussi passer par des audits et des régulations. Elle fait l’analogie avec l’industrie des automobiles et les réglementations qui ont été mises en place très tardivement pour inclure les femmes dans les crash-tests.

L’idée n’est pas de diaboliser les IAs mais:
1) D’en avoir une utilisation raisonnable, à la mesure de ce qu’elles sont capables de faire.
2) De choisir une orientation de la recherche éthique et sécurisée (quitte à ne pas maximiser les profits 😉 )

 

Pour aller plus loin:

 

Crédits image: Paper Boat Creative / Getty Images

République et canton de Genève | DIP connexion