Confier ses états d’âme à des agents conversationnels?

Dans le célèbre roman jeunesse Harry Potter et la Chambre des secrets, la petite Ginny Weasley confie longuement ses états d’âme à un journal intime enchanté ayant appartenu au mystérieux Tom Jedusor, et manque d’y laisser la vie. Son père, apprenant ce qui s’est passé, s’écrie : « Qu'est-ce que je t'ai toujours dit ? Ne fais jamais confiance à quelque chose qui peut penser par lui-même si tu ne peux pas voir où il garde son cerveau? » Difficile de ne pas faire le lien avec un événement récent dans le monde « moldu ».

Les IA sont nos amies

En effet, on a lu fin novembre dans la presse qu’un adorable ourson en peluche du nom de Kumma, destiné à un très jeune public, avait dû être retiré temporairement du marché. Pourquoi ? Lors de tests réalisés par une association de défense des consommateurs américaine, ce jouet boosté à l’IA s’est avéré très bavard sur différentes pratiques sexuelles et prompt à expliquer à de jeunes enfants comment… utiliser des allumettes ! Le rapport publié par cette association dénonce également le fait que les jouets testés étaient problématiques du point de vue des informations collectées et présentaient des caractéristiques propres à les rendre addictifs. Tout un programme !

Bien sûr, même si ces problèmes spécifiques venaient à être réglés, on voit bien que ces jouets posent des questions plus profondes: qu’est-ce que cela signifie, pour un enfant, que de développer ses compétences sociales, linguistiques, humaines au contact d’une machine ? Et avec quel impact pour notre société toute entière ?

Des enfants... aux adultes

Une étude parue en juillet 2025 suggérait que plus de la moitié des adolescent·es américain·es (52%) utilisaient régulièrement des « compagnons IA », c’est-à-dire qu’ils interagissaient avec ces outils au moins plusieurs fois par mois. 21% y avaient recours plusieurs fois par semaine ; 13% les utilisaient quotidiennement. Et ces chiffres doivent être replacés dans un contexte plus général, comme on peut le lire dans un article passionnant du Temps:

OpenAI, l’éditeur de ChatGPT, a publié en septembre 2025 une étude révélant que son système est principalement utilisé à des fins personnelles (70%) plutôt que professionnelles (30%). Que cela soit pour demander des conseils, obtenir des guides pratiques, reformuler des messages ou rechercher des informations, ChatGPT s’imposerait peu à peu comme un interlocuteur de choix dans la vie quotidienne de ses centaines de millions d’utilisateurs – 800 millions par semaine selon OpenAI.

En d’autres termes, on peut considérer qu’une partie importante des jeunes et des adultes développent aujourd’hui des relations qui relèvent potentiellement de l’intime avec des chatbots qui savent très bien imiter l’empathie sans l’éprouver et parler des expériences humaines sans les vivre. La sociologue américaine Sherry Turkl, qui étudie depuis plusieurs décennies les interactions entre l'être humain et différents artefacts technologiques (des tamagotchis aux LLM), explique très bien ce phénomène dans les 20 premières minutes de la vidéo ci-dessous.

Who do we become when we talk to machines?

Recherche d'engagement et "flagornerie"

Dans la vidéo, celle-ci déplore notamment l’absence de « frictions » dans les relations avec des chatbots. En effet, ceux-ci sont conçus non seulement pour favoriser « l’engagement », mais aussi pour abonder, à des degrés variables selon les modèles, dans le sens des utilisatrices et utilisateurs. Cette caractéristique, que les experts appellent « flagornerie » (sycophancy en anglais), peut les rendre particulièrement problématiques pour des personnes vulnérables. Certains parlent déjà, surtout outre-Atlantique, d'AI psychosis, soit des psychoses induites par l'IA.

Quoi qu'il en soit, si la tendance actuelle se confirme, ces chatbots pourraient avoir un fort impact sur notre façon de concevoir les rapports sociaux.

Pour aller plus loin

 

Crédit photo: Trouble in Toyland 2025.

Laisser un commentaire

République et canton de Genève | DIP connexion