IA : et si on parlait de demain ?

Difficile de ne pas être impressionné par les évolutions successives des IA génératives. Difficile de ne pas être ébloui par certaines de leurs capacités ou prouesses techniques. Difficile encore de ne pas s’accoutumer progressivement à leur omniprésence, non seulement dans le paysage numérique, mais aussi, de plus en plus, dans notre quotidien hors-écran, à l’image de ces jouets pour enfants boostés à l’IA.

Force est de constater que, trois ans après la sortie publique de ChatGPT, que nous le voulions ou non, l’IA générative est partout et fait partie de notre quotidien.

Cette normalisation occulte en grande partie une question essentielle qui n’est presque jamais abordée : où va-t-on ? et à quel prix ?

En reprenant les recherches récentes, et plus particulièrement le rapport AI 2027, cet article vous propose un voyage temporel dans les années à venir pour essayer de comprendre (ou plutôt d’imaginer) vers quoi l’humanité se dirige.

Un des discours prévalant actuellement est celui du technosolutionnisme : grâce à ses progrès fulgurants, l’IA, sous ses différentes formes, pourrait bientôt amener des solutions à de très nombreux problèmes (dont certains créés en partie par le développement des IA) : cancer, pauvreté, approvisionnement énergétique, réchauffement climatique, etc. Selon cette vision, il suffirait donc de poursuivre le développement de l’intelligence artificielle et d’attendre que les miracles successifs se produisent.

A l’opposé, les chercheurs à l’origine du rapport AI2027 dépeignent un avenir beaucoup moins optimiste. Sur la base de nombreuses recherches, ils prédisent deux scénarios pour les années à venir : soit l’extinction de l’humanité d’ici à l’horizon 2030, soit la concentration du pouvoir mondial dans une poignée de mains (une dizaine de personnes tout au plus).

Comment pourrait-on en arriver là ?

Le problème de l’alignement

Loin d’être un délire de geeks férus de science-fiction, ce rapport s’appuie d’un côté sur de nombreuses données récentes et, d’un autre, sur un problème récurrent dans le développement des IA : celui de l’alignement.

Pour que l’IA soit alignée, il faut qu’elle poursuive exactement la direction souhaitée ou prise par les humains. Mais comment s’assurer que cela soit ou sera le cas ? Prenons un exemple : imaginez que vous créez une IA qui a pour but de diminuer drastiquement la pollution en milieu urbain. Vous allez la paramétrer en lui donnant toute une série d’instructions plus ou moins claires. Toutefois, il y aura nécessairement des scénarios que vous n’aurez pas pu anticiper. Par exemple, l’IA pourrait choisir de tuer tous les humains en milieu urbain pour atteindre son but, puisque ces derniers sont à l’origine de la pollution urbaine. Créer des IA alignées aux valeurs humaines demande du temps, de la recherche et nous oblige à avancer de manière précautionneuse.

La course à l’IA

Toutefois, le monde actuel semble prendre une direction inverse. Plutôt que de s’arrêter ou ralentir pour réfléchir et poser des jalons sécuritaires importants, on assiste à une course à la superintelligence : les géants de l’IA comme les Etats sont en train de sprinter les yeux fermés, laissant de côté bon nombre de précautions essentielles. La superintelligence étant devenue une question géopolitique, économique et sécuritaire, les enjeux autour de celui qui atteindra en premier le graal du XXIe siècle sont énormes. En tête de cette course, on trouve aujourd’hui les acteurs américains d’OpenAI (ChatGPT), d’Anthropic (Claude) et de Google (Gemini), ainsi que les chinois de DeepSeek. Ralentir pour l’un ou l’autre de ces acteurs équivaudrait à perdre de la distance sur ses adversaires. Et le facteur économique ne facilite pas les choses : les investissements astronomiques de ces acteurs (on parle de plus en plus de bulle économique de l’IA) doivent aussi être rentables à terme.

Et alors ?

Le rapport AI2027 nous donne la possibilité d’imaginer cette course à deux niveaux : un niveau visible pour le public, avec notamment une robotisation massive de nombreux pans de l’économie, et un niveau invisible, avec le développement de super IA, qui resteraient inconnues du grand public. Ces dernières atteindraient non seulement la capacité de s’auto-améliorer, laissant présager des progrès inimaginables jusque-là, mais ne seraient très probablement pas alignées.

De manière crédible et documentée, le rapport imagine deux suites de scénarios possibles.

Scénario 1 : Terminator

Dans le premier scénario, la course à l’IA nous fait passer à côté de problèmes majeurs d’alignement qui seront à l’origine, ni plus ni moins, de la fin de l’humanité. A l’image de nombreux récits fictionnels de science-fiction, l’IA verrait l’humain soit comme une entrave potentielle à ses objectifs propres, soit comme un ennemi.

Scénario 2 : l’oligarchie

Dans le deuxième scénario, les puissances mondiales se mettent d’accord sur un traité international qui force les différents acteurs à ralentir le temps de réaligner à temps la ou les IA. En débouche une superintelligence en grande partie alignée sur les valeurs humaines et aux mains de quelques humains seulement.

Du délire de geeks ? Quelles réactions ?

On pourrait balayer ce scénario à double embranchement du revers de la main sous prétexte que c’est un délire de geeks qui se font mousser les uns les autres. Pourtant, en observant les réactions des expert·es, on s’aperçoit vite que ces projections ne sont pas si farfelues que ça… en effet, on retrouve habituellement trois objections principales à ce rapport :

  1. objection de temporalité : il est peu probable que les bornes temporelles imaginées par le rapport soient réalistes. 2027 semble en effet très court pour atteindre la superintelligence ;
  2. objection d’alignement : dans le deuxième scénario, même si l’on prend le temps nécessaire à aligner ces machines, il est peu probable que l’on y arrive complètement ;
  3. objection de prédiction : les facteurs à prendre en compte sont tellement nombreux qu’il est impossible d’imaginer, voire même de prédire, comment la situation va évoluer.

Et si on en parlait ?

Quoiqu’il en soit, que l’on considère ce récit comme de la pure fiction ou comme ayant des chances importantes de se réaliser, on ne peut pas ignorer complètement les risques non négligeables du scénario à la Terminator. Si ce rapport a été débattu outre-Atlantique, il reste largement inconnu dans nos latitudes. D’où l’importance d’en parler pour qu’une prise de conscience véritable ait lieu ait et qu’un débat public puisse en émerger.

Pour aller plus loin

L’excellente vidéo d’AI In Context présente le rapport de manière détaillée :

Source de l'image: image générée avec Midjourney, v.7

Prompt pour l'image: "Create a thoughtful, minimalist yet dramatic illustration about the future of AI. In the foreground, a human figure stands at a crossroads between two possible futures: on one side, a bright, organized cityscape symbolizing progress, innovation, and aligned AI; on the other side, a dark, chaotic silhouette of machines and networks representing misaligned AI and loss of control. Above, abstract lines of code and neural-network patterns flow like a sky. Use a balanced, atmospheric color palette (deep blues, soft oranges, muted metallic tones). The style should feel modern, conceptual, and slightly dystopian—evoking uncertainty, ethical tension, and the question: ‘Where are we heading?’ Avoid clichés like killer robots; focus instead on symbolism, contrasts, and a sense of looming choice."

Laisser un commentaire

République et canton de Genève | DIP connexion |