Hugues Le Gendre

(note n°8 de la série soph.ia)

IA 2027

Effets de l'amélioration exponentielle de l'IA et enjeux stratégiques

Je trouve extrêmement difficile d’imaginer la trajectoire de l’IA dans les prochaines années.

Lorsque je regarde deux ans et demi en arrière, depuis le lancement de ChatGPT 3.5, au grand public, je me dis que les progrès sont exponentiels. Et lorsque je regarde les six derniers mois, je trouve la performance des nouveaux modèles assez incrémentale. C’est vraiment un sujet VUCA1 !

Alors, lorsque qu’un groupe de chercheurs plutôt cappés sur le sujet se prête à l’exercice de prédire l’IA jusqu’en 2027, je prends le temps de lire l’article2, même s’il est un peu long.

Personne ne possède de boule de cristal, mais il est intéressant de voir les différentes pistes qui sont explorées et d’en extraire quelques questions ou hypothèses clés.

Celles-ci, notamment, me semblent intéressantes :

La première et la dernière question évoquent la découverte d’un nouveau modèle qu’il n’est pas rentable ou utile de mettre entre les mains du grand public, mais qui sert à augmenter les capacités de R&D des chercheurs de l’organisation, avant de les remplacer.

La fin du scénario est double, en fonction notamment de la mise sous tutelle par l’état de « OpenBrain », le labo IA fictif qui est décrit.

La première hypothèse, sur laquelle repose l’explosion exponentielle des performances des IA, est fondamentale. Et incidemment, je découvre que Google vient d’annoncer AlphaEvolve4, un nouveau modèle IA qui est conçu pour découvrir5 de nouveaux algorithmes mathématiques et informatiques. Hors ceux-ci sont au cœur du fonctionnement des IA...

Pour l’auteur de science-fiction William Gibson6, « le futur est déjà là, il n’est juste pas encore bien distribué. » Lire ce genre d’article me permet de m’y immerger et je le recommande à tous les décideurs, ainsi qu’aux curieux.

Notes & références

  1. À relire : L’IA, on y va ou pas ?

  2. D. Kokotajlo, S. Alexander, T. Larsen, E. Lifland et R. Dean, « AI 2027 », 2025. Disponible sur un site dédié (en anglais).

  3. L’alignement est une étape importante de l’entraînement des IA qui consiste à essayer de lui faire suivre des règles de comportement que les humains jugent acceptable.

  4. A. Novikov, N. Vu, M. Eisenberger, E. Dupont, P.-S. Huang, A. Zsolt Wagner, S. Shirobokov, B. Kozlovskii, F. J. R. Ruiz, A. Mehrabian, M. P. Kumar, A. See, S. Chaudhuri, G. Holland, A. Davies, S. Nowozin, P. Kohli et M. Balog, « AlphaEvolve: A coding agent for scientific and algorithmic discovery », 2025. PDF.

  5. Il vient de battre un précédent record datant de 1969 pour la multiplication de matrices 4x4 de nombres complexes.

  6. À relire : Futur.

Réagir & partager

En grec, sophia signifie « sagesse pratique », « discernement » et « compétence ».
Cela me semble tout à fait approprié pour désigner une approche de l'intelligence artificielle qui ne perd pas de vue le bien commun et la sagesse pratique. Elle fait le contrepoids à l'approche dominante techno-enthousiaste, souvent dépourvue de recul critique et qui multiplie régulièrement les démonstrations à valeur ajoutée faible et impacts systémiques négatifs.
Car si l'IA va transformer notre monde, il me semble utile de monter collectivement en compétences sur ce que cela implique afin d'orienter au mieux la direction que prend notre société.

Je m'appelle Hugues Le Gendre et j’accompagne des décideurs et leurs organisations sur un chemin d’innovation et de transformation positives. Et ça me transforme.