IA 2027
Effets de l'amélioration exponentielle de l'IA et enjeux stratégiques
Je trouve extrêmement difficile d’imaginer la trajectoire de l’IA dans les prochaines années.
Lorsque je regarde deux ans et demi en arrière, depuis le lancement de ChatGPT 3.5, au grand public, je me dis que les progrès sont exponentiels. Et lorsque je regarde les six derniers mois, je trouve la performance des nouveaux modèles assez incrémentale. C’est vraiment un sujet VUCA1 !
Alors, lorsque qu’un groupe de chercheurs plutôt cappés sur le sujet se prête à l’exercice de prédire l’IA jusqu’en 2027, je prends le temps de lire l’article2, même s’il est un peu long.
Personne ne possède de boule de cristal, mais il est intéressant de voir les différentes pistes qui sont explorées et d’en extraire quelques questions ou hypothèses clés.
Celles-ci, notamment, me semblent intéressantes :
- Et si une partie importante du temps de calcul des IA était dédiée à faire progresser la recherche appliquée afin qu’elle s’améliore elle-même de façon automatisée ?
- Et si les agents IA superintelligents commencent à exécuter des tâches que les humains ne comprennent pas ?
- Et si l’alignement3 apparent des IA avec les objectifs des humains disparaît ?
- Et si le désir d’un labo IA de gagner la course se traduit par une réduction des procédures de sécurité ?
- Et si la course à l’intelligence des IA devenait une nouvelle course à l’armement géopolitique (entre les États-Unis et la Chine cette fois) ?
- Et si le grand public restait inconscient des meilleurs progrès des IA, réservés à un usage interne aux labos ou pour l’armée ?
La première et la dernière question évoquent la découverte d’un nouveau modèle qu’il n’est pas rentable ou utile de mettre entre les mains du grand public, mais qui sert à augmenter les capacités de R&D des chercheurs de l’organisation, avant de les remplacer.
La fin du scénario est double, en fonction notamment de la mise sous tutelle par l’état de « OpenBrain », le labo IA fictif qui est décrit.
La première hypothèse, sur laquelle repose l’explosion exponentielle des performances des IA, est fondamentale. Et incidemment, je découvre que Google vient d’annoncer AlphaEvolve4, un nouveau modèle IA qui est conçu pour découvrir5 de nouveaux algorithmes mathématiques et informatiques. Hors ceux-ci sont au cœur du fonctionnement des IA...
Pour l’auteur de science-fiction William Gibson6, « le futur est déjà là, il n’est juste pas encore bien distribué. » Lire ce genre d’article me permet de m’y immerger et je le recommande à tous les décideurs, ainsi qu’aux curieux.
Notes & références
-
À relire : L’IA, on y va ou pas ? ↩
-
D. Kokotajlo, S. Alexander, T. Larsen, E. Lifland et R. Dean, « AI 2027 », 2025. Disponible sur un site dédié (en anglais). ↩
-
L’alignement est une étape importante de l’entraînement des IA qui consiste à essayer de lui faire suivre des règles de comportement que les humains jugent acceptable. ↩
-
A. Novikov, N. Vu, M. Eisenberger, E. Dupont, P.-S. Huang, A. Zsolt Wagner, S. Shirobokov, B. Kozlovskii, F. J. R. Ruiz, A. Mehrabian, M. P. Kumar, A. See, S. Chaudhuri, G. Holland, A. Davies, S. Nowozin, P. Kohli et M. Balog, « AlphaEvolve: A coding agent for scientific and algorithmic discovery », 2025. PDF. ↩
-
Il vient de battre un précédent record datant de 1969 pour la multiplication de matrices 4x4 de nombres complexes. ↩
Réagir & partager
- Participe à la conversation ou à son écho sur LinkedIn !
- Temps de lecture : 3 minutes
- Publié le
- Pour recevoir les prochaines entrées :
- Je partage librement mes retours d'expérience avec les décideurs qui me le demandent, pour grandir ensemble sur ces sujets. Contacte-moi si tu es intéressé·e.