ai-fundamentals
11 min read
View as Markdown

Quel avenir pour l'IA : un regard lucide sur 2025-2030

Au-delà du battage médiatique et des scénarios catastrophes : ce que les experts prévoient réellement pour l'IA sur les cinq prochaines années, ce qui reste vraiment incertain, et comment penser des prévisions qui bougent sans cesse.

Robert Soares

Demandez à six chercheurs en IA quand nous atteindrons une intelligence artificielle de niveau humain, et vous obtiendrez six réponses différentes. C’est exactement ce qui s’est passé lors d’une table ronde de novembre 2025 pour le Queen Elizabeth Prize for Engineering, où Jensen Huang, Yoshua Bengio, Geoffrey Hinton, Fei-Fei Li, Yann LeCun et Bill Dally ont tous donné des calendriers complètement différents à la même question.

Ce désaccord n’est pas un bug. C’est une fonctionnalité. Il nous dit quelque chose d’important sur le moment actuel : nous traversons une période où les personnes qui connaissent le mieux l’IA ne savent sincèrement pas ce qui vient ensuite.

La tendance fiable : les choses continuent de s’améliorer

Voici ce sur quoi presque tout le monde s’accorde. Les modèles vont continuer à progresser. La même trajectoire qui nous a fait passer de GPT-3 à GPT-4, de Claude 2 à Claude 3.5, va continuer à se prolonger, parce que les moteurs fondamentaux du progrès restent intacts.

Dario Amodei, PDG d’Anthropic, a décrit cette progression en termes concrets dans le podcast de Lex Fridman : “We’re starting to get to PhD level, and last year we were at undergraduate level, and the year before we were at the level of a high school student.”

Que cette progression continue au même rythme est incertain, mais la direction paraît assez claire pour qu’il soit imprudent de parier contre elle à court terme.

Concrètement, qu’est-ce que ça veut dire ? Des assistants de code plus capables. De meilleurs outils d’écriture. Des aides à la recherche plus intelligentes. Les choses que l’IA fait déjà raisonnablement bien vont nettement s’améliorer dans les prochaines années, probablement assez pour que les outils du début 2025 paraissent primitifs d’ici 2027.

Simon Willison, développeur logiciel qui documente en détail son expérience de construction avec les LLM, a écrit à propos de l’évolution de son flux de travail en 2025 : “Coding agents changed everything for me.” Il décrit la création de dizaines d’outils par simple instruction aux LLM, un travail asynchrone avec des agents IA, et même du développement depuis son téléphone avec suffisamment de confiance pour livrer des changements en production.

Ce n’est pas de la science-fiction. C’est un développeur en activité qui décrit sa pratique actuelle. Multipliez cela par des millions de travailleurs du savoir, et vous aurez une idée du basculement déjà en cours.

L’horizon multimodal

Texte, images, audio, vidéo. Les murs entre ces modalités s’effondrent plus vite que beaucoup ne l’avaient prévu.

L’analyse d’Epoch AI sur ce à quoi l’IA ressemblera en 2030 anticipe des avancées marquantes : implémenter des logiciels scientifiques complexes à partir de descriptions en langage naturel, aider les mathématiciens à formaliser des preuves, répondre à des questions ouvertes sur des protocoles de laboratoire. Ce ne sont pas des spéculations délirantes. Ce sont des extrapolations à partir des progrès actuels sur les tests de référence.

Mais l’extrapolation est délicate. Chaque courbe de capacités finit par buter sur des contraintes. Les données d’entraînement s’épuisent. Les coûts de calcul augmentent de façon exponentielle. Les rendements décroissants apparaissent. La question n’est pas de savoir si ces barrières existent, mais quand elles deviendront réellement bloquantes.

Agents : la prochaine frontière (probablement)

Le grand pari du moment, ce sont les agents IA. Pas seulement une IA qui répond à des questions, mais une IA qui agit, utilise des outils, travaille entre plusieurs systèmes et termine des tâches en plusieurs étapes avec une supervision humaine minimale.

C’est là que le battage médiatique devient épais. La réalité : les agents restent fragiles. Ils échouent de façons surprenantes. Ils exigent une orchestration soignée pour rester utiles. Une discussion Hacker News de 2024 a bien capturé ce scepticisme, avec l’utilisateur talldayo qui prédisait que “In 10 years, AI and LLMs will be a joke on The Simpsons in the same way they made fun of the Palm Pilot.”

C’est probablement trop pessimiste. Mais c’est un correctif utile face aux annonces haletantes sur les agents de tous les grands laboratoires. L’écart entre la démo et le déploiement reste large. Des agents qui fonctionnent sans accroc en conditions contrôlées peinent souvent face au désordre des flux de travail réels.

Malgré tout, même une amélioration progressive de la fiabilité des agents débloque une valeur importante. Si des agents peuvent gérer de façon fiable 70 % des tâches de routine au lieu de 30 %, c’est transformateur pour de nombreux flux de travail. La perfection n’est pas la barre à franchir. L’utilité l’est.

La question de l’IAG : là où les experts divergent vraiment

Quand l’IA devient-elle généralement intelligente ? Capable d’accomplir n’importe quelle tâche intellectuelle qu’un humain peut faire ? C’est ici que les désaccords entre experts deviennent les plus tranchés.

À une extrémité : Dario Amodei suggère que nous manquons de “truly convincing blockers, truly compelling reasons why this will not happen in the next few years.” Son extrapolation pointe 2026 ou 2027 comme des dates plausibles pour des systèmes d’IA qui égalent le niveau humain dans de nombreux domaines.

À l’autre extrémité : Yann LeCun, directeur scientifique IA de Meta, qualifie les prédictions actuelles sur l’AGI de “complete delusion.” Il soutient qu’il nous faut des machines “as smart as a cat” avant de s’inquiéter de superintelligence, et que nous en sommes très loin. Selon lui, les modèles de langage actuels montrent qu‘“you can manipulate language and not be smart.”

Ces deux personnes sont lauréats du prix Turing. Toutes deux travaillent chaque jour avec des systèmes d’IA de pointe. Toutes deux ont accès aux mêmes recherches. Elles les interprètent simplement de façon totalement différente.

Un commentateur de Hacker News, rwaksmunski, a fait une remarque sarcastique : “AGI is still a decade away, and always will be.” Le fil qui a suivi contestait justement cette idée, en notant que les chercheurs n’ajustent que maintenant leurs attentes vers des horizons plus proches à partir des progrès observés. La blague du “always ten years away” est peut-être en train de vieillir précisément parce que les calendriers se compressent.

Emploi : la réponse honnête, c’est qu’on ne sait pas

L’IA va-t-elle prendre votre emploi ? Les prévisions vont du catastrophique au bénin, souvent selon la personne qui les formule.

Goldman Sachs : “We remain skeptical that AI will lead to large employment reductions over the next decade.”

Dario Amodei : l’IA pourrait “wipe out half of all entry-level white-collar jobs” et faire grimper le chômage à 10-20 % dans un délai d’un à cinq ans.

Le Forum économique mondial : 92 millions d’emplois supprimés, 170 millions de nouveaux emplois créés, soit un solde positif net de 78 millions de postes d’ici 2030.

L’économiste du MIT Daron Acemoglu : l’IA ne sera prête à remplacer ou à fortement aider qu‘“around 5% of jobs over the next decade.”

Ce ne sont pas des prévisions qu’on peut moyenner. Elles représentent des modèles fondamentalement différents de la manière dont la technologie affecte l’emploi. Soit le remplacement se fait progressivement avec du temps pour s’adapter, soit il se produit brutalement avec une perturbation massive. Nous ne savons pas quel modèle s’appliquera à l’IA.

Jerome Powell, président de la Réserve fédérale, interrogé sur l’IA et l’emploi, a dit quelque chose d’inhabituellement franc : “This may be different.” C’est le président de la Fed qui reconnaît que nous sommes en territoire réellement inexploré.

La réponse honnête, c’est qu’on ne sait pas, et quiconque affirme avec certitude connaître l’impact sur l’emploi est trop confiant. Ce que nous savons : la préparation bat la prédiction. Les organisations et les individus qui comprennent les capacités de l’IA ont davantage d’options, quel que soit le scénario qui se déroule.

Régulation : la variable imprévisible

L’AI Act de l’UE est désormais en vigueur. La Chine a mis en place des réglementations sur l’IA. Les États-Unis restent relativement non interventionnistes. Cet assemblage hétérogène va façonner le développement de l’IA de manières que nous ne pouvons pas encore prévoir entièrement.

La régulation peut ralentir des capacités dangereuses. Elle peut aussi concentrer le développement de l’IA dans des juridictions aux règles plus légères. Elle peut protéger les travailleurs. Elle peut aussi renforcer les acteurs déjà dominants. Les effets seront de second et troisième ordre, d’une manière que personne ne peut cartographier avec assurance aujourd’hui.

Ce qui semble clair : l’environnement réglementaire de 2030 ne ressemblera en rien à celui d’aujourd’hui. La question est de savoir s’il permettra un développement bénéfique de l’IA tout en limitant les dommages, ou s’il n’arrivera efficacement ni à l’un ni à l’autre.

Comment réfléchir aux prédictions sur l’IA

Un cadre utile : séparer le court terme du long terme.

Court terme (2025-2027) : Les systèmes actuels vont s’améliorer. Assistants de code, outils d’écriture, aides à la recherche, générateurs d’images. Ces améliorations sont globalement prévisibles à partir des trajectoires actuelles. Planifiez en conséquence.

Moyen terme (2027-2030) : Les agents peuvent devenir assez fiables pour un travail autonome significatif. L’IA multimodale va probablement gérer nombre des goulets d’étranglement actuels. Les impacts économiques commenceront à apparaître dans les données d’emploi. Bien moins de certitudes ici.

Long terme (2030+) : Possibilités d’AGI, scénarios de superintelligence, restructuration économique transformative. Incertitude réelle. Quiconque prétend savoir ce qui se passe ici est en train de deviner.

Un commentateur de Hacker News, massung, a proposé une prédiction qui m’est restée : “My personal prediction is that the next massive leap in AI is going to be a paradigm shift away from how we train and simulate networks.”

C’est le genre de variable imprévisible difficile à intégrer. Les progrès actuels viennent de la montée en échelle d’approches connues. La prochaine percée pourrait venir de quelque chose de totalement différent. Ou ne jamais venir. Nous ne savons pas.

Ce à quoi il vaut vraiment la peine de se préparer

Avec toute cette incertitude, que vaut-il la peine de faire maintenant ?

Apprenez les outils. Quoi qu’il arrive avec les calendriers de l’AGI, les capacités actuelles de l’IA sont déjà utiles. Comprendre comment les utiliser efficacement apporte un bénéfice immédiat et vous positionne pour ce qui vient ensuite.

Développez votre capacité d’adaptation. Les prévisions spécifiques seront fausses. La direction générale d’une capacité croissante paraît fiable. Les organisations et les individus capables de s’adapter à des capacités qui évoluent navigueront mieux dans l’incertitude que ceux qui parient sur des résultats précis.

Restez calibré. Le cycle du battage médiatique est épuisant. Le cycle catastrophiste est paralysant. Aucun des deux ne vous rend service. Regardez ce que l’IA fait réellement dans la pratique, pas ce que promettent les démonstrations ni ce que redoutent les critiques.

Observez les praticiens. Le signal le plus fiable vient des personnes qui construisent des choses réelles avec l’IA. Quand des développeurs disent que les agents de code ont “changed everything,” c’est plus informatif que n’importe quelle prédiction sur la date d’arrivée de l’AGI.

Un utilisateur de Hacker News, mrdependable, a résumé une frustration courante dans un fil de 2025 : “I always see these reports about how much better AI is than humans now, but I can’t even get it to help me with pretty mundane problem solving.”

Cet écart entre la performance sur tests de référence et l’utilité pratique est réel, et il vaut la peine d’être gardé en tête. Les progrès sont là. Ils sont simplement inégaux, désordonnés, et souvent survendus.

La prédiction qui compte le plus

Voici ma prédiction : dans cinq ans, nous relirons cet article et certaines prévisions auront été trop prudentes, d’autres trop agressives, et au moins une chose se sera produite sans que personne ne l’ait anticipée.

Ce n’est pas une échappatoire. C’est la chose la plus honnête que je puisse dire sur un domaine où ceux qui en savent le plus sont aussi ceux qui divergent le plus fortement.

L’incertitude est inconfortable, mais aussi clarifiante. Elle signifie que l’avenir n’est pas encore déterminé. Les choix que nous faisons sur la façon de développer et de déployer l’IA comptent encore. Les débats sur la sécurité, sur l’emploi, sur la régulation, sur ceux qui bénéficient de ces systèmes… ces débats valent la peine d’être menés précisément parce que l’issue n’est pas déjà écrite.

Ce qui est certain : l’IA va continuer à changer notre manière de travailler, de créer et de résoudre des problèmes. La nature exacte de ce changement reste réellement ouverte. C’est terrifiant ou exaltant, selon votre disposition.

Moi, je trouve ça exaltant. Mais je comprends très bien les deux réactions.


Cet article reflète les capacités de l’IA et les prévisions telles qu’elles étaient en janvier 2026. Vu la vitesse d’évolution de ce domaine, certaines informations peuvent déjà être dépassées au moment où vous le lisez. Pour découvrir les outils d’IA actuels et des applications pratiques, explorez nos guides sur l’usage efficace de l’IA dans votre travail.

Ready For DatBot?

Use Gemini 2.5 Pro, Llama 4, DeepSeek R1, Claude 4, O3 and more in one place, and save time with dynamic prompts and automated workflows.

Top Articles

Come on in, the water's warm

See how much time DatBot.AI can save you