--- title: De l’hiver de l’IA à l’été de l’IA : les cycles qui ont façonné l’intelligence des machines description: L’IA a failli mourir deux fois. D’abord dans les années 1970, puis à la fin des années 1980. À chaque fois, des promesses démesurées ont étranglé le domaine. Aujourd’hui, nous vivons le plus long été de l’IA. Est-ce que celui-ci va durer ? date: February 5, 2026 author: Robert Soares category: ai-fundamentals --- Le mot « hiver » sonne doux. Neige sur les branches. Rues silencieuses. Café brûlant. Mais en IA, l’hiver veut dire quelque chose de brutal : des labos qui ferment, des chercheurs qui fuient vers d’autres disciplines, des financements qui s’évaporent, et des décennies entières de progrès qui s’enrayent pendant que le reste de l’informatique continue sa course. L’IA a connu deux grands hivers. Les deux ont presque tué le domaine. Les deux viennent du même schéma de base : des chercheurs ont promis trop, livré trop peu, et les financeurs s’en sont mordus les doigts. Aujourd’hui, nous sommes dans ce qui est peut-être le plus long été de l’IA de l’histoire. Les investissements battent record sur record. ChatGPT a atteint 100 millions d’utilisateurs plus vite que n’importe quelle application jamais créée. La question qui hante quiconque regarde vraiment : est-ce qu’on construit enfin quelque chose de réel, ou est-ce qu’on prépare le plus grand hiver de tous ? ## Le schéma que personne ne voulait voir Il y a quelque chose d’étrange. Les deux fois, des gens à l’intérieur du domaine ont vu les hivers arriver. Ils ont prévenu tout le monde. Personne n’a écouté. En 1984, les chercheurs en IA Roger Schank et Marvin Minsky se sont levés lors de la réunion annuelle de l’American Association of Artificial Intelligence et ont livré un avertissement qui s’est révélé prophétique en moins de trois ans. Ils avaient vécu le premier hiver de l’IA dans les années 1970, en voyant les financements s’effondrer après l’échec des promesses sur la traduction automatique et d’autres ambitions. Ils le voyaient recommencer. Les systèmes experts étaient à la mode. Les entreprises dépensaient plus d’un milliard de dollars par an en IA. Tout le monde voulait en être. Schank et Minsky ont dit au monde des affaires : cet enthousiasme est excessif, la déception est inévitable, et il faut se préparer à un nouvel hiver. Le monde des affaires ne s’est pas préparé. Trois ans plus tard, l’effondrement a commencé. ## Des milliards partis en fumée Le deuxième hiver de l’IA, grosso modo de 1987 à 1993, a ravagé le domaine d’une manière qui paraît presque impossible aujourd’hui, vu les niveaux d’enthousiasme et les flux d’investissement actuels. En 1986, les ordinateurs personnels avaient au maximum 44MB de stockage, ce qui rendait impraticable la construction des grandes bases de connaissances dont les systèmes experts avaient besoin, et les coûts de développement sont devenus impossibles à justifier pour des entreprises individuelles quand des approches plus simples pouvaient couvrir la plupart des besoins métiers pour une fraction du prix. Des entreprises spécialisées en IA comme Lisp Machines et Symbolics avaient créé du matériel coûteux, optimisé pour la programmation IA, et facturaient des prix premium pour leurs systèmes propriétaires. Puis Apple et Sun Microsystems ont sorti des stations de travail généralistes qui égalaient leurs performances pour une fraction du coût. Le marché du matériel spécialisé s’est effondré vers 1987. Ce n’étaient pas de petites boîtes. Elles ont disparu. L’initiative japonaise Fifth Génération Computer Systems, qui avait investi environ 500 millions de dollars pour créer des ordinateurs massivement parallèles pour l’IA, a été arrêtée après une décennie de travail. La Strategic Computing Initiative américaine, financée par la DARPA avec des rêves de machines qui pourraient "see, hear, speak, and think like a human," a vu son budget amputé. Un récit a qualifié ces coupes de "deep and brutal." ## La compagnie d’assurance qui a gagné et perdu Sur [Hacker News](https://news.ycombinator.com/item?id=29439117), un utilisateur nommé blankfrank a partagé un point de vue qui capture bien la réalité compliquée des systèmes experts à cette époque, en racontant son expérience à construire de l’IA dans une compagnie d’assurance de 1988 à 1996 : "Our expert system ran on PCs in our 30 branches then migrated to a mainframe." Le système "captured $4 million in additional revenue." Ça ressemble à une réussite. Mais le développeur a ensuite questionné le coût social quand les effectifs ont été réduits une fois le projet terminé. La technologie a fonctionné. Elle a aussi supprimé des emplois. C’était ça, le schéma. Les systèmes experts livraient une valeur étroite, tout en échouant à transformer des industries entières comme promis. L’écart entre attentes et réalité a créé les conditions de l’hiver. ## Ce que les systèmes experts ont raté Les systèmes experts qui ont alimenté le boom des années 1980 semblaient une bonne idée à l’époque, et sur le papier le concept avait parfaitement du sens. Capturer l’expertise humaine en règles. Laisser les ordinateurs appliquer ces règles. Multiplier l’expertise à l’infini. Le système XCON de Digital Equipment Corporation configurait les commandes de VAX, et aurait permis d’économiser 40 millions de dollars sur six ans. Des succès de ce genre ont attiré des investissements d’entreprise massifs, et dès 1985 les sociétés du monde entier dépensaient plus d’un milliard de dollars par an en matériel IA, logiciels et conseil. Mais les systèmes experts avaient des problèmes fondamentaux qui ne sont apparus qu’à l’échelle. Ils ne pouvaient pas apprendre. Chaque nouvelle situation demandait à un expert humain d’écrire de nouvelles règles. Ils souffraient du « problème de qualification », c’est-à-dire, pour faire simple, qu’ils n’arrivaient pas à anticiper des entrées inhabituelles et produisaient des erreurs grotesques face à l’imprévu. Un autre commentateur de Hacker News, KineticLensman, qui travaillait sur des systèmes experts au début des années 1990, a constaté que l’approche par règles fonctionnait bien pour "getting domain experts to articulate the heuristics they used," mais que la vraie valeur finissait par être le processus d’extraction des connaissances plutôt que le système d’IA lui-même. L’interface graphique qu’ils ont construite pour leur composant basé sur des frames "was repurposed for a successful in-house modelling tool" qui a survécu à l’IA. L’IA est morte. L’outil a survécu. ## Le moment 2012 où tout a changé Ce qui a mis fin au deuxième hiver de l’IA, ce n’était pas une seule percée, mais une convergence qui a mis des décennies à se matérialiser : de meilleurs algorithmes, du matériel plus rapide, et infiniment plus de données, le tout arrivant à peu près au même moment. L’événement pivot a eu lieu en 2012 quand une équipe de l’Université de Toronto, menée par Geoffrey Hinton, a remporté la compétition ImageNet avec un réseau neuronal profond qu’ils ont appelé AlexNet. Leur taux d’erreur était de 15,3 %. Le système arrivé second, basé sur des techniques traditionnelles, avait un taux d’erreur de 26,2 %. Cet écart a tout changé. Les réseaux neuronaux existaient depuis les années 1950. La backpropagation, la technique d’entraînement qui rend le deep learning possible, s’est popularisée dans les années 1980. Mais le matériel n’était pas assez puissant. Les données n’étaient pas assez abondantes. Les réseaux restaient peu profonds. En 2012, ces deux contraintes s’étaient relâchées. Les GPU, conçus à l’origine pour les jeux vidéo, se sont révélés parfaits pour l’entraînement des réseaux neuronaux parce qu’ils pouvaient exécuter des milliers d’opérations matricielles en parallèle. Internet avait généré d’énormes ensembles de données. La base ImageNet, à elle seule, contenait plus d’un million d’images étiquetées, toutes catégorisées par des humains. Les chercheurs ont compris que des réseaux plus gros, entraînés sur plus de données, donnaient de meilleurs résultats de façon régulière, et ce constat, plus tard formalisé en lois d’échelle, a piloté le progrès de 2012 à aujourd’hui : plus de paramètres, plus de données d’entraînement, et plus de calcul produisaient de meilleurs résultats de manière fiable. ## L’été le plus long Cela fait maintenant plus de treize ans que nous sommes en été continu de l’IA. Les investissements continuent de croître. En 2025, les grandes entreprises technologiques devraient dépenser 364 milliards de dollars en infrastructure IA, un chiffre qui aurait semblé inimaginable il y a dix ans. Le boom actuel diffère des précédents de manière importante, et ça compte si l’on veut juger si cet été va durer. Les précédents étés de l’IA produisaient des articles de recherche et des contrats gouvernementaux : un travail intéressant, qui touchait rarement les gens ordinaires. Celui-ci produit des produits que des centaines de millions de personnes utilisent chaque jour. ChatGPT a 800 millions d’utilisateurs actifs par semaine. 92 % des entreprises du Fortune 500 l’utilisent. Mais un utilisateur de Hacker News appelé « jerf » a proposé une distinction utile [dans une discussion d’octobre 2024](https://news.ycombinator.com/item?id=41811556) sur l’approche d’un hiver de l’IA : "You seem to be unable to separate the concept of 'hype' from 'value.' The original 'AI Winter' was near-total devastation. But it's probably reasonable to think that after the hype train of the last year or two we're headed into the Trough of Disillusionment." Le Hype Cycle de Gartner décrit un schéma où les nouvelles technologies passent par une phase d’« attentes démesurées », puis un « creux de la désillusion », avant d’atteindre un « plateau de productivité » où la technologie trouve sa vraie place. Beaucoup d’observateurs pensent que l’IA entre dans ce creux maintenant. ## Les signes avant-coureurs Gary Marcus, chercheur en IA et scientifique cognitif qui se montre sceptique envers les grands modèles de langage depuis des années, a écrit dans ses [25 AI Predictions for 2025](https://garymarcus.substack.com/p/25-ai-predictions-for-2025-from-marcus) : "Corporate adoption is far more limited than most people expected, and total profits across all companies (except of course hardware companies like NVidia, which profits from chips rather than models) have been modest at best. Most companies involved have thus far lost money." Ça fait écho au schéma des précédents hivers avec une précision inconfortable. Les entreprises investissent lourdement. Les retours déçoivent. Les financements se contractent. Des consultants estiment que la vague actuelle de dépenses d’infrastructure IA exigera 2 000 milliards de dollars de revenus annuels liés à l’IA d’ici 2030, juste pour justifier l’investissement, ce qui dépasse les revenus combinés de 2024 d’Amazon, Apple, Alphabet, Microsoft, Meta et Nvidia. Les maths sont compliquées. Les limites techniques persistent aussi. Les hallucinations restent non résolues. Les systèmes génèrent avec assurance de fausses informations sans indiquer qu’ils inventent. Les capacités de raisonnement, malgré des démonstrations impressionnantes qui circulent largement sur les réseaux sociaux, s’effondrent sur des problèmes nouveaux qui exigent une compréhension réelle. ## Pourquoi cette fois pourrait vraiment être différente Les précédents hivers de l’IA sont arrivés parce que la technologie ne pouvait tout simplement pas faire ce qui était promis, peu importe l’argent ou le temps investi. Les systèmes experts ne pouvaient pas gérer des entrées inattendues. Les réseaux neuronaux des années 1960 ne pouvaient pas apprendre des schémas complexes. L’écart entre promesse et capacité était fondamental. L’écart d’aujourd’hui est différent. La technologie fonctionne de manière démontrable pour beaucoup de tâches. La question est : est-ce qu’elle fonctionne assez bien, de façon assez fiable, pour assez de tâches, à un coût suffisamment bas, pour justifier les niveaux d’investissement actuels ? C’est une question de business plus qu’une question technique. Les outils IA réduisent les coûts de support client dans des entreprises de toutes tailles. Ils augmentent l’efficacité en programmation en gérant du code répétitif et en détectant des bogues. Ils automatisent la génération de contenu, l’analyse de données et des tâches de recherche qui exigeaient auparavant des heures de travail humain. Ce ne sont pas des projets de recherche qui dorment dans des labos. Ce sont des produits déployés qui font économiser de l’argent aux entreprises. Les usages sont réels même si le battage autour de l’intelligence artificielle générale ne l’est peut-être pas. Comme un analyste technologique l’a [dit](https://dev.to/dev_tips/the-ai-bubble-is-bursting-and-devs-are-back-in-the-game-124c), l’IA est devenue "the new Excel. Everyone uses it, but experts still dominate." ## L’évaluation honnête Un autre hiver de l’IA est possible. Les investissements pourraient se contracter. Des startups pourraient s’effondrer. Des gels d’embauche pourraient se répandre dans l’industrie. Le domaine pourrait entrer dans une période de consolidation et d’ambition réduite. Mais un vrai hiver, ou la recherche en IA se replie dans une poignée de laboratoires universitaires et où la technologie disparaît de l’usage grand public ? Ça paraît peu probable. Trop d’applications réelles existent. Trop d’infrastructures ont été construites. Trop de gens ont intégré ces outils dans leur travail quotidien. Le plus probable, c’est ce qu’un commentateur de Hacker News a appelé un "AI fall." Un refroidissement des attentes. Un passage de « l’IA remplacera tous les emplois » à « l’IA est un outil utile qui nécessite une supervision humaine ». Une migration des investissements depuis la recherche spéculative vers des usages éprouvés. ## Ce que l’histoire enseigne Les gens qui ont vécu les hivers précédents ont un regard utile, dont les enthousiastes d’aujourd’hui feraient bien de s’inspirer. La technologie était survendue à l’époque aussi. Mais chaque hiver a été suivi de vrais progrès. Les réseaux neuronaux ont survécu au deuxième hiver et sont devenus, au final, la base du boom actuel. La leçon n’est pas que le battage est inoffensif ou que les hivers ne font pas mal. La leçon, c’est qu’une technologie utile survit à la déception. Les hivers de l’IA taillent dans les excès. Ils brisent des carrières et ferment des entreprises. Ils débarrassent le terrain des spéculateurs et des charlatans. Ils ne mettent pas fin au domaine. ## Conseils pratiques Si vous travaillez avec l’IA professionnellement, l’histoire suggère quelques leçons très concrètes. Construisez sur des capacités qui existent aujourd’hui, pas sur celles qui pourraient exister demain. Les systèmes experts ont échoué en partie parce que des entreprises ont investi dans des capacités théoriques futures plutôt que dans des capacités actuelles prouvées. Les organisations qui ont survécu aux hivers précédents se sont concentrées sur des applications étroites où l’IA aidait de façon démontrable. Attendez-vous à un grand ménage chez les fournisseurs. Toutes les startups IA ne survivront pas aux prochaines années. Choisissez des outils d’entreprises avec des modèles économiques viables et des revenus réels, pas seulement des démos impressionnantes et du financement en capital-risque. Développez une vraie expertise. Quand le battage retombe, les gens qui comprennent comment ces systèmes fonctionnent réellement deviennent plus précieux, pas moins. Les développeurs qui ont prospéré après les hivers précédents étaient ceux qui comprenaient les vraies capacités et les limites de la technologie. Et rappelez-vous que l’histoire de l’IA n’est pas une ligne droite vers le haut. Le progrès arrive par vagues. Comprendre ces vagues vous aide à profiter de l’été tout en vous préparant à la possibilité de l’automne.