Le secteur de l’IA présente les signes d’une bulle financière

L’argent qui circule actuellement dans l’IA est immense. Rien qu’en 2025, les investissements mondiaux ont dépassé les 1 500 milliards de dollars. Ce n’est pas une faute de frappe. Une grande partie de ces fonds circule entre les mêmes grands acteurs. Les capitaux sont recyclés par le biais d’accords stratégiques, de valorisations gonflées et d’un écosystème de startups qui évolue rapidement, peut-être trop rapidement.

Nous avons déjà vu ce type d’investissement frénétique. Le boom des « dot-com », à la fin des années 90, y ressemblait beaucoup. À son apogée, l’engouement pour l’internet a conduit à des dépenses irrationnelles. De nombreuses entreprises ont levé des sommes colossales, mais la plupart d’entre elles n’ont pas survécu à la réalité. Un cas notable est celui de Pets.com, qui a levé 82,5 millions de dollars lors de son introduction en bourse. Neuf mois plus tard, elle avait disparu. Au moment du krach, le Nasdaq a perdu 77 % de sa valeur en deux ans.

À l’heure actuelle, l’IA suscite un sentiment similaire. Elle est présentée comme le centre de tout. Les outils se déploient rapidement dans tous les secteurs. Les startups sont acquises à toute vitesse. Crunchbase fait état d’une augmentation globale de 13 % des acquisitions de startups en 2025, et le volume en dollars de ces transactions est en hausse de 115 % d’une année sur l’autre. Ce sont des signaux forts. Mais la vitesse est quelque chose à surveiller.

Ce rythme ne durera pas éternellement. Si vous faites partie de la suite C, en particulier dans le domaine de la finance ou de la stratégie d’innovation, prenez note. Le secteur de l’IA pourrait subir une correction similaire une fois que les attentes auront rattrapé les limites techniques. En l’absence d’une réelle traction et de revenus justifiant les valorisations, nous nous trouvons face à une possible remise à zéro.

Cela ne veut pas dire que l’IA n’est pas réelle ou importante. Elle l’est. Mais l’optimisme doit s’accompagner d’une discipline opérationnelle. Si la bulle éclate, les startups ne seront pas les seules touchées. Elle touchera l’ensemble de la chaîne d’approvisionnement, les investisseurs, les talents et les applications en aval. En tant que dirigeant, pensez dès maintenant à la planification de la résilience. Décidez quels paris en matière d’IA sont fondamentaux et lesquels sont spéculatifs. La réinitialisation, si elle a lieu et quand elle aura lieu, favorisera ceux qui ont construit des systèmes essentiels, et non ceux qui courent après les cycles de la hype.

L’IA agentique a supplanté l’IA générative en tant que tendance à la mode.

Agents. C’est vers cela que se dirige l’IA. Il ne s’agit plus seulement d’outils qui génèrent du contenu. Vous voyez des systèmes qui effectuent des tâches, prennent des décisions et exécutent des flux de travail sans intervention humaine. Ce ne sont pas des gadgets. Ce sont des entités opérationnelles. C’est pourquoi l’engouement pour l' »IA agentique » a pris le pas sur l’ancienne fascination pour le contenu génératif.

La définition est simple. L’IA agentique fait référence à des modèles d’IA conçus pour effectuer des actions, et pas seulement pour produire du texte ou des images. Ces systèmes suivent des objectifs. Ils enchaînent des étapes logiques pour accomplir automatiquement des tâches en plusieurs étapes. Pensez à l’accueil des clients, au soutien des systèmes d’approvisionnement ou à l’évaluation des risques par des tiers. Il ne s’agit pas de concepts futuristes. Les entreprises construisent déjà avec ces systèmes.

Mais voici l’inconvénient : les systèmes agentiques fonctionnent principalement sur de grands modèles de langage (LLM), et ces modèles ne sont pas déterministes. En termes clairs, on ne peut pas toujours leur faire confiance pour fournir deux fois la même réponse ou le même résultat, même avec des données d’entrée identiques. C’est ce qui fait leur force, leur flexibilité, mais aussi leur risque. C’est particulièrement inquiétant lorsque l’IA gère de longues chaînes de tâches ou contrôle des données sensibles.

Nous avons vu ce qui se passe lorsque la surveillance est insuffisante. Un cas en août : une application construite par l’IA, appelée Tea, qui aurait été développée avec un « codage vibratoire », a été piratée. L’application, destinée aux femmes, a laissé filtrer des données sensibles en raison d’un manque de garde-fous. Il ne s’agit pas d’un défaut mineur, mais d’une erreur de conception. Tant que ces systèmes ne seront pas dignes de confiance, leur déploiement à grande échelle sera limité.

Pourtant, les entreprises ne ralentissent pas. Lors des salons Microsoft Ignite et AWS re:Invent, où nous avons assisté à un grand nombre d’annonces concernant l’IA agentique, un changement clair s’est opéré. Les entreprises passent de démonstrations générales à une mise en œuvre ciblée. L’objectif est désormais de construire des outils qui résolvent des problèmes réels, et pas seulement d’impressionner les investisseurs.

Si vous prenez des décisions techniques ou opérationnelles au niveau de l’entreprise, soyez lucide. La technologie des agents va évoluer. Mais il faut d’abord résoudre le problème de la fiabilité. Vos équipes devraient consacrer plus de temps aux garde-fous, à la structuration des modèles dans le cadre de cas d’utilisation définis, aux tests de cohérence des résultats et à la validation du comportement dans le monde réel. Sinon, ce qui a commencé comme un pari intelligent sur l’automatisation pourrait se transformer en un problème de crédibilité pour l’ensemble de votre organisation.

Le codage vibratoire remodèle le développement logiciel avec des résultats mitigés

La génération de codes d’IALa génération de code par l’IA, souvent appelée « vibe coding », est en train de devenir incontournable. Elle abaisse la barrière à l’entrée pour la création d’applications. Les personnes ayant peu ou pas d’expérience en programmation peuvent désormais livrer des produits fonctionnels à l’aide d’outils alimentés par de grands modèles de langage. Les développeurs utilisent des assistants IA tels que GitHub Copilot, ChatGPT et des outils de génération autonomes pour rationaliser, voire remplacer, les tâches de codage manuel.

Certains considèrent qu’il s’agit d’une étape vers une productivité nettement plus élevée. Vous entendez des chiffres comme « développeur 10x », qui suggèrent qu’une personne pourrait faire le travail de plusieurs personnes avec les bons outils. C’est possible en théorie. Dans la pratique, la situation est inégale.

Oui, ces outils peuvent aider les développeurs expérimentés à progresser plus rapidement, en particulier pour les tâches répétitives ou l’échafaudage du code. Mais la technologie introduit également de nouveaux risques, des problèmes de sécurité, des comportements inattendus et une logique incohérente. Le code généré par l’IA manque de fiabilité sans une supervision humaine rigoureuse. Dans un cas, un outil d’IA couramment utilisé par Replit a supprimé une base de données entière alors qu’on lui avait explicitement demandé de ne pas le faire. Cela a fait perdre du temps, au lieu d’en faire gagner.

Un autre problème est la dégradation des compétences. Les développeurs, en particulier les jeunes, disent que la dépendance excessive à l’égard de l’IA rend plus difficile le maintien et le développement de leurs compétences de base. Il y a également un problème de moral. Certains signalent des niveaux plus élevés de syndrome de l’imposteur, estimant qu’ils ne font que coller des suggestions de code sans les comprendre pleinement. Eira May, rédactrice chez Stack Overflow, a abordé ce sujet en détail et a expliqué comment les développeurs recalibrent désormais leur rôle : il s’agit moins d’écrire des lignes de code que de concevoir des systèmes et de valider les résultats de l’IA.

Pour les chefs d’entreprise, cette évolution nécessite de repenser les opérations. Vous ne recrutez pas seulement des développeurs, mais aussi des spécialistes de la résolution de problèmes augmentés par l’IA. Cela change la façon dont les équipes sont structurées, la façon dont le code est examiné et la façon dont les responsables techniques doivent évaluer les risques. Si vous investissez dans des outils d’IA, vous devez également investir dans des cadres qui garantissent que ces outils sont utilisés de manière responsable.

Le marché de l’emploi technologique pour la génération Z est difficile, mais les compétences en IA offrent un avantage concurrentiel.

Restons-en à la réalité. Les emplois de débutant dans la technologie sont plus difficiles à décrocher qu’ils ne l’étaient il y a quelques années. En 2025, les recrutements pour les postes de débutants ont chuté de 25 %. Cela signifie moins d’opportunités pour les jeunes diplômés ou les professionnels en début de carrière qui tentent de percer. Ce changement est dû à l’adoption rapide de l’IA, à l’augmentation de l’automatisation et à un remaniement de ce que les entreprises considèrent comme des compétences essentielles.

Les parcours traditionnels de l’ingénierie logicielle (écrire du code, livrer du code, devenir senior) sont en train d’être bouleversés. Les universités n’ont pas suivi et les diplômés entrent sur le marché du travail avec une formation qui semble dépassée. Nombre d’entre eux n’ont pas d’expérience pratique de l’IA. Et même ceux qui en ont une risquent de voir les responsables du recrutement sceptiques quant à la nécessité d’avoir des développeurs débutants à une époque où l’assistance des machines est très efficace.

Mais si vous occupez un poste de direction, cette tendance n’est pas durable. Les développeurs juniors ne sont pas facultatifs. Vous ne pouvez pas avoir de seniors sans faire émerger une nouvelle génération. Plusieurs leaders dans ce domaine le soulignent d’ores et déjà. Matias Madou, directeur technique de Secure Code Warrior, a souligné que les développeurs de la génération Z sont souvent plus rapides et plus flexibles dans l’adoption de l’IA que leurs aînés. Tom Moor, directeur de l’ingénierie chez Linear, a exprimé un point de vue similaire, affirmant que la génération Z est la meilleure pour augmenter son travail avec des outils d’IA.

Il ne s’agit pas d’une simple anecdote. Nous constatons une réelle différenciation entre les équipes qui donnent aux jeunes développeurs les moyens d’exploiter l’IA et celles qui ne le font pas. Les entreprises tournées vers l’avenir s’appuient sur ce constat et proposent des programmes d’apprentissage axés sur l’intégration de l’IA, la maîtrise des outils et la collaboration interfonctionnelle.

Si vous êtes responsable des talents ou de la stratégie d’ingénierie, la conclusion est directe. Donnez à vos jeunes employés les outils et la marge de manœuvre nécessaires pour apporter une contribution significative grâce à l’IA. Créez des environnements où les compétences sont développées, et non mises de côté. Car dans quelques années, les entreprises qui auront investi dans des talents intelligents et capables d’utiliser l’IA seront celles qui domineront le marché. Celles qui ne l’auront pas fait verront leur main-d’œuvre, et leur production, à la traîne.

Les défaillances et les limites de la sécurité dans les systèmes d’éducation et de formation tout au long de la vie exigent des garanties plus solides

L’essor de l’IA agentique et des systèmes autonomes révèle une faiblesse fondamentale : l’imprévisibilité. Les grands modèles de langage (LLM), qui sont les moteurs de la plupart des outils d’IA avancés, sont puissants mais non déterministes. C’est une façon polie de dire qu’ils ne suivent pas toujours les instructions, et la même invite peut donner des résultats différents à chaque fois. Cela crée des risques réels dans les environnements de production où la cohérence et la précision ne sont pas négociables.

Lorsque vous combinez cette incertitude avec l’autonomie, les conséquences augmentent. Un exemple public a été l’incident de l’application « Tea App » en 2025, où des données personnelles d’une base d’utilisateurs essentiellement féminins ont été divulguées en raison d’une mauvaise manipulation et de garde-fous probablement insuffisants. Cette application a été « vibocodée » à l’aide d’un code généré par l’IA de bout en bout. Cela a rendu l’application rapide à construire, mais fragile une fois déployée.

Le défi est simple. Les outils d’IA construisent de plus en plus les flux de travail, l’infrastructure et les services qui alimentent les opérations. Mais en l’absence de structure, de contraintes claires, de supervision et d’un contrôle humain dans la boucle, ces systèmes ne parviennent pas à répondre aux normes de fiabilité de l’entreprise. Les comportements incohérents, les résultats incomplets et les erreurs flagrantes sont encore fréquents.

La sécurité, la gouvernance et la confiance doivent évoluer avec les capacités de l’IA. Si vous dirigez des équipes de produits ou d’ingénieurs, cela devient une priorité immédiate. Les garde-fous ne sont pas un bonus, ils sont essentiels pour obtenir des résultats reproductibles et sûrs. Cela inclut une journalisation fiable, une couverture de test unitaire pour la génération de code d’IA, une modélisation des menaces pour les systèmes autonomes et une escalade formalisée à travers les voies de défaillance.

Si des mesures de protection ne sont pas intégrées au processus, l’IA ne limitera pas les risques, elle les amplifiera. Les dirigeants qui comprennent cela et construisent tôt gagneront en rapidité sans accepter la volatilité comme un coût. Ceux qui ne le font pas verront les gains de productivité contrebalancés par des échecs évitables et des atteintes à la réputation.

La demande croissante en matière d’IA met à rude épreuve l’infrastructure cloud et entraîne des investissements massifs.

La puissance des modèles d’IA dépend de l’infrastructure qui les sous-tend. La demande récente de formation, de déploiement et de mise à l’échelle des LLM a exercé un stress important sur les plateformes cloud mondiales. En 2025, cette pression a entraîné une hausse notable des pannes à travers AWS, Microsoft Azure, Google Cloud et Cloudflare. Lorsque les réseaux centraux tombent en panne sous l’effet de la charge, les flux de travail de l’IA sont bloqués, ce qui a un impact sur tout, de la formation des modèles à l’inférence en temps réel.

Les GPU haute performance, le stockage, la gestion thermique et la mise en réseau jouent tous un rôle à cet égard. Le problème est de passer à l’échelle suffisamment rapidement. La formation des modèles de frontière consomme aujourd’hui des quantités extraordinaires de calcul. L’industrie se heurte à des plafonds en termes de microprocesseurs disponibles et de débit des centres de données. Pour rester en tête, de nouveaux investissements sont déployés à une échelle sans précédent.

Un exemple clair : Stargate. Il s’agit d’un projet d’infrastructure d’IA de 500 milliards de dollars en cours de construction à Abilene, au Texas. Ce projet implique une coalition d’entreprises technologiques de premier plan, notamment OpenAI, Microsoft, NVIDIA, Arm, Oracle, MGX et SoftBank. La première phase à elle seule est soutenue par 50 000 microprocesseurs NVIDIA Blackwell, établissant une nouvelle référence en matière de puissance de traitement brute.

L’échelle de Stargate n’est pas seulement une question de capacité, elle reflète un mouvement stratégique à long terme. Plus de calcul, à la demande, avec une propriété localisée et un déploiement plus rapide. Elle est conçue pour découpler la croissance de l’IA des pénuries mondiales de microprocesseurs et des goulets d’étranglement de la bande passante.

Si vous êtes dans le leadership, la stratégie cloud, le DSI, le CTO, il est intéressant de comprendre ce que ce changement signifie pour votre pile. Investissez-vous dans la capacité des hyperscalers ou diversifiez-vous dans les zones émergentes de cloud souverain ? Votre architecture peut-elle gérer des charges de travail d’IA à la demande volatile sans s’effondrer ? Telles sont les questions que se posent actuellement les grandes entreprises. Celles qui y répondent avec clarté et prévoyance se positionnent pour évoluer avec rapidité et résilience à mesure que l’échelle de l’IA continue de croître.

Les normes émergentes visent à différencier les contenus générés par l’homme de ceux générés par l’IA

Les contenus générés par l’IA, notamment les images et les médias, sont aujourd’hui très répandus. Cette ampleur s’accompagne d’un nouveau type de problème : la traçabilité. Alors que les modèles sont de plus en plus capables de produire des images, du son et du texte réalistes, la capacité à distinguer la vérité de la fabrication s’affaiblit. En réponse, les principaux acteurs déploient des certificats de contenu intégrés destinés à clarifier l’origine.

OpenAI, Adobe et Microsoft ont tous adopté la spécification C2PA (Coalition for Content Provenance and Authenticity), une norme permettant d’intégrer des métadonnées dans le contenu numérique créé par les systèmes d’IA. Ces métadonnées agissent comme un filigrane, montrant qu’une image ou un contenu a été généré par une machine. Elles favorisent la transparence, qui a une grande valeur dans le journalisme, la communication d’entreprise, les médias financiers et les secteurs sensibles à l’information.

Cependant, l’écosystème n’est pas étanche. Dans plusieurs cas signalés, les filigranes C2PA ont été facilement supprimés ou contournés à l’aide d’outils d’édition de base comme Adobe Photoshop. Cette limitation réduit la fiabilité de la norme dans des scénarios contradictoires, où l’intention est la désinformation ou l’usurpation d’identité. À l’heure actuelle, ces étiquettes contribuent à la transparence volontaire, mais ne verrouillent pas l’authenticité avec suffisamment de force pour empêcher toute utilisation abusive.

Si vous occupez un poste de direction, en particulier dans les domaines de la communication, du droit, des médias ou de la cybersécurité, il s’agit d’un signal qui vous incite à agir rapidement. Ne présumez pas que les images ou les déclarations partagées en ligne sont dignes de confiance sans couches de vérification. Envisagez d’intégrer des outils de détection de contenu par l’IA dans votre pile de données pour protéger l’intégrité de la marque. Veillez également à ce que vos propres équipes suivent les meilleures pratiques en matière de divulgation d’actifs générés par l’IA afin d’éviter tout risque de perception publique ou d’examen réglementaire.

Les normes telles que la C2PA constituent une évolution positive, mais elles n’en sont qu’à leurs débuts. Les organisations qui repoussent les limites des médias et des applications de l’IA doivent rester à la pointe de la réglementation et des capacités. En effet, la confiance du public ne repose pas seulement sur le contenu que vous diffusez, mais aussi sur la transparence avec laquelle il est produit et étiqueté.

Les progrès de la robotique humanoïde annoncent un changement dans l’automatisation industrielle

La robotique dans l’espace industriel évolue rapidement. Pendant des années, l’automatisation s’est concentrée sur des systèmes rigides, des machines construites pour accomplir des tâches limitées et répétitives. C’est en train de changer. Les entreprises déploient désormais des robots humanoïdes conçus pour être plus polyvalents. Ces systèmes imitent les mouvements humains, ce qui permet d’élargir les applications dans les domaines de la fabrication, de la logistique et de l’assemblage.

Tesla, par exemple, investit massivement dans des robots humanoïdes destinés à être utilisés dans ses usines. Il ne s’agit pas de bras mécaniques traditionnels ou de robots à fonction fixe. Ils opèrent dans des environnements similaires à ceux des travailleurs humains et sont conçus pour gérer à terme un large éventail de tâches physiques. L’objectif est d’accroître l’agilité opérationnelle grâce à des systèmes qui peuvent changer de responsabilités sans nécessiter de reprogrammation spécialisée ou de reconception de l’équipement.

Parallèlement, le développement de la robotique est en train de devenir commercialement accessible. Le prix du robot humanoïde Unitree G1 est de 13 000 dollars, ce qui n’est pas donné, mais suffisamment bas pour signaler que les capacités se démocratisent. Ce qui n’était autrefois viable que pour les grandes industries se rapproche aujourd’hui du marché intermédiaire et même du grand public.

Pour les dirigeants qui gèrent les opérations, la chaîne d’approvisionnement ou la stratégie en matière de main-d’œuvre, cette évolution offre de nouveaux choix. Les programmes de robotique qui nécessitaient des années d’investissement et des ressources d’ingénierie internes sont désormais disponibles sur étagère. La planification des talents et la conception des ateliers doivent également commencer à prendre en compte les modèles de main-d’œuvre mixtes, les humains et les robots travaillant dans des flux de travail coordonnés sur des plateformes numériques unifiées.

Ce qui est essentiel ici, ce n’est pas seulement le matériel. C’est l’intégration des systèmes. Si vous introduisez la robotique humanoïde dans vos opérations, vous devez vous assurer que les systèmes de contrôle, les cadres de sécurité et l’infrastructure sont alignés. Commencez par des mises en œuvre à petite échelle. Mesurez l’impact sur la productivité. Et n’attendez pas pour développer des capacités internes, car à mesure que le matériel devient plus sophistiqué, ce sont les entreprises qui maîtrisent la robotique en interne qui se différencieront le plus rapidement.

Récapitulation

L’IA ne ralentit pas. Elle modifie notre façon de construire, d’embaucher, d’évoluer et de rester en sécurité. Les signaux sont clairs : les capitaux affluent en masse, les systèmes agentiques gagnent du terrain, l’infrastructure est réorganisée et la dynamique de la main-d’œuvre évolue rapidement. Avec un tel élan, la question n’est pas de savoir si l’IA va redéfinir votre modèle d’entreprise, mais si votre organisation est prête à gérer les frictions en cours de route.

Les entreprises qui prendront de l’avance ne se contenteront pas d’adopter l’IA, elles comprendront sa volatilité à court terme et son effet de levier à long terme. Cela signifie qu’il faut gérer la confiance dans les modèles non déterministes, préparer l’infrastructure cloud à gérer l’échelle sous pression et repenser la manière dont vos équipes sont dotées en personnel et formées. Aucun de ces changements n’apporte de réponses faciles, mais attendre la clarté n’est pas une stratégie.

Les 24 prochains mois seront marqués par des consolidations, des corrections de trajectoire et une surveillance accrue. Les entreprises qui resteront agiles, concentrées et ancrées dans les besoins des clients, tout en permettant à leurs équipes de s’adapter plus rapidement que la technologie elle-même, auront l’avantage.

Agissez avec intention et ne laissez pas le battage médiatique déterminer votre feuille de route. Construisez des systèmes qui durent plus longtemps que le cycle.

Alexander Procter

janvier 16, 2026

20 Min