L’architecture actuelle du web est mal adaptée à la navigation agentique pilotée par l’IA
Depuis plus de 30 ans, nous construisons le web pour les humains. L’ensemble est conçu en fonction de la façon dont les gens pensent, de ce qui semble cliquable, de ce que l’on ressent et de ce qui incite quelqu’un à agir. Cette conception fonctionne bien pour les gens. Mais elle s’effondre dès que vous placez un agent d’intelligence artificielle sur le siège du conducteur.
Aujourd’hui, nous assistons aux premières tentatives de ce que l’on appelle la « navigation agentique ». Cela signifie qu’un navigateur ne se contente pas de suivre vos clics, mais qu’il agit en votre nom. Des outils comme Comet de Perplexity et le plugin Claude d’Anthropic commencent à fonctionner dans ce nouvel espace. Ils peuvent lire des pages, effectuer des tâches et même réaliser des transactions. Jusqu’à présent, tout va bien. Mais lorsque vous effectuez des tests dans le monde réel, une chose devient évidente : le web n’est pas prêt. L’ensemble de la structure, du balisage du front-end au flux du back-end, est conçu pour la consommation humaine. Les machines ne comprennent tout simplement pas.
Lors d’un test, une ligne de texte en caractères blancs cachée sur une page, qu’un humain ne peut même pas voir, a demandé à Comet d’ouvrir Gmail et de rédiger un courrier électronique. Cela ne faisait pas partie de la demande initiale. L’utilisateur a demandé à Comet de résumer la page, mais l’application a tout de même obéi à la commande cachée. Il ne s’agit pas d’un bogue. C’est ainsi que se comporte le web actuel lorsqu’une IA suppose qu’elle doit agir comme un utilisateur, parce que toutes nos hypothèses de conception sont fondées sur les yeux et les intentions de l’homme.
Imaginez maintenant que cette commande cachée soit à l’origine d’une fuite de données sensibles. Ou de déclencher une transaction financière. L’architecture du web actuel permet aux machines de se faire piéger beaucoup trop facilement. C’est là le cœur du problème. L’IA agentique modifie l’environnement opérationnel. Le web doit suivre le mouvement.
Si vous êtes PDG ou directeur technique, prenez ceci au sérieux. Votre infrastructure numérique orientée vers l’utilisateur est peut-être facile d’accès pour les humains. Mais si elle n’est pas remaniée pour être lisible par les machines et prendre en compte les agents, elle ne fonctionnera pas du tout dans un monde médiatisé par l’IA. Si vous continuez à optimiser pour les yeux et les pages vues, vous ne verrez pas où se dirige la prochaine génération d’interactions numériques. Il s’agit là d’un risque stratégique, et non d’un problème technique.
Les systèmes d’IA agentiques sont intrinsèquement vulnérables à la manipulation en suivant toutes les instructions sans esprit critique.
Les systèmes agentiques reposent sur une hypothèse dangereuse : ce qui est écrit est ce à quoi il faut obéir. C’est là que la prémisse entière commence à s’effondrer. Les agents comme Comet n’appliquent pas un jugement, ils exécutent. C’est leur travail. Ils traitent le contenu, analysent les commandes et agissent. Mais ils ne se demandent pas si quelque chose a du sens. Ils ne s’arrêtent pas pour se demander si l’instruction est malveillante. S’il la voit, il l’exécute.
Quelques expériences alarmantes le prouvent. L’une d’entre elles consistait à intégrer une instruction d’autodestruction dans un courrier électronique. Comet a lu le message et l’a supprimé, sans invite ni avertissement. Dans un autre test, quelqu’un a falsifié une demande d’invitation à une réunion contenant des coordonnées. Comet les a toutes exposées au mauvais destinataire. Dans un autre cas encore, l’agent a partagé le nombre d’e-mails non lus dans une boîte de réception, là encore sans vérifier que le demandeur avait le droit de poser la question.
Ce n’est pas surprenant. Ces agents sont encore conçus pour simuler le comportement de l’utilisateur, et non pour faire preuve de discernement. Ils analysent le contenu HTML et les courriels, et non l’intention ou l’autorité. Les pirates et les acteurs malveillants exploitent ce type de faille comportementale. Il ne s’agit pas de casser le système d’IA, mais de lui donner de mauvaises instructions. Pour l’instant, l’IA s’en moque.
Vous ne pouvez pas vous permettre une automatisation aveugle. Si votre entreprise envisage d’intégrer des agents, par le biais du service client, des opérations de données ou d’outils internes, vous devez mettre en place des contrôles stricts des politiques en amont. C’est en construisant des systèmes capables de séparer le contenu de l’intention que vous gagnerez la confiance. Une fois que les agents d’IA agissent en votre nom, toute surface d’instruction devient une vulnérabilité. Vous avez besoin de cadres qui régissent ce qui est exécuté, par qui et dans quelles conditions. Ce n’est pas facultatif. Il s’agit d’une infrastructure de base.
Les applications d’entreprise présentent des défis uniques pour les agents d’intelligence artificielle en raison de leur complexité inhérente et de l’absence de structure uniforme.
Les plateformes d’entreprise sont conçues pour la profondeur et non pour la simplicité. Elles sont chargées de fonctions, de flux de travail personnalisés et d’interfaces spécifiques à l’utilisateur. Les humains peuvent faire face à cette complexité parce qu’ils disposent d’un contexte, qu’ils savent ce qu’ils regardent, sur quoi cliquer et quelle est l’étape suivante. Les agents n’ont pas ce luxe. Ils ont besoin d’une structure. Lorsqu’ils ne l’obtiennent pas, ils échouent.
Lors d’un test impliquant une plateforme B2B, l’agent IA Comet s’est vu confier une tâche en deux étapes que n’importe quel employé pourrait réaliser en quelques secondes : sélectionner un élément de menu, puis choisir une sous-option pour accéder à une page spécifique. Il a échoué. Encore et encore. Comet a mal interprété la hiérarchie, a cliqué sur les mauvais boutons, a réessayé plusieurs chemins. Neuf minutes se sont écoulées, et il n’avait toujours pas accompli sa tâche.
Ce taux d’erreur n’est pas dû à la difficulté de la tâche, mais au fait que les environnements d’entreprise ne sont pas conçus pour guider les machines. Les menus sont souvent dynamiques. Les étiquettes de l’interface utilisateur changent. Le contexte est supposé connu. Ces applications dépendent de signaux visuels et de la familiarité humaine, ce que les agents d’intelligence artificielle ne possèdent pas. Le web a à peine normalisé les interactions B2C. En B2B, il y a encore moins de cohérence.
Pour les directeurs techniques et les directeurs de l’information responsables des systèmes d’entreprise, ce n’est pas une mince affaire. Si l’IA agentique ne peut pas comprendre vos flux de travail, elle ne peut pas les automatiser. La transformation numérique B2B ne se produira pas si les plateformes d’entreprise ne sont pas intentionnellement repensées pour prendre en charge à la fois les opérateurs humains et les agents autonomes. Cela signifie qu’il faut rationaliser la navigation, exposer les API de tâches et normaliser les étiquettes à travers les fonctions. Si votre équipe d’IA se heurte à des impasses en interne, c’est probablement votre structure logicielle, et non le modèle d’IA, qui est le goulot d’étranglement.
La conception inhérente du web n’offre pas la clarté sémantique nécessaire à l’exécution par la machine.
Le web moderne est construit pour l’apparence, pas pour la clarté. Les concepteurs se concentrent sur l’apparence à l’écran, et non sur la manière dont un agent interprète la structure sous-jacente. Derrière ce que les humains voient, les menus, les boutons, les titres, se cachent des mises en page erratiques, des arbres DOM complexes et des comportements JavaScript enfouis qui déconcertent souvent les agents d’intelligence artificielle. Les humains traitent rapidement la variabilité. Les machines ne le font pas.
Chaque site fonctionne comme son propre système. Il n’existe pas de norme universelle pour la présentation de la page d’accueil, le flux de paiement ou même le nom des boutons. Les humains n’ont pas besoin de cohérence, ils s’adaptent. Mais les machines échouent dans ce bruit. Les agents d’intelligence artificielle ont besoin d’une orientation sémantique pour comprendre l’objectif. Sans cela, ils interprètent tout de la même manière, ce qui entraîne des erreurs ou des tâches incomplètes.
La situation est encore pire dans les systèmes fermés. De nombreux outils d’entreprise sont protégés par des identifiants, des pare-feu et des protocoles spécifiques aux clients. Ces contraintes ne sont pas seulement sécuritaires ; elles rendent également inaccessibles les données qui servent à former les agents. Cela signifie que même le meilleur système d’IA travaille avec des exemples limités et un contexte inexistant. L’échec n’est pas hypothétique, il est garanti, à moins que les systèmes ne soient conçus pour offrir de la clarté.
Pour les dirigeants de C-suite, il s’agit d’un véritable compromis. L’optimisation de la conception visuelle peut dégrader les performances des machines. Vous n’avez pas à choisir un camp, mais vous devez tenir compte des deux. La refonte des plateformes pour y inclure une structure sémantique, des modèles de données cohérents et des signaux lisibles par les agents accélérera le déploiement de l’IA dans votre empreinte numérique. Sans cela, les interactions de votre organisation resteront accessibles aux utilisateurs, mais opaques pour les machines. Cela limite l’automatisation, la découvrabilité et l’intégration des services, ce qui ralentit la transformation.
Une refonte fondamentale du web est nécessaire pour créer un environnement convivial pour les machines qui supporte les systèmes d’IA agentique.
L’émergence de l’IA agentique met une réelle pression sur le web pour qu’il évolue. À l’heure actuelle, la façon dont la plupart des sites sont construits convient aux personnes, mais crée des frictions inutiles pour les machines. Si vous voulez que les systèmes d’IA interagissent de manière transparente entre les services, donnez-leur une structure qu’ils puissent traiter. Il ne s’agit pas de remplacer les interfaces humaines, mais d’élargir l’accès.
Pour aller de l’avant, une conception lisible par les machines nécessite quelques éléments de base : une sémantique HTML cohérente, une utilisation appropriée des étiquettes, un balisage explicite et des flux de travail normalisés. Les sites doivent mettre en œuvre des fichiers llms.txt, des cartes au niveau du site qui aident les agents d’intelligence artificielle à comprendre ce que fait un site et comment il faut y naviguer. Au lieu de simuler des clics, proposez des API pour effectuer directement des tâches, soumettre des formulaires, réserver des services, accéder à l’assistance. Il s’agit de points de terminaison d’action. Ils donnent aux agents la possibilité d’accomplir des tâches directement et en toute sécurité.
Les interfaces web agentiques (AWI) sont également essentielles à cet égard. Elles définissent des points d’interaction universels, tels que add_to_cart, schedule_meeting, search_flights, des modèles cohérents que les agents d’intelligence artificielle peuvent reconnaître et utiliser dans tous les systèmes. Le résultat est prévisible : des performances d’IA plus fluides, des taux d’erreur plus faibles et une meilleure interopérabilité entre les produits et les applications.
Il ne s’agit pas de spéculation. Les organisations qui commencent dès maintenant à mettre en place une infrastructure accessible aux machines évolueront plus rapidement lorsque l’interaction avec les utilisateurs de l’IA dépassera l’interaction avec les humains, ce qui ne manquera pas d’arriver. Cela signifie que les équipes de produits doivent commencer à concevoir pour les lecteurs et les demandeurs. Les sites qui se contentent d’être beaux mais qui ne fonctionnent pas pour les agents risquent d’être totalement ignorés par une catégorie croissante d’utilisateurs : les machines qui exécutent les intentions des utilisateurs.
Les directeurs des systèmes d’information et les responsables en chef des produits devraient considérer cela comme un changement fondamental. Il n’est pas nécessaire de repenser chaque page. Commencez par les flux de travail critiques, les parcours de paiement, les tableaux de bord ou les outils de planification les plus utilisés, et créez en parallèle des versions accessibles aux machines. C’est ainsi que votre organisation pourra faire face à l’avenir à mi-chemin.
La mise en œuvre de protocoles de sécurité et d’autorisation robustes est essentielle pour atténuer les risques associés à l’IA agentique
Les capacités des systèmes agentiques augmentent, mais pas leur jugement. C’est là qu’est la faille. Jusqu’à ce que les agents d’IA puissent comprendre de manière fiable l’intention, l’autorité et le contexte, la sécurité doit agir comme une sécurité intégrée. Sans garde-fous stricts, toute instruction intégrée, malveillante ou accidentelle, peut être exécutée sans avertissement et sans trace. Ce n’est pas une bonne idée pour une entreprise.
Deux choses doivent se produire. Premièrement, les agents doivent opérer selon le principe du moindre privilège. Ne les laissez pas accéder à des données ou à des actions sensibles sans autorisation explicite à chaque fois. Deuxièmement, les navigateurs et les plateformes doivent disposer d’un mode agent à l’échelle du système, dans un bac à sable, séparé des environnements personnels et contrôlable.
Les instructions intégrées au contenu ne doivent jamais prévaloir sur l’intention de l’utilisateur. Le contexte de l’action doit provenir des commandes de l’utilisateur, et non du contenu seul. L’autorisation basée sur le champ d’application est également essentielle. Vous devez savoir exactement ce qu’un agent peut faire, quand et sous quelle autorité. Si un agent envoie un message, accède aux dossiers des clients ou lance une opération de backend, l’utilisateur final et les administrateurs doivent disposer de journaux.
Il s’agit de votre couche de contrôle. Les RSSI, les architectes de sécurité et les responsables de plateforme doivent cesser de considérer l’IA comme une interface en lecture seule. Les systèmes agentiques sont actifs, depuis les appels d’API jusqu’à l’exécution des actions. Si vous déployez des agents sans autorisations et protocoles de confirmation étroitement définis, vous introduisez un risque d’entreprise au niveau du système.
Concevoir pour la confiance signifie intégrer de la visibilité et des contraintes dans chaque interaction avec l’agent. Pensez moins à ce que les agents peuvent faire qu’à ce qu’ils devraient être autorisés à faire en fonction de l’autorité de l’utilisateur et du contexte du système. C’est la différence entre une automatisation évolutive et une surface d’attaque exposée.
Les entreprises doivent s’adapter au paysage émergent de l’IA agentique ou risquer l’invisibilité numérique
Alors que les agents d’intelligence artificielle assument de plus en plus de responsabilités dans l’accomplissement des tâches en ligne, le comportement des utilisateurs évolue. Les agents ne font pas défiler, ne naviguent pas et ne regardent pas les publicités. Ils recherchent des résultats, des réservations, des achats, des confirmations, des résolutions. Si votre entreprise n’est pas optimisée pour que les machines atteignent ces résultats, vos services numériques risquent de ne plus être vus ou utilisés, littéralement.
Les indicateurs traditionnels tels que les pages vues et les taux de rebond avaient un sens lorsque les utilisateurs étaient des êtres humains. Mais lorsque des agents d’intelligence artificielle interviennent, l’indicateur clé devient l’accomplissement des tâches. Les agents recherchent des signaux qui leur permettent de fonctionner efficacement. S’ils ne trouvent pas ce dont ils ont besoin (données structurées, API, contenu lisible par une machine), ils échoueront. Et les utilisateurs ne sauront pas que vous existez, parce que leurs agents ne vous verront pas.
Les enjeux sont plus importants dans les contextes B2B. Les sites web grand public partagent déjà un langage de conception commun que vos agents peuvent décoder. Les logiciels d’entreprise, en revanche, ont tendance à être fortement personnalisés et enfermés dans des interfaces qui ne sont pas normalisées. Pour que les agents puissent fonctionner dans ces environnements, les entreprises doivent procéder à des changements délibérés : exposer les API pour la logique métier, aplatir les flux de travail et mettre en œuvre des couches cohérentes que les agents peuvent interpréter.
Les directeurs marketing et les directeurs de la stratégie doivent repenser le fonctionnement de la découvrabilité. La visibilité dans un internet piloté par l’IA n’est plus une question de mots-clés ou de référencement, mais de capacité des systèmes informatiques à naviguer, interpréter et agir sur l’environnement de votre site ou de votre produit.
Cela signifie qu’une présence invisible sur le web n’est pas seulement un problème d’image de marque, mais aussi un problème de pipeline, de revenus et d’efficacité à l’échelle de l’entreprise. Les entreprises qui attendent de se préoccuper de l’accessibilité des agents finiront par être invisibles dans les moments de décision médiatisés par l’IA qui affectent l’achat, l’engagement et le soutien à la clientèle.
L’IA agentique marque une évolution décisive vers un web qui sert efficacement les utilisateurs humains et les machines.
Nous approchons d’un point d’inflexion fondamental. Le web a été conçu pour un accès humain uniquement. Cela a fonctionné. Mais aujourd’hui, les agents d’intelligence artificielle y participent activement et ne sont pas près de disparaître. Au fur et à mesure qu’ils deviendront plus performants, ils seront à l’origine de tout, de la recherche au commerce en passant par le service à la clientèle. Cet avenir ne nécessite pas d’éliminer les humains de l’équation. Il faut simplement y intégrer les machines.
Les sites et les outils qui réussiront seront ceux qui prendront en charge les deux. Concevez pour les personnes, mais intégrez des structures qui donnent de la clarté aux agents : un balisage propre, des API documentées, des enveloppes de sécurité et des chemins dédiés à la réalisation d’actions. Si ces fondements ne sont pas en place, les agents d’intelligence artificielle deviennent des outils peu fiables. S’ils sont en place, ils débloquent des échelles qui étaient auparavant trop complexes, trop lentes ou trop sujettes aux erreurs pour être automatisées.
Certaines expériences montrent que les agents d’aujourd’hui ne sont toujours pas à la hauteur, exécutant des contenus malveillants, ne parvenant pas à naviguer dans les flux de travail et comprenant mal les intentions. Ces échecs mettent en lumière une vérité plus large : les systèmes actuels sont conçus pour une interprétation humaine uniquement. Ce n’est plus viable.
Les PDG et les conseils d’administration doivent considérer qu’il ne s’agit pas seulement d’un changement technique. Il ne s’agit pas d’un changement de fonctionnalité, mais d’une transformation opérationnelle et stratégique. Votre degré de préparation à l’IA déterminera si vos produits numériques resteront utiles, visibles et compétitifs.
Si votre plateforme est lisible par les agents, elle fait partie d’une nouvelle infrastructure native de l’IA. Dans le cas contraire, d’autres vous contourneront complètement. En continuant à innover uniquement à travers une lentille humaine, vous ignorez où se produit la véritable accélération. En ajustant la façon dont vous construisez maintenant, vous vous assurez une pertinence dans un avenir qui est déjà en train de se dessiner.
Le bilan
Ce changement n’est pas théorique, il est déjà en cours. Les agents d’IA commencent à agir au nom des utilisateurs, et le web n’est pas conçu pour eux. Cette inadéquation crée des failles dans la sécurité, la convivialité et la visibilité de l’entreprise. Si vos systèmes n’évoluent pas, ils ne seront pas seulement dépassés, ils seront ignorés.
Pour les décideurs, il s’agit d’un appel à la clarté opérationnelle. Il ne s’agit pas de spéculation ou de tendances. Il s’agit de rendre vos systèmes numériques utilisables à la fois par les personnes et par les machines. Cela signifie qu’il faut mettre en place une structure, sécuriser les intentions, exposer les API et concevoir des flux de travail dans lesquels les agents peuvent naviguer sans problème.
Les entreprises qui agissent maintenant définiront la prochaine étape de la performance numérique. L’IA agentique n’est pas une intégration de plus, c’est un changement fondamental dans le fonctionnement de l’internet. Traitez-la comme une infrastructure. Traitez-la comme une stratégie. Car si vos produits et plateformes ne peuvent pas être vus ou utilisés par les systèmes qui exécutent les intentions des utilisateurs, ils ne seront pas compétitifs.


