L’UE a interdit les assistants virtuels dotés d’IA dans les réunions officielles en ligne.

Sans surprise, la Commission européenne vient d’interdire les agents d’IA des réunions en ligne organisées dans son domaine. Il s’agit notamment du type d’IA qui prend des notes, transcrit des discours ou enregistre des séquences vidéo et audio pendant les appels. La règle a été discrètement introduite dans une présentation aux centres européens d’innovation numérique, dans la section « Étiquette des réunions en ligne ». Pas de fanfare. Pas de justification détaillée. Juste une directive claire : « Aucun agent d’intelligence artificielle n’est autorisé ».

Ne perdons pas de vue ce que cela signifie réellement. La Commission ne dit pas que les modèles d’IA sont illégaux. Elle fixe une limite lorsqu’il s’agit de logiciels autonomes qui se présentent à l’improviste dans des environnements sensibles, tels que les réunions de l’UE. Il ne s’agit pas de syntaxe ou de sémantique, mais de confiance, de contrôle et de responsabilité. Ces agents d’intelligence artificielle ne se contentent pas de capturer des données, ils fonctionnent de leur propre chef, exécutant parfois des actions ou partageant des données entre systèmes sans que l’utilisateur en soit pleinement conscient. Cela crée un problème de visibilité. Dans les environnements réglementés, c’est un signal d’alarme.

Les dirigeants doivent comprendre ce qui se profile à l’horizon. L’Acte sur l’IA, la législation la plus large de l’UE, prévoit déjà des politiques strictes pour l’utilisation générale de l’IA dans l’ensemble de l’Union. Mais avec cette décision, nous nous trouvons face à quelque chose de plus immédiat. Le message est direct : n’introduisez pas d’agents autonomes, ou les systèmes qui les sous-tendent, dans les réunions à moins que vous ne sachiez exactement ce qu’ils font.

Les entreprises qui utilisent l’IA au niveau de l’entreprise doivent tenir compte d’un exercice d’équilibre. Les dirigeants doivent prendre les devants et ne pas réagir une fois que l’application de la loi est devenue réalité. Le fait qu’aucune explication officielle n’ait été publiée montre clairement que la Commission a d’autres préoccupations sous la surface. Elle verrouille la situation avant que les agents d’intelligence artificielle ne soient traités comme un simple plugin de réunion. Et c’est franchement ce qu’il faut faire lorsque la transparence n’est pas garantie.

Les agents d’intelligence artificielle présentent des risques importants pour la sécurité et la vie privée en raison de leurs capacités opérationnelles autonomes et en plusieurs étapes.

Les agents d’IA ne sont pas de simples outils, ce sont des systèmes qui agissent. Et lorsque ces systèmes prennent des décisions ou déclenchent des opérations sans intervention continue de l’utilisateur, le profil de risque change. C’est exactement ce qui se passe dans la phase actuelle de l’IA agentique. Ces modèles n’attendent pas toujours une autorisation. Ils accomplissent des tâches, s’engagent dans des interfaces, opèrent à travers des couches logicielles et, parfois, l’utilisateur ne sait même pas ce qui vient de se passer.

Le vrai problème n’est pas seulement ce que les agents d’intelligence artificielle peuvent faire. Il s’agit de ce qu’ils peuvent faire lorsque personne ne les surveille assez attentivement. Un rapport publié en 2025 par un groupe de chercheurs mondiaux spécialisés dans la sécurité de l’IA a mis en évidence trois problèmes spécifiques : la méconnaissance de l’utilisateur, les agents agissant hors du contrôle de l’utilisateur et les interactions autonomes entre différents agents. Lorsque vous combinez ces caractéristiques dans les systèmes d’entreprise, vous créez un paysage de menaces qui est plus difficile à prévoir et encore plus difficile à atténuer.

La fonction Recall de Microsoft est un avertissement qui mérite d’être étudié. Elle semble utile, car elle permet de faire des captures d’écran pour créer une chronologie navigable de l’utilisation du système. Mais derrière cette commodité ? Des préoccupations importantes et valables concernant la vie privée, la conservation des données et la transparence pour l’utilisateur. Les réactions négatives ont contraint Microsoft à retarder son déploiement et à changer de stratégie. Cette technologie n’a pas connu de dysfonctionnement. Elle a fait exactement ce pour quoi elle a été conçue, mais elle l’a fait d’une manière que les consommateurs et les régulateurs ont trouvée profondément inconfortable. C’est ce malaise que nous devons tous suivre.

Pour les dirigeants, la conclusion est simple : la surveillance doit évoluer avec les outils. À mesure que les agents d’IA deviennent plus performants et plus autonomes, les organisations doivent savoir clairement où ces agents opèrent, comment ils traitent les données et quelles sont les conséquences imprévues qui peuvent en découler. Les cybermenaces ne se manifestent pas toujours par la force brute. Parfois, elles commencent par une IA qui exécute discrètement une tâche d’arrière-plan que personne n’a autorisée explicitement.

Même si un agent fonctionne bien aujourd’hui, son comportement à long terme dans les systèmes, en particulier s’il est intégré à plusieurs autres outils, ne peut pas être considéré comme sûr dans des conditions complexes. Les dirigeants doivent prendre des décisions non seulement sur la base des performances actuelles, mais aussi sur la capacité du système à respecter les contraintes de manière fiable dans des cas d’utilisation imprévisibles. C’est là que réside le véritable défi.

Malgré les problèmes de sécurité, la fonctionnalité et l’adoption des agents d’intelligence artificielle se développent rapidement dans tous les secteurs d’activité

Les fonctionnalités s’étendent rapidement. Les entreprises technologiques ne ralentissent pas, au contraire. En octobre 2024, Anthropic a déployé une fonction « Utilisation de l’ordinateur » dans son chatbot Claude Sonnet, lui permettant de contrôler les environnements de bureau : déplacer des curseurs, taper du texte, cliquer sur des boutons. Ce type de fonctionnalités marque une évolution fondamentale vers l’exécution de tâches par l’IA sans l’intervention traditionnelle d’un être humain. Cette année également, Anthropic a lancé une capacité de recherche approfondie qui permet à Claude de répondre de manière « agentive » à des messages. Cela signifie plus d’initiative. Plus d’autonomie.

OpenAI fait de même. En janvier 2025, elle a lancé Operator, un agent d’intelligence artificielle intégré au navigateur qui peut organiser des réservations ou passer des commandes en ligne, de manière autonome. Aucune microgestion n’est nécessaire. Et il ne s’agit pas d’efforts isolés. OpenAI et Anthropic collaborent désormais. OpenAI a intégré le Model Context Protocol d’Anthropic, une norme partagée pour mieux connecter les outils d’IA aux environnements de données structurées. Anthropic s’est également associé à Databricks pour aider les entreprises clientes à créer et à déployer des agents d’IA personnalisés à grande échelle. Il y a là un alignement entre le développement des capacités et le déploiement commercial.

Malgré les inquiétudes liées à la surveillance et au contrôle, l’adoption de ces systèmes s’accélère. Selon TechRepublic, les systèmes agentiques devraient connaître une forte croissance en 2025. Ce n’est pas de la spéculation. C’est imminent. Gartner prévoit que d’ici 2028, 33 % des logiciels d’entreprise comprendront des agents d’IA, contre moins de 1 % quatre ans plus tôt. À cette date, les agents seront à l’origine d’une interaction sur cinq dans le commerce de détail en ligne et influenceront au moins 15 % des décisions commerciales quotidiennes.

Les leaders de la technologie ont compris où cela mène. En janvier 2025, le PDG d’OpenAI, Sam Altman, a été clair : la prochaine évolution ne se limite pas à des réponses intelligentes, c’est l’action autonome. Il a déclaré que les agents d’IA pourraient « rejoindre la population active » cette année et « modifier matériellement la production des entreprises ». Ces outils ne sont pas des extensions. Ils commencent à façonner les flux de travail de base.

Pour les dirigeants, c’est le moment d’agir stratégiquement. Un déploiement sans politique conduit à une exposition inutile. Mais bloquer le déploiement sans expérimentation limite les bénéfices potentiels. L’étape pratique consiste à établir des orientations internes tout en pilotant ces systèmes là où l’impact est mesurable. Les organisations qui tireront profit de l’IA agentique seront celles qui concevront des environnements pour la gérer, et pas seulement pour réagir à ce qu’elle pourrait faire.

Faits marquants

  • L’UE interdit les agents d’IA lors des réunions officielles : La Commission européenne interdit désormais les assistants d’IA lors des appels vidéo officiels, ce qui reflète l’attention réglementaire croissante portée à l’autonomie de l’IA dans les environnements sensibles. Les dirigeants devraient évaluer la visibilité et la traçabilité des outils d’IA utilisés dans des contextes de haute conformité.
  • Risques de sécurité liés à l’autonomie des agents d’IA : Les agents d’IA qui agissent sans surveillance présentent de sérieux risques, notamment la collecte de données non autorisées et des actions au niveau du système. Les dirigeants doivent mettre en œuvre des protocoles de surveillance stricts et limiter l’accès non supervisé des agents aux flux de travail critiques.
  • L’adoption d’agents d’intelligence artificielle par les entreprises s’accélère : Malgré les inquiétudes liées à la réglementation et à la sécurité, les entreprises technologiques intègrent rapidement l’IA agentique dans leurs applications. Les dirigeants devraient lancer dès maintenant des projets pilotes contrôlés pour évaluer les fonctionnalités, atténuer les risques et se préparer à un déploiement à grande échelle d’ici 2028.

Alexander Procter

mai 20, 2025

8 Min