Les agents OS alimentés par l’IA évoluent rapidement pour contrôler de manière autonome les appareils numériques.
Les agents OS, abréviation de « Operating System Agents », sont des systèmes d’apprentissage automatique qui peuvent utiliser votre ordinateur ou votre téléphone comme le ferait un humain, mais plus rapidement et avec moins de pauses. Ces agents deviennent capables de naviguer sur des écrans, de cliquer sur des interfaces et de gérer des tâches telles que la planification de réunions, la réservation de vols ou le remplissage de formulaires. Tout cela automatiquement. Le tout en temps réel.
La recherche à l’origine de ces systèmes est passée rapidement des tableaux blancs aux produits de consommation, plus rapidement que la plupart des technologies de plate-forme. Rien que l’année dernière, plus de 60 modèles fondamentaux et 50 cadres d’agents ont été conçus spécifiquement pour contrôler les interfaces comme le ferait un être humain. Ce rythme de progression s’accélère.
Les entreprises ont déjà commencé à mettre en œuvre des produits. OpenAI a lancé « Operator », qui peut gérer l’utilisation d’un ordinateur grâce à l’IA seule. Anthropic a lancé un système appelé « Computer Use ». Apple a ajouté plus d’intelligence et d’interaction avec son « Apple Intelligence », et Google a lancé le « Project Mariner ». Chacune de ces plateformes mise beaucoup sur l’automatisation des tâches directement sur les appareils des utilisateurs, en ne se contentant pas de conseiller l’utilisateur, mais en le remplaçant pour les opérations de routine.
L’objectif final est clair : construire une IA qui agit au nom de l’utilisateur sur toutes les plateformes. Ces agents apprennent à partir des images de l’écran, comprennent ce qu’ils voient et décident ensuite de ce qu’il faut faire. Ils ne se contentent pas de faire des recommandations, ils exécutent des actions.
Cela les rend utiles à grande échelle. Pour les dirigeants soucieux de performance, de rapidité et de réduction du travail répétitif, les agents d’exploitation méritent d’être compris. Ils ne remplacent pas les équipes, pas encore, mais ils se taillent indubitablement une place dans les opérations de l’entreprise.
Les agents du système d’exploitation créent de nouvelles vulnérabilités en matière de cybersécurité
La sécurité devient problématique lorsque les logiciels commencent à penser et à agir par eux-mêmes. C’est exactement ce qui se passe avec les agents du système d’exploitation. Ils observent l’environnement, prennent des décisions et les exécutent sur vos systèmes.
Pour la plupart des entreprises, cela modifie fondamentalement la surface d’attaque. La sécurité traditionnelle des points d’accès est conçue pour empêcher les humains d’être trompés. Mais les agents du système d’exploitation sont des machines, ils ne jugent pas le contenu de la même manière que nous. Et les attaquants le savent.
Les chercheurs ont mis en évidence de nouveaux vecteurs tels que l' »injection d’invites indirectes sur le web », où une page web malveillante peut intégrer des instructions qui manipulent un agent d’intelligence artificielle pour qu’il prenne des mesures involontaires. Il existe également des « attaques par injection environnementale », plus subtiles. Dans ce cas, un site web d’apparence normale peut discrètement rediriger un assistant d’intelligence artificielle pour qu’il divulgue des informations sensibles ou télécharge des données auxquelles il ne devrait pas avoir accès.
Ce qui est effrayant ? L’IA n’hésite pas. Si elle est entraînée à lire et à agir, elle agira, même si cette action viole vos normes de sécurité. Imaginez un outil d’IA ayant accès aux systèmes financiers, aux disques cloud ou aux courriels de l’entreprise. Imaginez maintenant qu’il comprenne mal une page web, ou pire, qu’il suive une page malveillante, et qu’il commence à déplacer des données là où il ne devrait pas.
Les équipes à l’origine de l’enquête ne mâchent pas leurs mots. Elles affirment clairement que les études spécifiques sur la sécurité des agents de systèmes d’exploitation sont « limitées ». En langage académique, cela signifie que nous ne sommes pas prêts.
Pour les dirigeants, il s’agit d’un appel à agir maintenant. Le déploiement d’agents OS peut donner des résultats mesurables, des tâches plus rapides, moins d’erreurs manuelles, mais il doit s’accompagner d’investissements parallèles dans la défense. Quelle que soit la politique ou la formation que vous aviez pour les utilisateurs humains, elle ne s’appliquera pas de la même manière aux agents intelligents. De nouveaux modèles de détection des menaces, de nouveaux audits et de nouvelles contraintes sont nécessaires.
Ignorer cela crée un risque, non seulement de défaillance du système, mais aussi de perte de données, d’atteinte à la réputation, voire de problèmes de conformité dans les secteurs réglementés. L’IA ne pose pas de questions. Elle agit. Cette rapidité exige de nouvelles mesures de protection.
Les agents des systèmes d’exploitation sont actuellement confrontés à des tâches complexes et dépendantes du contexte.
À l’heure actuelle, les agents du système d’exploitation sont capables d’effectuer des tâches simples et reproductibles, de cliquer sur des boutons, de remplir des formulaires et d’extraire des informations d’interfaces bien structurées. Ils utilisent des captures d’écran ou des données d’interface utilisateur rendues, interprètent ce qu’ils voient et prennent des décisions en conséquence. C’est un bon début, et cela fonctionne bien pour l’automatisation de routine qui permet aux utilisateurs de gagner du temps.
Mais lorsque ces agents sont poussés dans des flux de travail plus complexes, en particulier ceux qui nécessitent de raisonner entre différentes applications ou de s’adapter à des changements d’interface inattendus, les performances chutent. Les agents actuels ne sont pas encore capables de maintenir le contexte ou de s’adapter à des mises en page non standard ou à des éléments de conception imprévisibles. Lors des tests, ils ont souvent du mal à gérer les cas limites ou les sites web peu structurés, et peuvent échouer complètement lorsque les interfaces utilisateur sont mises à jour ou chargent le contenu de manière dynamique.
Les données relatives à la réussite des tâches le confirment. Les systèmes obtiennent de bons résultats dans l’apprentissage de l’interface graphique (compréhension des éléments de l’interface) et dans la recherche d’informations structurées. Mais lorsque vous passez à des tâches « agentiques », c’est-à-dire à des processus décisionnels en plusieurs étapes qui s’étendent sur plusieurs outils ou écrans, les taux de réussite chutent. Selon certains critères de référence, les agents commerciaux franchissent à peine la barre des 50 %.
Techniquement, cela est dû au fait que les agents du système d’exploitation reposent sur plusieurs sous-systèmes : la perception de l’écran, la planification des actions, la mémoire et l’exécution du code. Ces systèmes ne sont pas toujours parfaitement alignés. Les erreurs d’une fonction peuvent se répercuter sur les autres. C’est pourquoi les agents les plus performants aujourd’hui se concentrent sur des actions routinières et volumineuses plutôt que sur des tâches multiples de niveau humain.
Pour l’adoption par les entreprises, cela signifie qu’il faut définir des attentes claires. Ces outils sont prêts à prendre en charge les tâches numériques répétitives, mais pas les flux de travail lourds. Il ne s’agit pas de déléguer des décisions stratégiques, mais d’éliminer les frappes au clavier et les manipulations manuelles. Dans ce contexte, la valeur devient tangible.
La personnalisation est en train de devenir une frontière critique mais difficile à franchir pour les agents des systèmes d’exploitation.
L’avenir des agents d’exploitation n’est pas seulement l’exécution, c’est aussi l’adaptation. La communauté des chercheurs se concentre activement sur la manière dont ces agents peuvent apprendre du comportement des utilisateurs pour s’améliorer au fil du temps. Au lieu de traiter chaque demande de manière isolée, les futurs agents devront se souvenir des préférences de l’utilisateur, ajuster les réponses et fonctionner d’une manière qui s’aligne sur les styles de travail individuels.
Ce changement introduit un plafond fonctionnel plus élevé. Un agent personnalisé pourrait se souvenir de la manière dont vous avez structuré vos anciens courriels, comprendre vos habitudes en matière d’horaires, filtrer les informations en fonction de votre rôle et même savoir quelles applications vous évitez. Ce niveau d’adaptation pourrait rendre les flux de travail numériques transparents et très efficaces.
Tout système conçu pour suivre le comportement doit avoir accès aux données comportementales. Cela suscite des inquiétudes en matière de respect de la vie privée. Un agent de système d’exploitation personnalisé doit apprendre par expérience ce sur quoi vous cliquez, pourquoi vous annulez certaines demandes, comment vous nommez les documents internes. Il s’agit d’une vaste empreinte de données. Si ces données ne sont pas sécurisées ou si les modèles d’apprentissage ne sont pas transparents, vous construisez un système de surveillance, pas un assistant.
C’est là que les tensions opérationnelles augmentent. Les systèmes ont besoin d’une meilleure mémoire multimodale, capable de relier les images, le texte et la voix dans le temps, mais les entreprises doivent mettre en place des cadres de gouvernance avant que ces systèmes ne soient mis en service. À l’heure actuelle, la plupart des assistants d’intelligence artificielle sont sans état d’âme. Ils ne se souviennent pas de ce qui s’est passé il y a cinq minutes, ce qui évite les problèmes de confidentialité mais limite l’utilité. Passer à des assistants personnalisés et dotés d’un état signifie passer à une catégorie entièrement différente de données et de responsabilité.
Pour les cadres dirigeants, la personnalisation est puissante, mais elle doit être construite avec des contrôles d’acceptation, une minimisation des données et un comportement explicable. Si elle est bien faite, elle permet de débloquer une productivité importante. Si elle est mal faite, elle crée des risques, notamment des manquements à la conformité, des atteintes à la réputation et une méfiance de la part des utilisateurs.
Le rythme rapide du développement des agents OS nécessite des mesures de gouvernance robustes.
Le cycle de développement des agents de systèmes d’exploitation s’accélère, plus rapidement que la plupart des équipes d’entreprise ne peuvent le faire. Les produits arrivent sur le marché avant que les protocoles de sécurité ne soient finalisés. Des entreprises comme OpenAI, Google, Apple et Anthropic n’attendent pas que les cadres de sécurité les rattrapent. Elles lancent leurs produits.
Ce rythme laisse une lacune importante. Les agents du système d’exploitation agissent déjà de manière autonome sur les appareils des utilisateurs, interagissant avec les courriels, les emplois du temps, les documents et les plateformes en ligne. Lorsque ces systèmes fonctionnent mal ou, pire, sont manipulés, il n’existe que peu de mesures de protection pour en limiter les conséquences. La plupart des organisations continuent d’appliquer des politiques visant les utilisateurs humains. Mais ces agents ne font pas de pause, ne remettent pas en question et ne font pas monter l’incertitude. Ils suivent leur formation. Si les données d’entrée sont erronées, les données de sortie le seront aussi.
L’équipe de recherche à l’origine de la principale étude de référence ne mâche pas ses mots. Les universités et l’industrie s’intéressent de plus en plus à la question, mais les études sur les défenses spécifiques aux agents du système d’exploitation sont encore « limitées ». L’infrastructure de sécurité est à la traîne, non pas parce que la menace n’est pas réelle, mais parce que les outils sont nouveaux et évoluent rapidement. Il en va de même pour la protection de la vie privée et la gouvernance des données. Le déploiement à grande échelle d’un agent d’IA implique de naviguer non seulement dans la mise en œuvre technique, mais aussi dans l’examen réglementaire, en particulier dans des secteurs tels que la finance, la santé et les infrastructures critiques.
Pour les équipes dirigeantes, il ne s’agit pas d’une tâche qui peut être confiée à l’informatique. Elle nécessite de nouvelles normes internes. Cela signifie des politiques pour le déploiement de l’IA, des processus d’audit pour les actions numériques autonomes, des données d’entraînement à l’IA sécurisées et des autorisations strictes pour l’intégration des systèmes.
En termes d’opportunités, le potentiel reste important, mais seulement si les entreprises agissent délibérément. La gouvernance n’est pas là pour ralentir les choses. C’est elle qui permet de passer à l’échelle en toute sécurité. Si ces agents doivent alimenter les interactions des utilisateurs sur des dizaines de millions d’appareils ou au sein de grandes entreprises, les règles fondamentales doivent être en place dès le départ.
Principaux enseignements pour les décideurs
- Les agents de système d’exploitation automatisent l’interaction entre l’utilisateur et l’appareil à grande échelle : Les chefs d’entreprise devraient évaluer dans quelle mesure les agents d’exploitation peuvent améliorer l’efficacité opérationnelle dans les tâches répétitives à haut volume, ces systèmes étant désormais capables de naviguer dans les interfaces et d’exécuter des commandes sans intervention humaine.
- Des failles de sécurité apparaissent à mesure que les systèmes d’IA agissent de manière autonome : Les dirigeants doivent réévaluer les stratégies de cybersécurité pour faire face aux nouveaux vecteurs d’attaque ciblant les agents autonomes, notamment les techniques d’injection rapide qui exploitent la manière dont l’IA traite les informations.
- Les agents sont plus performants dans des environnements limités et contrôlés : Le déploiement doit se concentrer sur des flux de travail étroits et routiniers dans lesquels les agents OS excellent, tandis que les processus critiques ou variables doivent rester sous surveillance humaine jusqu’à ce que les modèles arrivent à maturité.
- La personnalisation est synonyme de puissance et de risques : Les équipes dirigeantes devraient explorer les modèles d’agents personnalisés pour une efficacité à long terme, mais doivent parallèlement mettre en place des protocoles de protection de la vie privée, des protocoles d’acceptation et des cadres sécurisés de traitement des données.
- La gouvernance doit aller plus vite que la technologie : il est désormais urgent de mettre en place une surveillance de l’IA, des politiques d’utilisation et des contrôles d’intégration, car les principaux fournisseurs déploient des systèmes avant que les normes du secteur ne soient établies.