L’erreur humaine amplifie le risque dans les systèmes basés sur l’IA

La sécurité se résume souvent à de simples décisions humaines, et à l’impact qu’elles ont lorsque l’IA est introduite. Prenons l’exemple de la faille de McHire chez McDonald’s. Leur plateforme, utilisée pour le l’embauche assistée par l’IAa exposé les données de 64 millions de candidats. Pourquoi ? Un compte administrateur a été laissé avec le mot de passe « 123456 ». C’est un raccourci humain.

Voici le problème. Les systèmes d’IA fonctionnent à grande échelle. Si quelque chose ne va pas, c’est vite fait et c’est énorme. La faille de McHire n’a pas été causée par l’IA elle-même, mais l’IA amplifie les conséquences de mauvaises décisions comme celle-ci. Une fois que des données sensibles sont acheminées dans un pipeline soutenu par l’IA, un contrôle d’accès insuffisant pose un problème qui fait boule de neige. De nombreux dirigeants considèrent encore l’IA comme une architecture sécurisée et isolée. Ce n’est pas le cas. Elle est intégrée à tout, et lorsque tout le monde y a accès, la surveillance de la sécurité n’est plus optionnelle.

Les dirigeants doivent maintenant renforcer la gouvernance. Les mots de passe par défaut ne devraient pas exister dans les environnements de production. C’est une évidence. Mais plus important encore, les équipes doivent partir du principe que les plateformes d’IA seront ciblées en raison du poids de leurs données et de leur rapidité d’accès. Vous ne pouvez pas sécuriser ces systèmes de manière réactive. Ils exigent une modélisation proactive des menaces, une surveillance continue et des audits automatisés. Et tout cela doit être intégré dès le premier jour.

Une plateforme qui traite des millions de dossiers de candidats ne doit tolérer aucun raccourci. Même dans les organisations qui évoluent rapidement, la priorité doit être donnée à la qualité des fondamentaux plutôt qu’à la mise sur le marché en premier. Car lorsque l’IA entre dans votre flux de travail, tout va plus vite, y compris les défaillances de sécurité. De meilleurs outils ne protégeront pas de mauvais processus. Il faut d’abord mettre en place des processus corrects.

L’adoption de l’IA élargit le paysage des menaces de cybersécurité

Lorsque vous intégrez l’IA dans une entreprise, vous augmentez sa surface. Les systèmes d’IA ont besoin d’accéder à des volumes massifs de données. Ces données ne sont pas centralisées. Elles circulent à travers le stockage dans le cloud, les plateformes SaaS, les apps internes et les API tierces. Chaque connexion est un point d’entrée potentiel. Chaque point de contact avec les données est une vulnérabilité potentielle.

Beaucoup d’entreprises sous-estiment ce que cela signifie. Elles déploient l’IA pour améliorer l’efficacité ou obtenir des informations, mais ne prennent pas en compte les implications en matière de sécurité. Vous ne vous contentez pas d’intégrer un outil, vous intégrez un système qui veut s’étendre à tous les services, recueillir autant de données que possible et tirer des enseignements de toutes ces données. Cet appétit ouvre de nouveaux vecteurs d’attaque. S’appuyer sur des dispositifs de sécurité historiques conçus pour des systèmes statiques ne suffira pas.

La vitesse et le dynamisme de l’IA ne s’alignent pas naturellement sur les modèles de sécurité traditionnels. Les pare-feu statiques, les outils d’analyse cloisonnés et les cycles de correctifs manuels ne suffiront pas. Si l’IA est en temps réel, la sécurité doit l’être aussi. L’analyse comportementale continue, la gestion adaptative des identités et l’automatisation intelligente doivent faire partie du modèle opérationnel standard. Sinon, l’ampleur des risques dépassera votre capacité à les gérer.

La tendance est déjà visible. Alors que de plus en plus d’entreprises migrent leurs opérations d’IA vers des environnements multicloud, la complexité de la détection des menaces monte en flèche. Les fournisseurs de cloud ne sécurisent pas vos applications. C’est toujours votre travail. Et l’IA place la barre plus haut. Plus votre IA se connecte à de nombreux systèmes, plus ces voies d’accès deviennent performantes et attrayantes pour les acteurs de la menace.

Si vous faites partie de la direction, votre posture de sécurité doit évoluer parallèlement à votre stratégie en matière d’IA. Il ne s’agit pas de pistes distinctes. Elles évoluent ensemble. Lorsque l’IA fait progresser l’entreprise, la sécurité doit être intégrée, et non pas ajoutée après coup. Les entreprises qui ont compris cela resteront en tête. Celles qui ne le comprennent pas prendront du retard. Rapidement.

Complexité des licences de logiciels dans le contexte des fusions et acquisitions

Lorsque les entreprises procèdent à des fusions ou à des acquisitions, la question des licences logicielles devient souvent un point sensible. Il s’agit de comprendre quels sont les termes qui survivent à la transaction, ceux qui sont renégociés et ceux qui sont rompus. Siemens l’a appris à ses dépens après que Broadcom a racheté VMware et modifié les conditions de son modèle de licence. Ce changement a créé une réelle incertitude quant au maintien de l’accès à des logiciels essentiels.

Voici pourquoi cela est important au niveau de la direction : de nombreuses opérations critiques reposent encore sur des contrats à long terme avec des fournisseurs de logiciels. Si ces fournisseurs changent de mains, les conditions de licence peuvent changer du jour au lendemain. Soudain, vous n’avez plus d’accès garanti aux mises à jour, aux correctifs ou à l’assistance. Pour une entreprise dont l’infrastructure globale repose sur des logiciels tels que VMware, il ne s’agit plus seulement d’un problème de conformité, mais d’un problème de stabilité.

Les fusions-acquisitions concernent de plus en plus les grands fournisseurs de plateformes. Et lorsque la question des licences n’est pas explicitement abordée dans les contrats au cours de l’audit préalable, il en résulte une ambiguïté juridique, un risque opérationnel et une exposition à des coûts imprévus. Cette situation place les DSI et les directeurs techniques en mode réactif, ce qui est à l’opposé d’un contrôle stratégique.

Ce qu’il faut en retenir : les équipes dirigeantes doivent considérer les licences de logiciels comme un élément essentiel de la stratégie de fusion et d’acquisition. Les services juridiques, les services d’approvisionnement et les services informatiques doivent s’aligner avant toute transaction. Comprenez non seulement ce qui figure dans le contrat, mais aussi ce qui se passe si le fournisseur est racheté, si les délais d’assistance changent ou si les modèles de tarification évoluent. Ce sont des scénarios qui peuvent perturber la continuité de l’activité.

La situation de Siemens est très claire. Vous ne pouvez pas supposer que les conditions d’aujourd’hui seront valables demain sous un autre propriétaire. Les entreprises qui veulent rester flexibles et protégées doivent vérifier régulièrement leurs dépendances logicielles et inclure des clauses d’escalade qui anticipent le changement. Si vous êtes à la tête de l’entreprise, assurez-vous que vous ne travaillez pas sur la base d’hypothèses non sécurisées lorsqu’il s’agit de plates-formes sur lesquelles vos équipes s’appuient. Car une fois que vous avez signé l’accord, vous avez perdu la plupart de vos moyens de pression.

L’IA agentique et les jumeaux numériques révolutionnent la prise de décision au sein de la main-d’œuvre

L’IA agentique et les jumeaux numériques redéfinissent déjà le mode de fonctionnement des entreprises. Ces systèmes simulent des environnements en temps réel et prennent des décisions autonomes basées sur des données dynamiques. Cela modifie l’architecture de l’entreprise. Cela change aussi la façon dont les gens travaillent à l’intérieur de l’entreprise. Selon Smart Answers, 15 % des décisions quotidiennes devraient être prises de manière autonome dans un avenir proche. Il ne s’agit pas d’automatisation, mais d’une IA qui gère activement la complexité avec une implication humaine minimale.

L’impact initial sera le plus visible dans des fonctions telles que l’assistance informatique. Les tâches répétitives à haut volume sont une mauvaise utilisation de la main-d’œuvre qualifiée. L’IA agentique peut les gérer avec plus de rapidité, de précision et de rentabilité. Cela libère du personnel, mais cela oblige aussi à un changement. À mesure que les machines s’occupent de la mécanique, les humains doivent occuper des rôles où l’intuition, la créativité et le jugement ont plus d’importance. Cela signifie qu’il faut repenser la structure des équipes, la stratégie opérationnelle et les priorités d’embauche dans les différents services.

Il s’agit d’une phase de transition. Les entreprises qui s’y prennent tôt obtiendront des rendements composés. Elles réduiront les frictions opérationnelles et augmenteront le rendement par employé. Mais il ne s’agit pas seulement de mettre en œuvre l’IA. Il s’agit de créer un modèle dans lequel les humains et les machines ne font pas double emploi, mais se complètent. Cela nécessite de la coordination. Les dirigeants doivent identifier les domaines dans lesquels la prise de décision autonome ajoute de la valeur et ceux dans lesquels la supervision humaine reste essentielle.

La formation est importante dans ce domaine. Votre personnel ne peut pas apporter de valeur ajoutée stratégique s’il est contraint d’effectuer des tâches que l’IA fait déjà mieux. La formation continue devient une priorité. Il ne s’agit pas d’une initiative ponctuelle, mais d’un état d’esprit organisationnel permanent. L’IA progresse rapidement. Votre personnel doit garder une longueur d’avance, que ce soit sur le plan technique, stratégique ou opérationnel.

Alors oui, l’IA s’empare des points de décision. Ce n’est pas une menace, c’est une opportunité. Mais seulement si les dirigeants mettent en place les systèmes, les incitations et la culture nécessaires pour aligner les humains et l’IA sur des résultats concrets. Les entreprises intelligentes le reconnaîtront très tôt et agiront en conséquence.

Principaux enseignements pour les décideurs

  • L’erreur humaine s’étend à l’IA : de simples failles de sécurité, comme des mots de passe par défaut faibles, ont des conséquences démesurées dans les systèmes basés sur l’IA en raison de leur vitesse et de leurs exigences en matière d’accès aux données. Les dirigeants devraient donner la priorité à la discipline de sécurité de base avant de faire évoluer les plateformes d’IA.
  • L’IA élargit les surfaces d’attaque : L’IA exige un large accès aux données dans l’ensemble de l’infrastructure cloud, ce qui rend les modèles de sécurité traditionnels insuffisants. Les dirigeants doivent investir dans la détection des menaces en temps réel et dans une cybersécurité proactive adaptée à la portée de l’IA.
  • Les fusions et acquisitions entraînent des risques liés aux licences logicielles : Les changements de propriété des fournisseurs, comme l’acquisition de VMware par Broadcom, peuvent perturber les conditions de licence existantes et l’accès aux logiciels. Les équipes dirigeantes devraient réévaluer les accords de licence lors de toute fusion-acquisition afin d’éviter tout risque opérationnel.
  • L’IA agentique modifie les priorités de la main-d’œuvre : Avec 15 % des décisions quotidiennes bientôt gérées de manière autonome, les tâches à faible valeur ajoutée seront de plus en plus transférées à l’IA. Les dirigeants doivent réorienter les équipes vers des rôles stratégiques, créatifs et de supervision pour tirer toute la valeur de l’intégration de l’IA.

Alexander Procter

septembre 17, 2025

10 Min