Les professionnels britanniques de la technologie recherchent une formation avancée et spécifique à leur rôle en matière d’IA

L’IA n’est plus un outil secondaire pour la main-d’œuvre technologique au Royaume-Uni, elle est intégrée dans presque toutes les tâches. Pourtant, de nombreux professionnels travaillent encore sans la formation adéquate pour l’utiliser efficacement. Selon une étude de La Fosse, 92 % des professionnels britanniques de la technologie utilisent l’IA quotidiennement, mais seulement 58 % d’entre eux ont reçu une formation formelle. Même lorsque la formation existe, beaucoup la décrivent comme trop générique ou trop basique pour leur rôle. Les travailleurs ne veulent pas d’un autre aperçu des principes fondamentaux de l’IA, ils veulent une formation qui les aide à appliquer l’IA directement aux décisions qu’ils prennent, aux rapports qu’ils rédigent et aux produits qu’ils construisent.

Lorsque l’IA fait partie des opérations quotidiennes, chaque employé doit savoir non seulement comment utiliser le système, mais aussi comment le questionner intelligemment. C’est ce qui transforme l’IA d’une fonctionnalité brillante en un outil qui améliore les résultats réels de l’entreprise. Pour les entreprises, cela signifie qu’il faut s’éloigner d’un simple apprentissage magistral au profit d’une formation continue axée sur le rôle de chacun. Les connaissances en matière d’IA doit évoluer en temps réel avec la façon dont les employés travaillent. Les entreprises qui opèrent ce changement bénéficieront d’une adaptation plus rapide, d’une réduction des erreurs opérationnelles et de résultats stratégiques plus solides.

Pour les dirigeants de C-suite, cette tendance met en évidence la nécessité d’investir dans des infrastructures d’apprentissage qui sont agiles et directement pertinentes pour les fonctions professionnelles. Un cadre unifié, à l’échelle de l’entreprise, pour la formation à l’IA ne fonctionnera plus. La formation doit évoluer en fonction de responsabilités et de contextes décisionnels spécifiques, les équipes juridiques ont besoin de capacités différentes de celles des équipes de données ou des ingénieurs produits. Une approche personnalisée, basée sur les fonctions, garantit que les employés ne se contentent pas d’utiliser l’IA, mais qu’ils la comprennent suffisamment pour améliorer leur jugement, leur efficacité et leur gouvernance.

Les lacunes en matière de formation sont les plus graves chez les employés de niveau débutant et intermédiaire.

Les personnes qui utilisent le plus souvent l’IA dans les entreprises sont celles qui reçoivent le moins de formation. Les employés de niveau débutant et intermédiaire, ceux qui réécrivent des courriels, résument des notes et prennent des décisions opérationnelles modestes mais constantes, sont souvent exclus des programmes d’apprentissage formels. Selon l’enquête de La Fosse, seuls 26 % des travailleurs débutants et 34 % du personnel intermédiaire ont bénéficié d’une formation formelle à l’IA, contre 94 % des dirigeants. Cela crée un déséquilibre majeur : les dirigeants comprennent l’IA sur le plan conceptuel, mais les personnes qui la mettent en œuvre quotidiennement n’ont pas les connaissances approfondies nécessaires pour la gérer de manière responsable.

Cette structure de formation inégale est plus qu’un problème de compétences, c’est un problème de risques. Lorsque le personnel subalterne utilise l’IA sans la comprendre correctement, les erreurs passent inaperçues, les préjugés se répandent et les risques commerciaux s’aggravent. Pour les dirigeants, la leçon est simple : le meilleur retour sur investissement en matière de compétences en IA ne vient pas d’un autre séminaire pour dirigeants, mais de l’habilitation des opérateurs. L’autonomisation des équipes de niveau intermédiaire et de débutants grâce à une formation plus intelligente et davantage axée sur le contexte améliorera la qualité globale de la production dans l’ensemble de l’organisation.

Les dirigeants devraient se concentrer sur la mise en place de parcours accessibles combinant une formation structurée et des tests pratiques réguliers. Des boucles de retour d’information continues permettent de s’assurer que l’application pratique est conforme aux objectifs de l’entreprise et aux normes éthiques. Lorsque les personnes qui travaillent le plus près de l’IA ont des compétences plus solides, les organisations peuvent avoir confiance dans le travail effectué et développer l’automatisation en toute confiance. C’est ainsi que la prochaine génération d’équipes productives et dotées d’IA sera construite, sur la base de la compétence, de l’équilibre et de la responsabilité.

Experts Okoone
PARLONS-EN !

Un projet en tête ?
Planifiez un appel de 30 minutes avec nous.

Des experts senior pour vous aider à avancer plus vite : produit, tech, cloud & IA.

Veuillez saisir une adresse email professionnelle valide.

L’absence de formation adéquate entraîne des risques importants pour l’entreprise et la gouvernance.

Les systèmes d’IA ne sont fiables que dans la mesure où les personnes qui les utilisent le sont. Sans une formation adéquate, même les outils avancés introduisent de nouveaux points de défaillance dans une organisation. Les données de l’étude de La Fosse montrent que seuls 37 % des techniciens britanniques vérifient toujours les résultats de l’IA avant de les utiliser, tandis que 67 % d’entre eux ont vu l’IA provoquer des erreurs dans leur entreprise. Parmi les cadres, 29 % admettent que ces erreurs ont eu un impact sérieux sur l’activité de l’entreprise. Cette tendance confirme un risque croissant : les employés font confiance aux résultats de l’IA sans comprendre comment ces résultats sont produits ou quels sont les biais possibles.

L’utilisation incontrôlée de l’IA nuit à la prise de décision et à la gouvernance. Lorsque les employés n’ont pas la capacité critique d’examiner et de remettre en question les résultats automatisés, les organisations perdent la visibilité sur la façon dont les décisions sont prises. Des procédures de vérification incohérentes rendent plus difficile le suivi des responsabilités, ce qui expose les entreprises à un risque plus élevé de violation de la conformité et à des résultats de mauvaise qualité. Pour les dirigeants, cette situation appelle une réponse directe. La formation à l’IA doit intégrer la vérification et la sensibilisation à la gouvernance dans chaque processus où la technologie est utilisée.

Les dirigeants devraient veiller à ce que les contrôles relatifs au matériel généré par l’IA soient aussi intégrés dans les flux de travail que les contrôles de confidentialité des données ou de cybersécurité. Les programmes de formation devraient inclure des étapes claires pour la validation, l’examen humain et la responsabilité. Les employés qui comprennent où s’arrête la fiabilité de l’IA et où s’arrête la supervision humaine deviennent des atouts plus solides pour maintenir la qualité et la confiance. Les entreprises qui investissent dans une formation pratique à ce niveau renforcent la résilience contre les perturbations opérationnelles tout en améliorant la conformité éthique et réglementaire.

Les employeurs doivent intégrer l’enseignement de l’IA directement dans des applications professionnelles réelles plutôt que de s’appuyer sur des sessions génériques.

La plupart des formations à l’IA sont aujourd’hui axées sur la théorie et non sur la pratique. Cela ne fonctionne plus. Claudia Cohen, directrice de La Fosse Academy, affirme que « l’IA n’est plus à côté des rôles, elle les remodèle activement ». Pourtant, la plupart des programmes de formation en entreprise continuent de traiter l’IA comme un concept abstrait plutôt que comme une compétence pratique. M. Cohen souligne que les employés utilisent des outils d’IA tous les jours, réécrivant du contenu, interprétant des données et automatisant de petites tâches, mais sans avoir reçu d’instructions appropriées et spécifiques à leur poste. Cela crée un fossé entre la manière dont l’IA est censée améliorer la productivité et la manière dont elle est réellement utilisée dans les décisions quotidiennes.

La priorité des dirigeants devrait être d’aligner l’apprentissage directement sur les exigences des rôles. Par exemple, les équipes juridiques doivent savoir comment utiliser l’IA pour examiner les contrats avec précision et contrôler l’exposition aux risques. Les services d’apprentissage et de développement devraient utiliser l’IA pour concevoir des programmes plus rapides et mieux adaptés, tandis que les équipes opérationnelles devraient se concentrer sur la prise de décision fondée sur les données. Ces distinctions fonctionnelles sont essentielles. Elles transforment l’IA d’un concept général en un outil de performance mesurable lié aux résultats du département.

Les entreprises devraient abandonner les ateliers ponctuels ou les supports d’apprentissage ad hoc. Une formation continue, basée sur des applications, est bien plus efficace. Elle permet aux employés d’affiner la manière dont ils utilisent les outils d’IA et de comprendre leurs limites. Les dirigeants qui intègrent la formation continue dans les processus quotidiens veillent à ce que leurs équipes restent à jour et compétentes. Le résultat est une main-d’œuvre qui utilise l’IA non seulement efficacement, mais aussi intelligemment, en accord avec les objectifs de l’entreprise et capable de s’adapter à l’émergence de nouvelles capacités d’IA.

La cybersécurité, la confidentialité et l’intégrité des données sont considérées comme des domaines prioritaires pour la formation à l’IA.

L’IA devenant une composante essentielle des opérations des entreprises, le besoin d’une formation plus solide en matière de cybersécurité, de confidentialité des données et d’intégrité des données est devenu urgent. Dans l’enquête de La Fosse, 39 % des professionnels britanniques de la technologie ont déclaré avoir besoin d’une formation ciblée sur la cybersécurité et la protection de la vie privée, tandis que 34 % ont souligné que l’analyse, la visualisation et la qualité des données étaient des priorités essentielles. Ces domaines de compétences constituent le fondement d’une utilisation sûre et responsable de l’IA. Si elles ne les maîtrisent pas, les organisations s’exposent à des violations de données, à des biais algorithmiques et au non-respect de normes réglementaires en constante évolution.

Pour les dirigeants, il ne s’agit pas seulement d’un problème de formation technique, mais d’une nécessité stratégique. L’IA dépend de données de haute qualité et de systèmes sécurisés pour fonctionner efficacement. Si l’intégrité des données est compromise, les résultats de l’IA perdent en fiabilité, ce qui conduit à des décisions basées sur des informations erronées. Alors que les réglementations en matière de protection de la vie privée se durcissent à l’échelle mondiale, du GDPR en Europe aux lois sur la protection des données au niveau des États aux États-Unis, les organisations qui ne disposent pas d’employés compétents dans ce domaine s’exposent à des dommages juridiques et à des atteintes à leur réputation.

Les dirigeants doivent veiller à ce que ces sujets soient intégrés dans chaque programme de formation à l’IA, et non traités comme des cours distincts. La cybersécurité doit couvrir la manière dont les systèmes d’IA traitent et stockent les informations, tandis que les instructions relatives à la protection de la vie privée doivent expliquer le consentement, le traitement des données et les risques de violation en aval. Les modules sur l’intégrité des données devraient se concentrer sur la validation, la transparence et la gestion de la lignée afin que les employés comprennent le cycle de vie complet de l’information dans les pipelines d’IA. Une formation adaptée dans ces domaines aide les employés à sécuriser les systèmes, à interpréter les résultats de l’IA de manière responsable et à instaurer la confiance avec les clients et les partenaires.

L’apprentissage continu et l’expérimentation en toute sécurité sont essentiels pour l’adoption à long terme de l’IA.

Former les employés une seule fois et s’attendre à des compétences durables ne fonctionne pas dans un environnement où l’IA évolue tous les mois. Une capacité durable en matière d’IA est le fruit d’un apprentissage continu, d’une expérimentation régulière et d’un échange structuré entre pairs. Claudia Cohen, directrice de La Fosse Academy, observe que de nombreuses organisations utilisent l’IA sans en avoir la capacité. Les équipes utilisent des outils, mais ne développent pas la compréhension approfondie nécessaire pour optimiser les résultats ou gérer les risques associés. Cet écart se creuse au fil du temps si les entreprises n’institutionnalisent pas l’apprentissage continu.

Pour les cadres, l’objectif est de créer une culture qui permette aux employés de s’améliorer par une pratique constante, et non par un enseignement sporadique. Il s’agit notamment de prévoir du temps pour la formation pratique, les sessions de collaboration et l’application réelle sur le lieu de travail. Les employés doivent être encouragés à tester les outils d’IA, à évaluer leur efficacité et à partager les leçons en interne. Lorsque l’apprentissage fait partie intégrante du mode de fonctionnement des employés, la rétention des connaissances s’améliore, l’adoption se fait en douceur et l’innovation interne s’accélère naturellement.

M. Cohen insiste également sur le fait qu’un accès déséquilibré à la formation limite les progrès. Le personnel subalterne et intermédiaire, celui qui utilise le plus fréquemment l’IA, devrait avoir la priorité absolue. Lorsque les personnes les plus proches des opérations quotidiennes acquièrent une meilleure connaissance de l’IA, tout le monde en profite. La prise de décision est plus rapide, le traitement des données est plus sûr et la qualité des résultats s’améliore. Pour y parvenir, les dirigeants doivent investir dans des programmes permanents qui évoluent avec les changements technologiques. L’apprentissage constant et l’expérimentation structurée préparent les équipes aux perturbations futures tout en maintenant la stabilité et la confiance dans la manière dont l’IA est déployée dans l’ensemble de l’organisation.

Il est essentiel d’équilibrer les principes fondamentaux de l’IA et les applications pratiques pour éviter les erreurs d’orientation dans l’utilisation de l’IA.

L’enseignement de l’IA doit combiner deux éléments : une solide compréhension de ses principes fondamentaux et la capacité d’appliquer ces principes de manière efficace sur le lieu de travail. De nombreuses organisations se concentrent trop sur un seul aspect, soit en mettant trop l’accent sur les principes techniques fondamentaux, soit en poussant à une mise en œuvre immédiate sans les bases appropriées. Ces deux voies sont incomplètes. Sans connaissances fondamentales, les employés risquent de mal comprendre le fonctionnement des modèles d’IA ou de mal interpréter leurs résultats. Sans formation pratique, la compréhension théorique reste déconnectée de la valeur commerciale.

Pour les dirigeants, le défi consiste à maintenir cet équilibre à tous les niveaux de l’entreprise. Les équipes doivent en savoir suffisamment sur la structure de l’IA, les dépendances des données et les limites pour agir avec discernement. Ces connaissances les aident à reconnaître quand les résultats nécessitent une supervision humaine ou quand ils indiquent un biais potentiel ou une mauvaise qualité des données. Parallèlement, l’efficacité opérationnelle découle d’une formation pratique qui associe ces principes à des tâches réelles, qu’il s’agisse d’analyse, d’automatisation, de communication ou de conformité. Les dirigeants devraient veiller à ce que ces deux composantes soient intégrées dans les cadres de formation, afin de former des personnes capables d’utiliser l’IA avec habileté tout en respectant les limites du jugement humain.

Claudia Cohen, directrice de l’Académie La Fosse, l’a clairement affirmé : « L’IA peut accélérer l’expérience, mais elle ne peut pas remplacer le jugement ». Ce point est profondément important pour les organisations qui intègrent l’IA à grande échelle. L’interprétation humaine reste essentielle pour maintenir les normes éthiques, l’exactitude des données et le contrôle stratégique. Les dirigeants doivent s’assurer que les équipes ne sont pas dirigées uniquement par l’automatisation, mais guidées par une compréhension claire du contexte et de la responsabilité. Atteindre cet équilibre empêche les organisations d’avancer rapidement dans la mauvaise direction et garantit que l’IA devienne un outil de croissance durable, et non une automatisation incontrôlée.

Récapitulation

L’IA remodèle la façon dont le travail est effectué, et la vitesse de ce changement dépasse la façon dont la plupart des organisations forment leur personnel. Pour les dirigeants, la priorité n’est pas d’adopter davantage d’outils d’IA, mais de s’assurer que les équipes savent les utiliser de manière intelligente et responsable. Lorsque la formation est pratique, continue et liée à chaque rôle, l’IA devient un multiplicateur de force dans l’entreprise plutôt qu’un risque de gouvernance.

En concentrant les ressources sur les employés qui interagissent le plus avec l’IA, souvent les employés de niveau junior et intermédiaire, vous obtiendrez des résultats immédiats. Il s’agit d’opérateurs de terrain qui gèrent la productivité quotidienne et les décisions relatives aux données. Si vous les équipez correctement, l’entreprise évoluera plus rapidement et subira moins de perturbations.

Au plus haut niveau, les dirigeants doivent maintenir le bon équilibre entre l’innovation et la surveillance. Les connaissances fondamentales en matière d’IA, combinées à une formation appliquée, renforcent la confiance dans la prise de décision tout en maintenant le jugement humain au cœur de chaque résultat. Le résultat à moyen terme est une main-d’œuvre qui ne se contente pas d’utiliser l’IA, mais qui la comprend suffisamment pour l’exploiter en toute sécurité, de manière créative et à grande échelle.

Alexander Procter

avril 27, 2026

15 Min

Experts Okoone
PARLONS-EN !

Un projet en tête ?
Planifiez un appel de 30 minutes avec nous.

Des experts senior pour vous aider à avancer plus vite : produit, tech, cloud & IA.

Veuillez saisir une adresse email professionnelle valide.