La confiance du public dans l’IA est limitée par des préoccupations liées à la sécurité et à la désinformation
Les gens ne font pas confiance à l’IA. Une enquête mondiale de KPMG et de l’université de Melbourne le prouve : sur plus de 48 000 personnes réparties dans 47 pays, 54 % se disent méfiantes à l’égard de l’IA. Il s’agit là d’un manque de confiance considérable. Il est intéressant de noter que la situation est pire dans les économies avancées. Seulement 39 % des personnes interrogées dans ces pays disent faire confiance à l’IA, contre 57 % dans les marchés émergents.
Pourtant, 72 % d’entre eux considèrent l’IA comme utile. Cela nous apprend quelque chose d’important : les gens veulent utiliser l’IA, mais ils ne sont pas convaincus qu’elle soit sûre ou prévisible. Et le problème n’est pas seulement une peur abstraite. Il existe un point sensible spécifique : la désinformation. 88 % des personnes interrogées souhaitent que des lois soient mises en place pour mettre fin à la désinformation générée par l’IA.
Il s’agit d’une question de crédibilité. Si vous êtes un dirigeant et que vous réfléchissez à la place de l’IA dans votre entreprise, vous ne pouvez pas vous permettre de considérer la confiance comme facultative. Elle est fondamentale. Vous intégrez un système qui fait l’objet d’une surveillance mondiale pour savoir s’il dit la vérité ou s’il invente des choses. L’instauration de la confiance n’est donc pas une mesure douce, c’est un risque et une opportunité pour l’entreprise. Abordez-le tôt. Dirigez de manière transparente. Expliquez non seulement ce que fait votre IA, mais aussi comment elle le fait. Et soyez franc quant à ses limites.
La réglementation doit faire partie de ce changement. La plupart des personnes interrogées dans le monde (70 %) estiment que l’IA doit être réglementée et ne sont pas satisfaites de la législation actuelle. Ils veulent que le gouvernement et l’industrie travaillent ensemble. Cela signifie que les entreprises privées doivent cesser d’attendre que des règles soient édictées et commencer dès maintenant à préparer le terrain pour des cas d’utilisation plus sûrs. Si les citoyens et les clients demandent des garde-fous, le fait de prendre de l’avance permet d’instaurer la confiance et d’acquérir un avantage commercial.
Le manque de formation adéquate et de connaissances en matière d’IA alimente le scepticisme
Nous avons un déficit de connaissances qui alimente le déficit de confiance. Seulement 39 % des personnes dans le monde déclarent avoir reçu une formation à l’IA, que ce soit à l’école, au travail ou par leurs propres moyens. Et près de la moitié d’entre eux admettent qu’ils ne comprennent pas vraiment l’IA. C’est un problème non seulement pour les utilisateurs, mais aussi pour les entreprises qui tentent de l’adopter. En effet, si votre équipe ne comprend pas ce que fait l’outil, elle ne l’utilisera pas efficacement ou ne lui fera pas confiance du tout.
Le plus intéressant, c’est que lorsque les gens sont formés, les résultats sont là. Parmi les personnes interrogées qui ont été formées, 76 % font état de gains d’efficacité, contre 56 % seulement pour celles qui n’ont pas été formées. Le même groupe signale également des gains de revenus plus importants, 55 % contre 34 %. Il s’agit là d’une valeur directe issue d’une compréhension de base. Il ne s’agit pas non plus de cours de formation complexes, mais simplement d’une formation de base sur le fonctionnement des systèmes et leur utilité.
Si vous dirigez une entreprise, cette question mérite votre attention. Le retour sur investissement de la formation à l’IA n’est pas abstrait, il est mesurable. Commencez par vous assurer que votre équipe dirigeante comprend les principes fondamentaux. Faites ensuite redescendre les connaissances dans toute l’organisation. Axez la formation sur les résultats pratiques, c’est-à-dire sur l’utilisation quotidienne de l’IA. Lorsque les employés savent ce que l’IA peut et ne peut pas faire, ils l’utilisent plus efficacement. Ils lui feront davantage confiance. Et votre organisation sera plus performante que celles qui ne savent pas encore ce qu’il en est.
Un autre point mérite d’être souligné : les cadres et les décideurs au sein des entreprises ont tendance à bénéficier davantage de l’IA que les autres fonctions. C’est logique, ils intègrent l’IA à la stratégie de l’entreprise. l’intégration de l’IA dans la stratégie et les mesures. Mais cela signifie également que la formation ne devrait pas être réservée aux opérations ou à la technologie. Chaque service, des RH aux finances en passant par le service juridique, a besoin d’outils pour évaluer et mettre en œuvre l’IA de manière responsable.
En bref, l’IA ne crée pas de valeur par elle-même. Ce sont les personnes formées pour la comprendre qui le font. Par conséquent, si vous visez la transformation et l’échelle, commencez par la formation. C’est là que l’adoption s’accélère.
Les outils d’IA générative sont largement utilisés malgré les problèmes de gouvernance et d’utilisation abusive
L’adoption de l’IA générative est déjà un phénomène courant. Selon l’étude de KPMG et de l’université de Melbourne, 58 % des employés dans le monde utilisent régulièrement des outils d’IA dans le cadre de leur travail. Dans le secteur de l’éducation, ce chiffre grimpe à 83 % chez les étudiants. La raison en est simple : les gens constatent une amélioration de leur efficacité personnelle et une réduction du stress. Mais c’est là que les choses se compliquent : la performance n’est pas synonyme de contrôle.
De nombreuses organisations l’IA plus rapidement qu’elles ne mettent en place des politiques pour régir son utilisation.. Plus de la moitié des utilisateurs affirment avoir amélioré leur production, mais un grand nombre d’entre eux signalent également une augmentation de la charge de travail, des ruptures dans le travail d’équipe et des problèmes de conformité. C’est une situation dans laquelle l’utilisation dépasse la compréhension, et l’adoption dépasse la responsabilité.
Dans les écoles, la situation est la même. Les étudiants exploitent l’IA pour se maintenir à niveau, mais seulement la moitié d’entre eux déclarent que leur établissement leur offre des conseils ou une formation appropriés sur l’utilisation responsable de l’IA. Ce déséquilibre – forte utilisation, faible gouvernance – est le terreau de l’utilisation abusive. Vous vous retrouvez avec une génération qui utilise l’IA non pas parce qu’elle est préparée, mais parce qu’elle pense qu’elle n’a pas de meilleure option.
Pour les dirigeants qui supervisent la transformation numérique, c’est important. Vous ne pouvez pas développer l’IA de manière sûre ou rentable sans mettre en place des structures pour la guider. Cela signifie des politiques d’utilisation claires, un contrôle interne et une formation accessible. La gouvernance ne peut pas être externalisée, elle doit être intégrée dès le premier jour et faire l’objet d’un examen continu.
Si vous ignorez la gouvernance tout en favorisant les cas d’utilisation, les risques s’accumuleront. Les flux de travail deviendront moins prévisibles et la confiance à l’intérieur et à l’extérieur de votre organisation s’érodera. Les gains générés par l’IA ne seront pas constants. En revanche, si vous intégrez une politique et une formation dès le début, les employés deviennent plus intelligents, la conformité s’améliore et vos investissements dans l’IA commencent à porter leurs fruits de la bonne manière.
Les hallucinations croissantes de l’IA minent la fiabilité et créent un paradoxe de confiance
L’IA générative présente toujours un défaut majeur : elle invente des choses. Ces faux résultats, appelés hallucinations, sont fréquents et s’aggravent dans les nouveaux modèles d’IA. Lors de tests effectués par OpenAI, le modèle de raisonnement o3 a eu des hallucinations dans 33 % des cas lorsqu’il répondait à des questions sur des personnalités publiques. Pour les questions simples basées sur des faits, ce taux a grimpé à 51 %. Le modèle o4-mini, plus petit et plus rapide, a obtenu des résultats encore pires, puisqu’il a halluciné 79 % du temps lors des mêmes tests de base.
Il s’agit d’un grave problème de fiabilité, en particulier pour les entreprises qui déploient ces modèles dans des flux de travail critiques. Et voici le paradoxe : plus le système d’IA est complexe et avancé, plus il est susceptible d’avoir des hallucinations. Jason Hardy, directeur technique d’Hitachi Vantara, a appelé cela « le paradoxe de l’IA ». Il souligne que la complexité dégrade souvent la fiabilité au lieu de l’améliorer. L’une des principales raisons ? Les données.
Ces modèles ne comprennent pas la vérité, ils génèrent des prédictions basées sur des modèles de données d’entraînement. Et comme les données de formation originales de haute qualité se font rares, les modèles sont formés à partir de sources plus récentes qui manquent souvent de structure ou de précision. Le fait de considérer toutes les données de formation comme également fiables dégrade les résultats du modèle. Les petites erreurs se multiplient par le biais d’un raisonnement en plusieurs étapes. Le résultat est un système qui parle avec assurance, mais auquel on ne peut pas se fier sans vérification.
D’un point de vue commercial, il s’agit d’un signal d’alarme. Déployer l’IA sans une validation rigoureuse est une erreur, en particulier dans les secteurs présentant des risques de conformité ou de sécurité. Brandon Purcell, vice-président et analyste principal chez Forrester Research, a déclaré que les grands modèles de langage (LLM) ne devraient pas être utilisés pour obtenir des informations basées sur des faits, à moins qu’ils ne soient fondés sur des données actualisées et vérifiées à la source. Sans cela, les hallucinations ne sont pas aberrantes, elles sont garanties.
Les dirigeants doivent penser au-delà du déploiement. Les systèmes d’IA doivent être contrôlés en temps réel. Les tests, tant automatisés qu’humains, doivent être intégrés au processus avant que les modèles ne soient mis en service. Cela inclut le red teaming, où vous essayez activement de casser le système pour exposer les points faibles. Il s’agit de tester votre IA sous pression pour protéger votre réputation et vos performances.
C’est le moment de faire évoluer le manuel de l’IA. Les entreprises qui prennent au sérieux la question de la fiabilité seront en tête. Celles qui ignorent les hallucinations parce que les outils semblent fonctionnels aujourd’hui construisent sur un terrain instable.
Les petits modèles linguistiques (SLM) promettent une efficacité et une précision accrues par rapport aux LLM.
Les grands modèles de langage, ou LLM, ont ouvert la voie à une IA évolutive dans tous les secteurs d’activité. Mais l’élan est en train de changer. Les petits modèles de langage (SLM) commencent à s’imposer là où la précision et le contrôle sont les plus importants. Ils sont plus rapides, moins coûteux et plus faciles à adapter à des cas d’utilisation spécifiques. C’est exactement ce dont la plupart des entreprises ont besoin en ce moment : une IA pratique qui donne des résultats fiables sans surcharger l’infrastructure ni introduire de risques inutiles.
Les données confirment cette évolution. Un rapport de Forrester prévoit que l’adoption des SLM augmentera de 60 % d’ici à 2025. Dans un sondage Harris commandé par Hyperscience, 75 % des décideurs informatiques ont déclaré qu’ils pensaient que les SLM étaient plus performants que les LLM en termes de rapidité, de coût, de précision et de retour sur investissement. Il ne s’agit pas de préférences occasionnelles, elles sont basées sur des problèmes réels liés au déploiement de modèles plus importants à grande échelle.
La pression s’exerce également au niveau de l’infrastructure. Dans une étude de Capital One portant sur plus de 4 000 responsables techniques et commerciaux, 87 % ont déclaré que leur écosystème de données était prêt pour l’IA. Mais 70 % ont admis qu’ils passaient encore des heures chaque jour à résoudre des problèmes de qualité des données. Le goulot d’étranglement n’est pas seulement technologique, c’est aussi la charge opérationnelle liée au maintien d’entrées et de sorties fiables. C’est là que les SLM ont une longueur d’avance. Ils sont plus adaptables et nécessitent moins de ressources pour être déployés à grande échelle.
Andrew Joiner, PDG d’Hyperscience, l’a dit simplement : la véritable opportunité de l’IA n’est pas l’automatisation générique, mais des flux de travail intelligents et adaptés. Il considère que les SLM sur mesure sont essentiels pour remédier aux inefficacités dans des domaines tels que le traitement des documents et l’automatisation administrative. Il ne s’agit pas d’ajustements facultatifs, mais de mises à niveau stratégiques qui permettent de gagner du temps et d’améliorer la fiabilité à grande échelle.
Dans le même temps, les SLM permettent une meilleure gouvernance. Elles sont plus faciles à contrôler et à interpréter, et s’alignent davantage sur les objectifs de l’IA responsable. Brandon Purcell, de Forrester, a souligné la nécessité de tester minutieusement les systèmes d’IA à fort enjeu avant leur déploiement, en particulier dans des secteurs tels que les soins de santé ou les services financiers. Il recommande une validation basée sur la simulation, similaire à la rigueur des tests utilisés dans les industries à forte conformité.
Pour les dirigeants qui se lancent à corps perdu dans l’IA, le message est clair : il faut se concentrer. Plus vous définissez l’objectif avec précision, plus vous pouvez en extraire de la valeur en toute sécurité. Les SLM ne sont pas un compromis à échelle réduite, mais une réponse remodelée aux besoins réels de l’entreprise, avec moins de risques, moins de coûts et un meilleur contrôle.
Principaux faits marquants
- Le manque de confiance du public est un multiplicateur de risques : Avec 54 % des personnes interrogées dans le monde qui se méfient de l’IA et 88 % qui réclament des lois pour mettre fin à la désinformation induite par l’IA, les dirigeants doivent se concentrer sur la transparence et l’éthique pour combler rapidement le déficit de confiance et construire une crédibilité de marque à long terme.
- La maîtrise de l’IA génère un retour sur investissement mesurable : Seuls 39 % des utilisateurs ont suivi une formation à l’IA, alors que ceux qui l’ont suivie font état de gains d’efficacité de 76 % contre 56 % et d’un impact plus important sur le chiffre d’affaires. Les dirigeants devraient investir dans une formation à l’IA spécifique à chaque rôle pour débloquer la productivité et améliorer l’adoption.
- L’adoption rapide de l’IA exige une gouvernance plus solide : 58 % des employés et 83 % des étudiants utilisent l’IA générative, mais une surveillance insuffisante et une formation limitée entraînent des risques d’utilisation abusive et de conformité. Les dirigeants doivent mettre en œuvre des cadres de gouvernance et des formations claires pour prévenir la responsabilité et protéger les gains.
- Les hallucinations compromettent la fiabilité de l’IA : Les nouveaux modèles d’IA affichent des taux d’hallucinations en hausse, jusqu’à 79 % dans certains tests, ce qui nuit à la confiance des utilisateurs. Les décideurs devraient exiger des tests rigoureux avant le déploiement, appliquer des normes de qualité des données et contrôler en permanence les résultats obtenus par l’IA.
- Les petits modèles linguistiques offrent un avantage stratégique : Les SLM surpassent les LLM en termes de rapidité, de retour sur investissement et de précision, selon 75 % des décideurs informatiques. Les entreprises devraient considérer les SLM comme une solution évolutive et moins risquée pour des cas d’utilisation ciblés où la précision et le contrôle sont essentiels.