Les applications d’IA ne tiennent pas leurs promesses en matière de capacités « intelligentes ».
Aujourd’hui, la plupart des systèmes d’IA ne tiennent pas leurs promesses. Ces outils sont présentés comme intelligents, plus rapides, plus précis et plus fiables que les humains. Les vendeurs les présentent comme des « assistants intelligents » capables d’anticiper les besoins, de prendre des décisions et d’exécuter des tâches avec un minimum d’instructions. Telle est la vision. La réalité est plus simple. Beaucoup de ces systèmes ne peuvent pas interpréter les intentions de base, prendre des décisions cohérentes ou se corriger lorsqu’ils s’égarent. Il ne s’agit pas seulement d’un problème d’optimisation, mais d’une limitation fondamentale de la conception.
Nous utilisons des modèles formés sur des données anciennes ou non pertinentes. Des informations erronées s’infiltrent dans les pipelines de formation. La plupart des systèmes n’évoluent pas assez vite pour corriger cela, et les hallucinations, où le système fournit en toute confiance des réponses incorrectes, restent un gros problème. Ensuite, il y a la connaissance du contexte, ou son absence. L’IA d’aujourd’hui ne comprend pas bien les utilisateurs. Il ne s’agit pas d’avoir suffisamment de données. Dans de nombreux cas, les données sont déjà présentes, mais le système ne parvient pas à les appliquer intelligemment.
Lorsque vous interagissez avec un soi-disant assistant intelligent qui vous rappelle une réunion alors que vous êtes en route pour cette réunion, guidé par les propres indications de navigation du système, vous constatez en réalité le manque d’intégration entre les différents composants du système. Ce n’est pas que les données ne soient pas disponibles. Elles le sont. Le problème, c’est que ces systèmes ne savent pas encore comment les relier.
Ce n’est pas seulement frustrant, c’est aussi inefficace. Les cadres supérieurs n’ont pas besoin d’être distraits par une technologie censée réduire les interruptions. Ils ont besoin de fiabilité. L’adoption de l’IA en entreprise dépend de la confianceL’adoption de l’IA dans les entreprises dépend de la confiance : les cadres dirigeants ont confiance dans le fait que le système améliorera la prise de décision, et ne la compliquera pas. Tant que les équipes produit n’auront pas résolu les problèmes d’intégrité des données, de compréhension du contexte et de réduction des hallucinations, les résultats resteront décevants.
Les systèmes d’IA actuels sous-utilisent les riches données contextuelles qu’ils possèdent déjà.
Les systèmes d’IA disposent aujourd’hui de suffisamment de données pour prendre des décisions plus intelligentes. Les appareils tels que les téléphones et les montres connaissent déjà la localisation de l’utilisateur, les événements de son calendrier et même ses itinéraires de voyage grâce au GPS en temps réel. Malgré cela, ces systèmes prennent encore des décisions qui ne tiennent pas compte du contexte de base. Vous voyez des rappels à des moments où ils sont clairement inutiles, des fenêtres contextuelles qui bloquent la navigation critique, ou la répétition d’alertes que vous avez déjà reconnues. Il ne s’agit pas d’un problème de ressources. C’est un problème de pensée systémique.
Le problème principal est la déconnexion entre l’accès et l’application. Les produits d’IA collectent souvent des ensembles de données robustes, mais ne les traitent pas de manière unifiée. Le contexte est soit mal interprété, soit ignoré. Par exemple, si votre téléphone sait que vous êtes en route pour une réunion qu’il vous a rappelée il y a cinq secondes, il n’y a aucune logique à signaler à nouveau cette réunion alors que vous utilisez l’appareil pour la navigation. Les données sont disponibles, mais elles ne sont pas utilisées correctement.
C’est là que la plupart de ces systèmes « intelligents » se heurtent à un mur. Ils manquent de coordination interne. Le calendrier ne communique pas avec le service de localisation. Les files d’attente de notifications ne sont pas hiérarchisées en fonction du flux de tâches en cours. Les développeurs mettent au point des fonctionnalités, mais sans connaissance systémique du comportement de l’utilisateur, ces fonctionnalités fonctionnent de manière isolée et offrent des expériences fragmentées.
Pour les chefs d’entreprise, cela a des implications réelles. Les systèmes intégrés dans vos opérations doivent fournir un signal et non du bruit. La redondance, la répétition et le manque de synchronisation nuisent à la concentration. Vous ne voulez pas que vos équipes prennent des décisions à fort enjeu avec des systèmes d’IA qui ne traitent pas ce qu’elles savent déjà. Cela érode la confiance des utilisateurs. Et une fois que les utilisateurs considèrent les conseils de l’IA comme non pertinents, le retour sur investissement tombe à zéro.
Pour y remédier, il faut modifier le développement des produits d’IA. Il faut moins se concentrer sur la collecte d’un plus grand nombre de données, et davantage sur le traitement intelligent des données existantes. C’est là que vous constaterez des gains réels, une augmentation de la productivité, une meilleure hiérarchisation des priorités, moins de frictions. Jusqu’à ce que cela se produise, le terme « intelligent » n’est pas justifié. Il est appliqué trop tôt.
Les appareils grand public intelligents démontrent que les systèmes d’IA peuvent se comporter de manière irrationnelle, même dans des scénarios simples de la vie quotidienne.
L’IA destinée aux consommateurs est le test le plus visible des capacités réelles. Ces dispositifs sont déjà intégrés dans les habitudes quotidiennes, ce qui rend les défaillances faciles à repérer. Les sonnettes Ring, par exemple, sont commercialisées pour leur intelligence de détection des objets. Elles prétendent reconnaître les personnes, les véhicules et les colis. Pourtant, les utilisateurs reçoivent régulièrement des notifications pour la pluie, les insectes ou même les changements de lumière. Ce niveau d’erreur nous indique que la reconnaissance des objets et la hiérarchisation des alertes du système ne sont pas fiables, bien que le matériel et les données soient en place.
Il en va de même pour les appareils tels que l’Apple Watch et l’iPhone. Ces systèmes sont censés faire apparaître ce qui compte le plus, les rendez-vous, l’heure, les alertes géolocalisées, mais ils poussent souvent des notifications non pertinentes ou des distractions à la place. Lorsqu’un utilisateur voit des résultats électoraux répétés provenant de différents organes d’information, même après que le résultat est connu, il ne s’agit pas d’intelligence. Il s’agit plutôt d’une mauvaise déduplication des événements et d’un manque de stratégie de contenu. Les données existent, mais le système ne fait pas la différence entre la valeur et la redondance.
Ces comportements peuvent sembler mineurs dans des contextes de consommation, mais ils signalent des problèmes d’architecture qui ne disparaissent pas à l’échelle. Lorsque l’IA ne parvient pas à hiérarchiser les priorités ou à filtrer la pertinence, elle devient du bruit et non du soutien. Les systèmes intelligents doivent prouver qu’ils sont capables d’effectuer les tâches de base de manière cohérente. En attendant, l’intégration à grande échelle des entreprises est un risque, en particulier pour les flux de travail où la synchronisation et la qualité du signal sont essentielles.
Pour les dirigeants, l’IA grand public est un avant-goût de la fiabilité de l’entreprise. Si des cas d’utilisation simples se brisent sous une pression légère, des scénarios plus complexes mettront en évidence des limites plus profondes. Les équipes doivent évaluer de près non seulement les listes de fonctionnalités, mais aussi la constance avec laquelle ces fonctionnalités produisent de la valeur sans perturbation. Être qualifié d' »intelligent » ne signifie rien si le système ne peut pas se comporter avec une conscience élémentaire. Nous avons besoin de systèmes qui s’exécutent, sans bruit, correctement et sans friction inutile.
Les entreprises spécialisées dans l’IA accordent trop d’importance à la collecte de données massives tout en négligeant les données déjà disponibles
Trop de fournisseurs d’IA se concentrent sur l’augmentation de la collecte de données plutôt que sur l’amélioration de l’utilisation de ce qu’ils ont déjà. La croyance semble être la suivante : si le système n’est pas performant, c’est qu’il a besoin de plus de données. Cette hypothèse peut aider à justifier les feuilles de route des produits, mais elle ne résout pas le problème immédiat, à savoir que la plupart des systèmes d’IA utilisent encore mal ou ignorent les flux d’entrée en temps réel, riches en contexte, qui circulent déjà dans leurs plates-formes.
Le discours consiste souvent à demander aux entreprises des données propriétaires de grande valeur, des informations très sensibles et stratégiquement importantes. On leur dit que cela leur permettra de faire des prédictions plus intelligentes, d’accélérer les flux de travail et d’accroître l’automatisation. Mais dans la pratique, la plupart des systèmes d’IA n’ont pas gagné ce niveau de confiance. S’ils peinent à donner l’alerte en cas de conditions météorologiques favorables ou à répéter des événements déjà confirmés, la promesse d’une intelligence sécurisée et de qualité s’effondre.
Dans les environnements d’entreprise, l’intelligence ne se mesure pas à la quantité de données qu’un système contient. Il s’agit d’actions utiles et de pertinence dans le temps. Avant de demander l’accès aux « joyaux de la couronne », les fournisseurs doivent prouver qu’ils peuvent gérer les intégrations de calendriers, le contexte de l’utilisateur et les interactions de bon sens sans défaillance. Le comportement sur ces petites tâches reflète la maturité réelle des capacités d’IA.
Les dirigeants doivent s’opposer à l’idée qu’il suffit de nous donner plus de données. De meilleurs résultats sont obtenus en se concentrant sur l’optimisation des modèles, la compréhension inter-systèmes et le flux d’exécution, plutôt qu’en déversant de nouveaux ensembles massifs de données dans des systèmes déjà inefficaces. Tant que les fournisseurs ne seront pas en mesure de filtrer, d’interpréter et d’agir sur les signaux en temps réel qu’ils reçoivent déjà, l’augmentation du volume ne fera qu’amplifier les défauts du système.
L’utilisation la plus intelligente de l’IA provient de la coordination, et non de la collecte. C’est la norme à laquelle les fournisseurs doivent se conformer avant d’avoir accès à quoi que ce soit de plus.
Principaux faits marquants
- L’intelligence artificielle n’est pas à la hauteur : La plupart des systèmes d’IA ne peuvent pas gérer la logique contextuelle de base ou la reconnaissance des intentions, ce qui les rend peu fiables pour la prise de décision au niveau de l’entreprise. Les dirigeants devraient s’attendre à une preuve de fonctionnalité dans le monde réel avant d’adopter l’IA à grande échelle.
- Le contexte n’est toujours pas utilisé correctement : Les appareils disposent déjà de données détaillées sur les utilisateurs, mais ne parviennent pas à les utiliser de manière intelligente. Les dirigeants devraient faire pression sur les fournisseurs pour qu’ils démontrent une coordination significative entre les systèmes avant d’approuver une intégration plus poussée.
- Les appareils intelligents présentent des lacunes fondamentales : Les échecs répétés d’appareils tels que les téléphones et les sonnettes reflètent des failles plus profondes dans la conception de l’IA. Les dirigeants devraient considérer le comportement des consommateurs en matière d’IA comme un signal de la manière dont ces systèmes pourraient être moins performants à l’échelle de l’entreprise.
- Plus de données n’arrangera pas une mauvaise logique : Les fournisseurs qui demandent l’accès à des données propriétaires ne parviennent souvent pas à utiliser efficacement les données existantes. Les décideurs devraient se concentrer sur les partenaires d’IA qui optimisent les performances avec les données actuelles avant de partager des ensembles de données internes précieux.


