Les aperçus d’IA sur Google facilitent les escroqueries en diffusant de fausses informations de contact.

Un problème classique prend aujourd’hui un visage moderne. Les résumés de recherche Google générés par l’IA, qu’ils appellent « 
AI Overviews
« sont maintenant utilisés par les escrocs. Ils ont compris comment manipuler des sites web tiers, principalement des plateformes d’avis et d’annonces, en y publiant de fausses informations de contact. Les algorithmes de Google récupèrent ces données et, comme par enchantement, les placent en tête de vos résultats de recherche. Elles sont maintenant déguisées en informations utiles et dignes de confiance, alors qu’il n’en est rien.

Il ne s’agit pas de failles dans l’IA elle-même. Il s’agit d’une défaillance du système qui détermine la confiance. Les systèmes d’IA sont conçus pour faire apparaître des données populaires, cohérentes et apparemment pertinentes. Si des acteurs malveillants fournissent ces données en quantité et en cohérence suffisantes, l’IA ne voit pas la fraude, elle voit la pertinence. La plupart des utilisateurs, y compris ceux qui se considèrent comme des experts en technologie, jettent un coup d’œil à la première réponse de l’IA et supposent qu’elle a été vérifiée. C’est un problème grave, surtout lorsqu’il influence le comportement dans le monde réel et entraîne des pertes financières.

Cette répartition nous apprend quelque chose d’important : les gens font davantage confiance aux résumés générés par l’IA qu’au chaos fragmenté qu’est devenu le service client. Si vous dirigez une grande entreprise et que vous cachez encore votre numéro de téléphone d’assistance cinq couches plus bas dans une application mobile, vous poussez les utilisateurs vers le web ouvert, où la crédibilité est en jeu. Vous exposez davantage vos clients à la fraude sans même vous en rendre compte.

Cela soulève une question stratégique pour les équipes de direction : vos clients sont-ils obligés de s’en remettre à des plateformes externes pour obtenir des informations d’assistance essentielles ? Si c’est le cas, il ne s’agit pas seulement d’un problème d’interface utilisateur, mais aussi d’une exposition au risque. Vous ne voulez pas que des systèmes hors de votre contrôle définissent la voix de votre entreprise ou donnent une image erronée de votre marque dans les résumés de l’IA. Cela conduit à des escroqueries, à l’insatisfaction et à une atteinte à la réputation.

Il faut s’attendre à ce que cela se reproduise, à moins que les plateformes et les entreprises ne bouclent la boucle sur la manière dont les coordonnées sont publiées, vérifiées et présentées. On ne met pas fin à la désinformation en corrigeant les problèmes après coup. Vous l’évitez en construisant des pipelines de communication résilients, clairs et cohérents, contrôlés par vos propres systèmes. Pensez comme un constructeur, prenez en charge l’architecture, sinon quelqu’un d’autre s’en chargera.

L’absence de service clientèle direct de la part des grandes entreprises accroît la vulnérabilité aux escroqueries

Lorsque les clients ne trouvent pas de numéro de téléphone pour poser une simple question, c’est qu’il y a un problème. De nombreuses grandes entreprises ont renoncé à donner la priorité à l’assistance humaine en temps réel. Bien que la logique puisse être celle de l’efficacité opérationnelle, le résultat est contre-productif. Si les utilisateurs ne peuvent pas joindre quelqu’un immédiatement par les canaux officiels, ils cherchent ailleurs. Cet « ailleurs » les conduit souvent tout droit dans le piège tendu par les escrocs.

L’escroquerie dont a été victime Alex Rivlin, propriétaire d’une agence immobilière, en est un parfait exemple. Il n’a pas trouvé d’informations de contact directes dans l’application mobile de Royal Caribbean. Comme la plupart des gens, il s’est tourné vers Google. Ce qu’il a obtenu n’était pas un service clientèle. Il s’agissait d’un escroc qui avait manipulé les listes de recherche de tiers. L’escroc a convaincu M. Rivlin de donner les détails de sa carte de crédit sous le prétexte fallacieux de « supprimer » les frais de navette. Résultat ? Des frais non autorisés. Il est possible d’éviter ce genre d’escroquerie en ayant un meilleur accès à des canaux fiables.

Nous devons reconnaître où se produit la rupture. Lorsque des entreprises légitimes rendent le contact humain difficile, les utilisateurs finissent par accorder leur confiance à des sources non vérifiées. Il ne s’agit pas d’un problème de politique de cybersécurité, mais d’une conception structurelle de l’expérience client. Le fait que M. Rivlin se considère comme relativement compétent en matière de technologie montre que ce problème n’affecte pas seulement les personnes mal informées ou imprudentes. La faiblesse n’est pas du côté de l’utilisateur. Elle réside dans l’écart entre les systèmes de communication des entreprises et les plateformes de recherche publiques.

Les cadres supérieurs doivent revoir la façon dont les clients interagissent avec leur infrastructure d’assistance. Si votre stratégie d’assistance consiste à diriger les utilisateurs de grande valeur vers des requêtes de recherche à index ouvert, vous ne créez pas seulement des frictions, vous créez des risques. Il faut trouver un équilibre entre l’échelle et la fiabilité, et pour cela, il faut s’assurer que les utilisateurs n’aient jamais à se fier à une recherche Google pour obtenir votre numéro de téléphone.

Il s’agit désormais d’une question de responsabilité et de contrôle de la marque. Rendez les coordonnées visibles, accessibles et authentifiées. Si les utilisateurs sont victimes de fraudes en raison de l’opacité de vos systèmes, la réputation de votre entreprise est en danger. Régler ce problème ne relève pas de l’innovation, mais du maintien de la confiance. Faites le nécessaire avant que les autorités de régulation ou le public ne vous obligent à réagir dans la précipitation.

Les escrocs exploitent la crédibilité des algorithmes pour renforcer leurs activités frauduleuses

Les escrocs ne comptent plus sur la force brute. Ils exploitent le système de manière plus intelligente, en rédigeant de fausses listes, en jouant avec les plateformes d’évaluation et en fournissant des informations que les index de recherche et les outils d’intelligence artificielle interprètent comme étant crédibles. Au fil du temps, avec suffisamment de bruit numérique et de répétition, ces fausses données commencent à paraître légitimes. Pas pour les gens, dans un premier temps, mais pour les algorithmes qui fournissent des réponses à grande échelle. Lorsque ces réponses apparaissent dans les aperçus de l’IA ou les résumés des résultats de recherche, elles acquièrent une autorité non méritée.

Il ne s’agit pas ici d’hallucinations de l’IA ou d’une mauvaise conception. Il s’agit de la rapidité avec laquelle les systèmes absorbent et valorisent des points de données répétés, quelle que soit leur origine. Les escrocs comprennent que les limites techniques de la vérification des contenus jouent en leur faveur. Lorsque les algorithmes donnent la priorité à la pertinence et à la cohérence de l’actualité plutôt qu’à la responsabilité de la source, les mauvais acteurs en profitent. Le volume de fausses informations devient sa propre forme de légitimité, du moins pour le système.

Du point de vue des dirigeants, il s’agit d’un défaut structurel dans la manière dont la pertinence numérique est évaluée. Il est important de le comprendre si votre entreprise s’appuie sur des données publiques. Rien en ligne ne reste statique. Les coordonnées de l’entreprise changent, les services évoluent et l’infrastructure de contact se modifie. Mais la couche d’intelligence artificielle ne suit pas toujours. Google, par exemple, a déclaré à Yahoo ! News que la mise à jour de ses index de données pouvait prendre du temps, même après la suppression des faux contenus sur les sites sources. Ce délai est tout ce dont les escrocs ont besoin pour exploiter la faille.

Si votre entreprise ne gère pas activement la façon dont ses données apparaissent sur le web, en particulier dans les écosystèmes tiers, la représentation de votre marque est sujette à manipulation. Compter sur les plateformes pour faire le nettoyage après coup, c’est réagir, et c’est trop lent. Les dirigeants devraient déployer des solutions qui permettent de synchroniser en permanence les informations vérifiées de l’entreprise, en particulier pour les points de contact critiques avec les clients.

Ce qu’il faut retenir, ce n’est pas que les outils d’IA sont intrinsèquement défectueux. Ce qu’il faut retenir, c’est que la crédibilité des contenus générés par l’IA est encore à négocier, et que les mauvais acteurs sont prêts à s’emparer de cet espace. Plus vite votre organisation s’appropriera l’exactitude du contenu destiné au public, moins elle sera susceptible de devenir une cible ou un vecteur de fraude.

Principaux faits marquants

  • La recherche par IA amplifie les risques d’escroquerie : Les escrocs injectent de fausses informations de contact dans des sites tiers qui apparaissent dans les aperçus de l’IA de Google. Les dirigeants doivent collaborer avec les équipes de marketing et de sécurité pour s’assurer que les données de contact vérifiées et exactes sont prioritaires sur les canaux publics.
  • Les canaux d’assistance cachés nuisent à la confiance : Lorsque les utilisateurs ne peuvent pas trouver facilement une assistance clientèle directe, ils se tournent vers les moteurs de recherche et tombent dans des pièges à escroquerie. Les dirigeants devraient réévaluer l’accessibilité de l’assistance et rendre les options de contact de confiance immédiatement visibles afin de réduire l’exposition à la fraude.
  • La confiance algorithmique est exploitée : Des acteurs malveillants jouent avec les signaux de crédibilité des moteurs de recherche, faisant passer de fausses données pour authentiques dans les résultats pilotés par l’IA. Les chefs d’entreprise doivent surveiller la manière dont leur marque est représentée en ligne et gérer de manière proactive les listes de tiers afin d’éviter la désinformation.

Alexander Procter

octobre 10, 2025

9 Min