Les extraits de Google présentent des informations contradictoires provenant des mêmes sources en fonction de la formulation de recherche, révèle une nouvelle enquête.
Une enquête récente révèle que les extraits de code de Google peuvent afficher des informations contradictoires provenant du même matériel source, selon la manière dont les utilisateurs formulent leurs requêtes de recherche.
Cela soulève des inquiétudes quant à la capacité du moteur de recherche à interpréter le contenu avec précision.
Sarah Presch, directrice chez Dragon Metrics, a découvert que les extraits de code de Google extraient des déclarations opposées des mêmes articles lorsque les utilisateurs formulent les questions différemment.
Par exemple, la recherche « lien entre café et hypertension » génère un extrait mettant en évidence le potentiel de la caféine à provoquer des pics de tension artérielle.
La recherche « aucun lien entre le café et l’hypertension » produit un extrait contradictoire du même article de la Mayo Clinic affirmant que la caféine n’a pas d’effets à long terme.
Des contradictions similaires sont apparues dans les domaines de la santé, des questions politiques et de l’actualité.
L’enquête a révélé que demander si un candidat politique est « bon » ou « mauvais » donne des résultats radicalement différents, même si la question fondamentale reste la même.
Impact sur la qualité de la recherche
« C’est une énorme machine à biais », note Presch, expliquant comment les algorithmes de Google semblent donner la priorité au contenu qui correspond à l’intention de l’utilisateur plutôt que de fournir des informations complètes et équilibrées.
Ces résultats concordent avec les documents internes de Google datant de 2016, dans lesquels les ingénieurs admettaient : « Nous ne comprenons pas les documents, nous les falsifions. »
Bien que Google maintienne que ces documents sont obsolètes, les experts SEO suggèrent que les limitations techniques sous-jacentes persistent.
Presch ajoute :
« Google a extrait des passages du texte en fonction de ce que les gens recherchaient et leur a fourni ce qu’ils voulaient lire. »
Mark Williams-Cook, fondateur d’AlsoAsked, a commenté les résultats en déclarant :
« Google crée des modèles pour essayer de prédire ce que les gens aiment, mais le problème est que cela crée une sorte de boucle de rétroaction. Si le biais de confirmation pousse les gens à cliquer sur des liens qui renforcent leurs croyances, il apprend à Google à montrer aux gens des liens qui conduisent au biais de confirmation. »
Conséquences
Ces résultats ont des implications pour les créateurs de contenu et les professionnels du référencement :
- Les extraits en vedette peuvent ne pas représenter avec précision le contenu complet
- L’intention de l’utilisateur influence fortement la manière dont le contenu est interprété et affiché
- La stratégie de contenu peut nécessiter un ajustement pour maintenir la précision dans différents formats de requête
Le porte-parole de Google a défendu le système, affirmant que les utilisateurs peuvent trouver des points de vue divers s’ils font défiler la page au-delà des résultats initiaux.
L’entreprise a également mis en avant des fonctionnalités telles que « À propos de ce résultat » qui aident les utilisateurs à évaluer les sources d’information.
Recommandations
Sur la base de ces résultats, les éditeurs devraient prendre les mesures suivantes :
- Développez un contenu complet qui reste précis quelle que soit la manière dont les requêtes sont formulées.
- Reconnaître l’impact de l’intention de recherche sur la sélection des extraits en vedette.
- Suivez la manière dont votre contenu est affiché dans les extraits en vedette pour différentes expressions de recherche.
Alors que Google évolue vers un « moteur de réponses » avec des réponses générées par l’IA, les spécialistes du marketing numérique et les créateurs de contenu doivent comprendre ces limites.









