Referencement

6 pratiques SEO que vous devez arrêter immédiatement sous peine de sanctions

5 novembre 2024
8 h 00 min
6 pratiques SEO que vous devez arrêter immédiatement sous peine de sanctions

Certaines pratiques SEO n’ont pas suivi le rythme des moteurs de recherche et sont contre-productives. Voici six tactiques obsolètes qui doivent être reconsidérées

Certaines pratiques SEO n’ont pas suivi le rythme des changements des moteurs de recherche et peuvent désormais s’avérer contre-productives, conduisant à un contenu qui n’est pas classé. Voici six pratiques SEO qui entravent le classement et des suggestions pour des approches plus efficaces.

1. Pratiques SEO redondantes

Le mot redondant signifie plus efficace, pas nécessaire, superflu. Voici trois pratiques SEO redondantes.

A. Domaines expirés

Par exemple, certains référenceurs pensent que l’achat de domaines expirés est une chose relativement nouvelle, mais cela remonte en fait à plus de vingt ans. Les référenceurs de la vieille école ont arrêté d’en acheter en 2003 lorsque Google a découvert comment réinitialiser le PageRank sur les domaines expirés. Tous ceux qui détenaient des domaines expirés à cette époque en ont fait l’expérience lorsqu’ils ont cessé de travailler.

Voici l’ annonce de 2003 concernant la gestion des domaines expirés par Google :

Lire aussi

GEO : pourquoi être premier sur Google ne suffit plus face aux IA

GEO : pourquoi être premier sur Google ne suffit plus face aux IA

« L’index va bientôt être publié, je voulais donc donner aux gens une idée de ce à quoi ils peuvent s’attendre. Bien sûr, il est plus grand et plus profond (ouais !), mais nous avons également mis davantage l’accent sur les améliorations algorithmiques pour les problèmes de spam. L’une des améliorations qui en résulte avec cet index est une meilleure gestion des domaines expirés : l’autorité d’un domaine sera réinitialisée lorsqu’un domaine expire, même si des liens suspendus vers le domaine expiré sont toujours présents sur le Web. Nous allons mettre en œuvre ce changement au cours des prochains mois, en commençant par cet index. »

En 2005, Google est devenu le registraire de noms de domaine n° 895 afin d’avoir accès aux informations d’enregistrement de noms de domaine pour « améliorer la qualité » des résultats de recherche. Devenir registraire de noms de domaine leur a donné un accès en temps réel à la date d’enregistrement des noms de domaine, à la personne qui les a enregistrés et à l’adresse d’hébergement Web vers laquelle ils pointaient.

Les référenceurs relativement novices sont surpris d’apprendre que Google maîtrise les domaines expirés, mais ce n’est pas une nouveauté pour ceux d’entre nous qui ont été les tout premiers référenceurs de l’histoire à les acheter. L’achat de domaines expirés à des fins de classement est un exemple de pratique SEO redondante.

B. Google et les liens payants

Les liens payants sont un autre exemple. Je sais pertinemment que certains liens payants permettent à un site d’être mieux classé, et c’est le cas depuis de nombreuses années et c’est toujours le cas. Mais ces classements sont temporaires. La plupart des sites ne font généralement pas l’objet d’une action manuelle, ils cessent simplement d’être classés.

L’une des raisons possibles est que l’infrastructure et les algorithmes de Google peuvent neutraliser le PageRank provenant des liens payants, permettant ainsi au site de se classer là où il est censé se classer sans perturber son activité en pénalisant son site. Ce n’était pas toujours le cas.

Les récentes mises à jour du HCU sont un véritable bain de sang. Mais la mise à jour de l’algorithme Google Penguin de 2012 a été un cataclysme d’une ampleur bien plus grande que celle que beaucoup connaissent aujourd’hui. Elle a affecté les sites de grandes marques, les sites affiliés et tout ce qui se trouve entre les deux. Des milliers et des milliers de sites Web ont perdu leur classement, personne n’a été épargné.

Le secteur des liens payants n’est jamais revenu au statut grand public dont il jouissait autrefois, lorsque les soi-disant white hats approuvaient les liens payants en se basant sur la rationalisation selon laquelle les liens payants n’étaient pas mauvais parce qu’ils étaient de la « publicité ». Vœu pieux.

Des initiés chez les vendeurs de liens payants m’ont informé qu’un nombre important de liens payants ne fonctionnaient pas parce que Google était capable de démêler les réseaux de liens. Dès 2005, Google utilisait l’analyse statistique pour identifier les modèles de liens non naturels. En 2006, Google a déposé un brevet sur un procédé qui utilisait un graphique de liens réduit comme moyen de cartographier les relations de liens des sites Web, ce qui incluait l’identification des réseaux de spam de liens.

Si vous comprenez le risque, lancez-vous. La plupart des personnes qui ne souhaitent pas détruire un domaine et en créer un autre devraient l’éviter. Les liens payants sont une autre forme de référencement redondant.

C. Robots Index, Suivre

L’incarnation du référencement redondant est l’utilisation de « follow, index » dans la balise meta robots.

<meta name="robots" content="index, suivre" />

C’est pourquoi index, follow est redondant :

  • L’indexation des pages et le suivi des liens sont le mode par défaut de Googlebot. Lui demander de faire cela est redondant, comme vous demander de respirer.
  • Les balises méta-robots sont des directives. Googlebot ne peut pas être forcé à indexer le contenu et à suivre les liens.
  • La documentation Robots Meta de Google ne répertorie que nofollow et noindex comme directives valides.
  • « index » et « follow » sont ignorés car vous ne pouvez pas utiliser une directive pour forcer un moteur de recherche à suivre ou à indexer une page.
  • Laisser ces valeurs là, c’est donner une mauvaise image en termes de compétence.

Validation:

La documentation des balises spéciales de Google indique spécifiquement que ces balises ne sont pas nécessaires car l’exploration et l’indexation sont le comportement par défaut

« Les valeurs par défaut sont index, follow et n’ont pas besoin d’être spécifiées. »

Voici la partie qui est un casse-tête. Certains plugins SEO WordPress ajoutent la balise méta robots « index, follow » par défaut. Donc, si vous utilisez l’un de ces plugins SEO, ce n’est pas de votre faute si « index, follow » figure sur votre page Web. Les créateurs de plugins SEO devraient le savoir.

2. Supprimer les fonctionnalités de recherche de Google

Je ne dis pas qu’il faut éviter d’utiliser les fonctions de recherche de Google pour faire des recherches. C’est bien. Il s’agit d’utiliser ces données mot pour mot « parce que c’est ce que Google aime ». J’ai audité de nombreux sites qui ont été touchés par les récentes mises à jour de Google et qui correspondent exactement à ces mots-clés sur l’ensemble de leur site Web et, même si ce n’est pas le seul problème avec le contenu, j’ai l’impression que cela génère un signal selon lequel le site a été conçu pour les moteurs de recherche, ce contre quoi Google met en garde.

L’extraction des fonctionnalités de recherche de Google telles que Les internautes demandent également et Les internautes recherchent également peut être un moyen d’obtenir des sujets connexes sur lesquels écrire. Mais à mon avis, ce n’est probablement pas une bonne idée de faire correspondre exactement ces mots-clés sur l’ensemble du site Web ou sur une page Web entière.

Cela ressemble à du spam par mots-clés et à la création de pages Web pour les moteurs de recherche, deux signaux négatifs que Google dit utiliser.

3. Utilisation douteuse de mots-clés

De nombreuses stratégies de référencement commencent par une recherche de mots-clés et se terminent par l’ajout de mots-clés au contenu. Il s’agit d’une méthode de planification de contenu à l’ancienne qui ignore le fait que Google est un moteur de recherche en langage naturel.

Si le contenu concerne le mot-clé, alors oui, mettez-y vos mots-clés. Utilisez les titres pour décrire le contenu et les titres pour indiquer le sujet de la page. Google étant un moteur de recherche en langage naturel, il doit reconnaître que votre formulation signifie ce que demande un lecteur. C’est le but du BERT : comprendre ce que veut dire un utilisateur.

La pratique, vieille de plusieurs décennies, qui consiste à considérer les titres et les en-têtes comme des dépotoirs de mots-clés est profondément ancrée. C’est une chose à laquelle je vous encourage à prendre le temps d’y réfléchir, car une concentration excessive sur les mots-clés peut devenir un exemple de référencement qui entrave le référencement.

4. Copiez vos concurrents mais faites-le mieux ?

Une tactique SEO communément acceptée consiste à analyser le contenu le mieux classé des concurrents, puis à utiliser les informations sur ce contenu pour créer exactement le même contenu, mais en mieux. À première vue, cela semble raisonnable, mais il ne faut pas beaucoup de réflexion pour reconnaître l’absurdité d’une stratégie basée sur la copie du contenu de quelqu’un d’autre, mais en le « faisant mieux ». Les gens se demandent alors pourquoi Google découvre leur contenu mais refuse de l’indexer.

Ne réfléchissez pas trop. Cela conduit à des choses inutiles comme toute cette histoire de biographie d’auteur EEEAT que l’industrie a récemment adoptée. Utilisez simplement votre expertise, utilisez votre expérience, utilisez vos connaissances pour créer du contenu dont vous savez qu’il satisfera les lecteurs et les incitera à acheter plus de choses.

5. Ajouter plus de contenu parce que Google

Lorsqu’un éditeur agit en se fondant sur la conviction que « c’est ce que Google aime », il est presque certain qu’il va dans la mauvaise direction. Un exemple est une mauvaise interprétation du brevet Information Gain de Google qui, selon eux, signifie que Google classe les sites qui contiennent plus de contenu sur des sujets connexes que ce qui se trouve déjà dans les résultats de recherche.

C’est une mauvaise compréhension du brevet, mais plus précisément, faire ce qui est dans un brevet est généralement naïf car le classement est un processus multi-système, se concentrer sur une seule chose ne suffira généralement pas à amener un site au sommet.

Le brevet Information Gain porte sur le classement des pages Web dans les chatbots IA. L’invention du brevet, ce qui le rend nouveau, c’est qu’il consiste à anticiper la prochaine question en langage naturel, puis à la préparer à s’afficher dans les résultats de recherche IA ou à afficher ces résultats supplémentaires après les réponses originales.

Le point clé de ce brevet est qu’il s’agit d’anticiper la question suivante dans une série de questions. Ainsi, si vous demandez à un chatbot IA comment construire un nichoir, la prochaine question que l’IA Search peut anticiper est le type de bois à utiliser. C’est là que réside le gain d’informations. Identifier la prochaine question et classer ensuite une autre page qui répond à cette question supplémentaire.

Le brevet ne concerne pas le classement des pages Web dans les résultats de recherche organiques habituels. Il s’agit d’une mauvaise interprétation causée par une sélection minutieuse de phrases hors contexte.

Publier du contenu qui correspond à vos connaissances, à votre expérience et à votre compréhension des besoins des utilisateurs est une bonne pratique. C’est en cela que consistent l’expertise et l’expérience.

6. Baser ses décisions sur la recherche de millions de résultats de recherche Google

L’une des mauvaises pratiques de longue date en matière de référencement, qui remonte à des décennies, consiste à étudier des millions de résultats de recherche et à tirer des conclusions sur des facteurs isolés. Tirer des conclusions sur les liens, le nombre de mots, les données structurées et les mesures de notation des domaines tiers ignore le fait qu’il existe plusieurs systèmes à l’œuvre pour classer les pages Web, y compris certains systèmes qui reclassent complètement les résultats de recherche.

Voici pourquoi les « études de recherche » SEO doivent être ignorées :

A. Isoler un facteur dans une « étude » de millions de résultats de recherche revient à ignorer la réalité selon laquelle les pages sont classées en raison de nombreux signaux et systèmes fonctionnant ensemble.

B. L’examen de millions de résultats de recherche ne tient pas compte de l’influence du classement de l’analyse basée sur le langage naturel par des systèmes comme BERT et de l’influence qu’ils ont sur l’interprétation des requêtes et des documents Web.

C. Les études sur les résultats de recherche présentent leurs conclusions comme si Google classait toujours dix liens bleus. Les fonctionnalités de recherche avec images, vidéos, extraits en vedette, résultats d’achat sont généralement ignorées par ces études de corrélation, ce qui les rend plus obsolètes qu’à tout autre moment de l’histoire du référencement.

Il est temps que l’industrie du référencement envisage d’insérer une fourchette dans les corrélations des résultats de recherche, puis de casser la poignée.

Le référencement est subjectif

Le référencement est subjectif. Tout le monde a une opinion. C’est à vous de décider ce qui est raisonnable pour vous.

Tu veux faire tripler tes leads et tes conversions ? Je t’offre un pack PDF ultra-actionnable (gratuit) :

✔ Checklist prête à l’emploi
✔ Prompts IA à copier-coller
✔ Outils gratuits pour générer des leads sans pub

Avatar de l'auteur

À propos de Gabriel

Spécialisé dans le référencement naturel SEO et l'acquisition de trafic depuis 2008. Je vous accompagne dans la création de site internet et le développement de votre visibilité (SEO, SEA) pour augmenter votre chiffre d'affaires sur internet.

Sur le même sujet

GEO : pourquoi être premier sur Google ne suffit plus face aux IA

GEO : pourquoi être premier sur Google ne suffit plus face aux IA