Comment améliorer l’indexation de votre site internet ?
Si vous n’avez pas de trafic plusieurs mois après la mise en ligne de votre site, cela signifie peut-être que votre site ou page n’est pas indexé par Google. Les pages non indexées sont un des problèmes de base du SEO. En effet, avant d’être « classé » dans les SERP de Google il est nécessaire d’être d’abord indexé dans sa base de données…
Le fait de ne pas être indexé peut rendre votre site invisible pour tous les utilisateurs des moteurs de recherche, même ceux qui recherchent votre site par son nom.
Que signifie indexation de votre site web ?
Votre site web est « indexé » lorsque Google l’ajoute à son index de pages. L’index est une base de données de tous les sites web qui ont été visités et « approuvés » pour apparaître dans les recherches. L’index de Google répertorie des pages web (et non des sites). Ainsi un site peut être partiellement indexé si seulement une partie de ses pages figurent dans l’index de Google. Généralement la situation n’est ni toute noire ni toute blanche, ce qui rend les problèmes d’indexation d’autant plus difficiles à détecter pour les webmasters.
Des centaines de milliers de sites web sont créés chaque jour. Vous vous en doutez, le processus d’indexation n’est pas effectué par des « humains ». Le travail est effectué par des programmes appelés « crawlers ». La plupart des pages web sont crawlées et indexées quelques heures après qu’elles aient été mises en ligne.
Mais dans certains cas, cela peut prendre plus longtemps…
Comment fonctionnent les crawlers ?
Les crawlers (également appelés bots ou spiders) sont des programmes automatisés qui découvrent et analysent les sites web.
Google explore en permanence de nouveaux contenus dans le cadre de son algorithme. Il utilise des milliers de crawler pour découvrir chaque page de votre site web et cataloguer des images, des vidéos et tout autre type de contenu.
Ces crawlers tentent de naviguer sur votre site de la même manière qu’un humain. Ils utilisent les menus et suivent tous les liens auxquels ils peuvent accéder. Bien entendu, les contenus auxquels ils ne peuvent pas accéder ne seront pas indexés.
Si Google n’a pas indexé votre site, il est possible que les robots n’aient pas pu accéder à vos contenus. Cependant, les crawlers ne font pas d’erreurs. Le plus souvent, le problème est que votre site web les « embrouille » ou bloque involontairement leur accès.
Nous allons voir comment le vérifier.
Etape 1 : Vérifier l’indexation de son site
La première étape consiste à vérifier l’état de l’indexation.
Allez sur Google.com et utilisez l’ opérateur de recherche suivant : -> site:monsite.com
Cela indiquera le nombre approximatif de pages de votre site que Google a indexées.
Vous pouvez également vérifier l’état d’indexation d’une URL spécifique avec cette commande -> site: monsite.com/page
Si vous souhaitez procéder à une double vérification, vous pouvez utiliser l’outil d’inspection des URL sur la console de recherche Google.
Si vous vous apercevez à cette étape que votre page ou site n’est pas indexé par Google, vous pouvez dans un premier temps demander l’indexation directement depuis la GSC (Google Search Console)
- Ouvrez la console de recherche Google
- Allez à l’outil d’inspection des URL
- Collez dans le champ de recherche l’URL que vous voulez que Google indexe
- Attendez que Google ait vérifié l’URL
- Cliquez sur le bouton « Demande d’indexation ».
Mais si votre site n’est pas été indexé naturellement par Google, il y a fort à parier qu’une cause sous-jacente en soit à l’origine… il est préférable de l’identifier et de traiter le mal à la racine.
Etape 2 : Améliorer l’indexation de ses pages
Pour améliorer ou corriger l’indexation de vos pages, nous vous conseillons de vérifier tous les points suivants
- Faites passer un crawler (de type Xenu ou Screaming Frog) pour comprendre comment un « bot » réagit sur votre site
- Créez un plan de site XML et soumettez le sur Google Search Console (vous pouvez le faire avec les logiciels cités plus haut, l’idéal étant de créer un plan de site dynamique)
- Vérifier que votre fichier robots.txt ne bloque pas l’indexation des pages
- Vérifiez vos balises noindex dans vos métas tags
- Vérifiez vos url canoniques
- Vérifiez que vous n’avez pas rendu vos pages orphelines (c’est à dire qu’aucun page ne fait de lien vers cette page).
- Améliorer la qualité du site ou de la page. Vérifiez par exemple que votre site ou contenu n’est pas un copié collé d’un autre site (duplicate content)
- Développer de meilleurs backlinks/liens entrants