MON SITE N’APPARAÎT PLUS DANS GOOGLE ! QUE FAIRE ?

Google a t’il supprimé mon site ?

Si vous êtes arrivé sur cette page, vous devez être de plutôt mauvaise humeur. Rassurez-vous, vous allez rapidement pouvoir faire les premières vérifications relatives à la suppression d’un site ou d’une page des SERPs de Google.

La suppression de l’indexation via la balise méta robot en NOINDEX

Dans un premier temps, rendez vous sur la page concernée et ouvrez le code source de la page (CTRL + U ou clic droit “Afficher le code source de la page). A titre d’information, le code source est la matière première de Google et c’est à partir de celle-ci que Google analyse la pertinence de votre page.
Cela fait, opérez un CTRL + F (fonction Find pour Trouver) et tapez “noindex”. Si vous n’avez pas de résultat, c’est que Google n’a pas ordre de désindexer la page à son passage. Le problème ne vient donc pas de là. Si en revanche vous obtenez un résultat. Appelez immédiatement votre agence technique ou votre développeur pour supprimer la balise.

Page bloquée par le robots.txt

Le fichier robots.txt est, comme son nom l’indique, destiné aux robots qui passeront votre site en revue. Cela concerne Google mais également les robots des autres moteurs de recherches et des outils comme Majestic SEO ou autres crawlers qui parcourent le web. Ce fichier regroupe les consignes de crawl du site à leur intention, et se trouve toujours à la racine du site. Vous pouvez donc y accéder en tapant :

http://www.votredomaine.votreextension/robots.txt         

Ce fichier a le pouvoir de demander aux robots de ne pas naviguer sur une certaine partie du site ou de la page. Une ligne sur ce fichier peut donc bloquer votre page, votre répertoire ou votre site entier. Pour vérifier que votre site n’est pas bloqué par le robots.txt, rendez vous sur votre compte Google Search Console et allez dans la partie Exploration > Outil de test du fichier robots.txt, puis entrez l’URI en bas de la page.

Exemple de test du blocage d’une page ou d’un site par le robots.txt via la Search Console

Vous verrez le contenu de votre robots.txt dans le corps de la fenêtre et obtiendrez un aperçu des règles qui permettent ou refusent l’accès aux robots. Vous verrez également une notification mentionnant le nombre d’erreurs et d’avertissements sur la contenance de votre robots.txt.
Si vous ne rencontrez pas d’erreurs et que votre page est accessible, alors le problème est ailleurs. Si en revanche, vous obtenez une erreur ou une ligne rouge, la Search Console vous précisera la ligne responsable du blocage. Vous n’aurez alors qu’à rappeler le développeur et à lui demander de changer la ligne concernée.

Une redirection invisible : la redirection canonique (les canonicals)

Eh oui, il est possible que vous puissiez de votre côté accéder à la page, mais qu’un élément de code transmette à Google une indication selon laquelle la page concernée ne doit pas être indexée, au profit d’une autre page du site. C’est ce que le moteur de recherche entend par “redirection canonique”. Ce système est utilisé à l’origine pour éviter la duplication de contenu mais il arrive qu’il en résulte des problèmes de navigation.
Pour vérifier, retournez sur le code source de la page et recherchez, toujours avec la fonction Find, le champ “canonical”. Si vous obtenez un résultat, vérifiez que l’URL indiquée après le “=” soitla même que celle de la page testée. Si l’URL est identique, aucun problème, si elle diffère en revanche, vous avez trouvé une erreur. Cela signifie que le code source ordonne aux robots de ne pas tenir compte de la page testée et doit indexer l’URL présente après le “=” à sa place.
Dans ce cas-là, demandez au développeur ou à votre agence de modifier la canonical pour mettre la même URL que la page testée, ou alors de supprimer le champ entier.

Conclusion                                                                 

Voici un petit schéma un peu plus clair pour vous faciliter la tâche :

 

Schéma pour vérifier l’indexation d’une page ou d’un site

Si vous êtes arrivé jusqu’ici sans trouver de solution, ce peut être plus grave #pénalités !
N’hésitez pas à nous contacter, nos équipes SEO pourront réaliser un audit gratuit de votre site !