Get free SEO audit

Liens Rapides

Les fausses idées reçues sur le sitemap XML

Les fausses idées reçues sur le sitemap XML

Qu’est ce que le fichier Sitemap.xml ? C’est un fichier simple qui contient de nombreuses commandes écrites pour coopérer avec les robots des moteurs de recherche (comme le Googlebot). Il dispose de fonctionnalités permettant de promouvoir les pages en haut des résultats de recherche, en facilitant la manière dont l’algorithme numérique comprend l’organisation de votre site web.

On va utiliser notre imagination. Sitemap.xml est un type de couloir qui rassemble toutes vos pages HTML pour les moteurs de recherche en les rendant « visibles ». Il est essentiel de comprendre cette notion avant de passer à la suite. Continuez la lecture de cet article pour découvrir les fausses idées au sujet des sitemaps.

Les problèmes d’indexation

 

Durant la lecture de cet article, débarrassons-nous d’abord de l’idée fausse la plus répandue : le sitemap XML contribuerait à l’indexation de toutes les pages du site web. Ce n’est pas correct. Ce fichier n’est pas conçu pour envoyer poliment des demandes d’indexation au robot de découverte du moteur de recherche. Google se débrouille très bien tout seul pour cela. Il parcourt le site web et sélectionne les pages de meilleure qualité (selon lui) pour les indexer. Les sitemaps ne sont pas censés attirer l’attention du système de recherche comme beaucoup de gens le pensent.

Le sitemap est une sorte de filtre injecté dans la console de recherche de Google. Il synthétise des notions au sein d’un algorithme qui indique quelle est la page d’atterrissage adéquate qui sera scannée. Il donne simplement des indications à l’intelligence artificielle pour lui recommander les pages les plus pertinentes. C’est tout.

Manque de cohérence

 

Dans de nombreux exemples de fichiers sitemap XML, un professionnel peut détecter facilement un défaut simple : le message sur l’état de la page à indexer transféré au système de recherche n’est pas cohérent. La description du sitemap XML est parfois contraire aux actions du « meta robots ». Les commandes suivantes peuvent porter à confusion.

  •  « Noindex » – comme son nom l’indique, cette commande précise qu’il n’est pas nécessaire d’indexer la page.
  • « Nofollow » – cette page ne contient aucune information de valeur.
  • « Noindex,nofollow, » – cette page sera perçue par le système comme une page fantôme. C’est le problème le plus fréquent car il conduit parfois à l’inutilité du site web qui devrait être indexé.

Il faut faire attention à vérifier que les commandes ne vont pas l’une à l’encontre de l’autre. Autrement dit, toutes les informations devraient être filtrées en respectant deux paramètres simples :

  •  Les pages utiles contiennent des informations destinées aux humains qui naviguent en ligne. Le webmaster devrait utiliser « noindex, follow » pour les robots et les supprimer du sitemap XML.
  • Pages d’atterrissage pour les robots – le texte qui est conçu à destination des robots des moteurs de recherche et sera pris en compte pour grimper dans les premiers résultats de recherche. Ces pages doivent être ajoutées au fichier XML. Il est nécessaire de renseigner une exception pour éviter d’être banni par les robots.

Développement global du site

 

Certains pensent que les mécanismes de recherche ont un paramètre ou une mesure personnelle, qui sélectionne les pages web à mettre en avant. Pourtant, si on essaie de raisonner comme une machine et d’analyser un millier de sites, on remarquera rapidement une corrélation simple. Si seulement 5 ou 6 pages ont été créées pour les ordinateurs, et toutes les autres pour les humains, alors le site n’occupera pas les premières places de la page de résultats du moteur de recherche. Il faut trouver un équilibre entre les contenus à destination des ordinateurs et des humains pour que l’optimisation permette de promouvoir le site web.

Il est recommandé d’utiliser le texte à destination des machines sur les pages qui ne nécessitent pas de lecture humaine et de les renseigner dans le fichier XML. Les meilleurs choix de pages d’atterrissage sont les sections de connexion, de commentaire, de récupération du mot de passe et de partage du contenu. Toutefois, c’est loin d’être suffisant. Le mélange idéal consiste à inclure environ 50% du contenu dans l’indexation Google. Par conséquent, avoir davantage de pages à destination des robots vérifiées par un fichier XML permet de rendre le site plus populaire. Pour mettre en avant un site web, il faut impérativement faire preuve de flexibilité.

Les problèmes de très gros sites web

 

Les webmasters ayant des sites web gigantesques ont peur de modifier le fichier XML parce qu’ils pensent qu’il est nécessaire de renseigner manuellement chaque page. Ceux dont le site web comporte plus de 1 000 pages considèrent cela comme un vrai cauchemar. Heureusement, il s’agit encore une fois d’une idée fausse. Les fichiers statiques sont démodés et conviennent davantage aux sites web « carte de visite » de toute petite taille.

De gros sites web peuvent bénéficier fortement des fichiers XML dynamiques de plus en plus répandus. Ils s’ajustent automatiquement pour les robots. Le webmaster n’aura même pas besoin de les envoyer manuellement à la console de recherche Google. Le document contient un jeu de paramètres. Ceux-ci s’appliqueront à la totalité du site web de la manière décrite dans la section sur les commandes à envoyer aux robots. La totalité du site web sera catégorisée en suivant de simples critères « oui » – « non ».

C’est particulièrement efficace pour les sites comprenant de nombreux types de contenus différents. Le sitemap XML sera en mesure de discerner quels sont les fichiers et objets cachés nécessaires et utiles pour l’indexation automatisée. Chaque page web mise à jour suivra le même traitement d’après les conditions fixées dans le fichier dynamique. Un fichier XML dynamique détermine si la page est à indexer ou non en prenant en compte les paramètres précisés en amont.

Un bon résumé

 

Afin de synthétiser toutes les informations présentées au sujet des particularités de ce fichier XML, nous pouvons vous rappeler les principes fondamentaux d’utilisation. Nous espérons que vos sites web existants et futurs seront facilement trouvés et mis en avant par les systèmes de recherche.

  •  Envoyez toujours des commandes correctes et cohérentes. Vous pouvez vérifier leur exactitude grâce à un testeur de sitemaps. Cela garantira l’efficacité de ce composant logiciel.
  • Pour de gros sites web, un fichier XML sera plus efficace car il tiendra compte de toutes les activités et de toutes les données entre les robots, meta robots et les moteurs de recherche.
  • Utilisez un vérificateur de sitemap supplémentaire conçu pour éviter toute incohérence durant l’indexation par les moteurs de recherche. Vous devez être certain que Google choisit la bonne option.

Si la programmation vous passionne et que vous souhaitez mettre en pratique toutes vos idées dans un site web qui marche, n’ignorez jamais les outils puissants qui permettront de faire découvrir votre portail au plus grand nombre de personnes. Il est fondamental de comprendre le fonctionnement des logiciels pour réussir tout en préservant votre ressource la plus précieuse : le temps.

Consultez nos autres outils de référencement géniaux !
Vérificateur de trafic Estimez les statistiques de trafic du site Web par différents canaux et à différentes périodes.
Vérificateur de rang Obtenez un rapport avec des mots-clés qui apportent au site Web le plus de trafic organique.
Test de rapidité Testez la vitesse d'une page spécifique et obtenez des suggestions sur la façon de l'améliorer.
Vérificateur de backlinks Notre outil gratuit de vérification des backlinks vous aidera à surveiller les liens vers votre site Web.
Sécurité du site Web Vérifiez que le site Web est sûr et qu'il n'est pas répertorié comme suspect.
Sites Web similaires Des outils gratuits permettant aux utilisateurs d'obtenir des informations sur des sites similaires en quelques secondes.
Voir tous les outils

Check your website SEO performance

Get a personalized checklist on how to improve your website to rank higher on Google