Qu’est ce que le sitemap et à quoi sert-il ?

Le plan du site est considéré comme un élément important d’un site web, qui sert principalement au référencement naturel et répertorie un grand nombre de sous-pages avec leurs URL. Ainsi, le plan du site est une liste des pages d’un site web qui peuvent être vues ou consultées publiquement par des robots d’exploration ou des utilisateurs. Un document ou une page web peut être utilisé comme plan du site. En règle générale, le document ou les pages HTML contenant les URLs répertoriées sont organisés de manière hiérarchique.
Outre les catégories responsables de la structure d’un site web, le plan de site répertorie également certaines sections relatives aux médias et aux actualités, les éléments communautaires, le contenu du blog etc. Les sitemaps sont souvent présents sur Internet et sont également appelés protocoles sitemap. Ce protocole a été fondé sur l’idée de créer des sites Web adaptés aux robots d’exploration. En 2005, Google a développé la première technologie sitemap.
Les deux versions existante d'un plan de site
Il existe deux versions courantes d’un plan de site. Un plan de site XML (ou sitemap.xml) est un format structuré que le propriétaire du site et le visiteur ne voient pas. Cette version ne communique pratiquement qu’avec les crawlers des moteurs de recherche.


Cela leur permet de voir l’importance d’une seule sous-page, le nombre de visiteurs qui cliquent dessus et la fréquence de sa mise à jour. Le XML est un document qui utilise une structure et un codage particuliers. Ce codage est également considéré comme la norme permettant aux robots d’exploration du Web d’analyser et de trouver les sitemaps. La deuxième version est le plan du site HTML. Ce système est conçu pour aider l’utilisateur à mieux organiser le contenu du site Web. Les sitemaps HTML ne doivent pas nécessairement capturer chaque sous-page.
Il aide également les visiteurs et les robots des moteurs de recherche à trouver le contenu d’un site web et est donc accessible au public, par exemple via un lien sur la page d’accueil (généralement dans le pied de page) ou une entrée dans le menu du site. Les pages HTML, contrairement aux versions XML, indiquent la conception de la page web. Les pages XML, en revanche, sont blanches et n’ont pas de contenu CSS ou de codes HTML. Le XML est également beaucoup plus précis que le codage HTML. Les erreurs ne sont pas tolérées, ce qui signifie que la syntaxe est toujours exacte.

Les origines et le but principal d’un sitemap pour le référencement naturel
En 2005, Google a introduit les sitemaps pour permettre aux développeurs web de publier des listes de liens depuis leurs sites web. L’idée de base est que certains sites Web comportent un grand nombre de pages dynamiques qui n’existent que grâce au contenu des visiteurs, comme les forums. Le fichier sitemap contient les URLs de ces pages afin que les robots d’exploration du web puissent les trouver.
Les principaux moteurs de recherche – Bing, Google, Yahoo et Ask – partagent tous un protocole sitemap, ce qui facilite bien sûr l’adhésion des opérateurs de sites web aux spécifications et aux directives de restriction énumérées ci-dessous. Cependant, les sitemaps ne peuvent pas garantir que tous les liens seront explorés, ni l’indexation. Toutefois, un plan de site reste la meilleure assurance pour indiquer à un moteur de recherche que votre site web existe et qu’il se développe ou propose un nouveau contenu.
Utiliser et intégrer un sitemap à bon escient
Si vous avez de l’expérience dans le codage de documents Web, vous pouvez créer un plan du site à l’aide de simples extraits de code et le télécharger sur le serveur sur lequel se trouve le site Web. Faire appel un consultant SEO peut grandement vous aider. Cela peut également se faire avec des systèmes de gestion de contenu. Cependant, elles sont plutôt destinées aux profanes qui souhaitent mettre en place des plates-formes web sans grandes connaissances.
Ces groupes de personnes ont la possibilité d’utiliser ce que l’on appelle des plug-ins et de les utiliser pour installer un plan du site en un clic de souris. L’avantage de cette méthode est que la conception et le contenu exacts du plan du site peuvent être créés ou sélectionnés sans grand effort de codage supplémentaire.
De tels plug-ins qui peuvent fournir un plan du site peuvent être trouvés pour WordPress ainsi que pour Joomla, Drupal et d’autres systèmes de gestion de contenu. Le plus connu est Yoast SEO sur WordPress. En ce qui concerne le protocole sitemap, il convient également de noter que les plug-ins généralement utilisés dans les systèmes de gestion de contenu ont une limite automatique de 50 000 URLs.
Quelles sont les limites du plan du site ?
Il y a quelques restrictions à connaître lors de l’utilisation d’un plan de site. Par exemple, il n’est pas permis de répertorier dans le plan du site plus de 50 000 URLs qui renvoient à du contenu sur la plate-forme web. Si vous avez plus de contenu, vous devez en rayer une partie ou n’inclure que le plus important dans le plan du site. Une autre restriction concerne la taille du plan du site. Il ne doit pas dépasser 50 Mo.
Cette limite de taille supérieure doit également être respectée lors de l’utilisation de sites web compressés. Toutefois, vous pouvez contourner les restrictions en utilisant simplement plusieurs sitemaps. Le sitemap principal renvoie à tous les autres sitemaps, ce qui vous permet théoriquement d’inclure un total de 2,5 milliards d’URLs dans votre protocole sitemap.

Sitemap et Robot.txt, le duo ultime pour un SEO parfait
Les exploitants de sites web utilisent généralement un fichier Robots.txt. Ce fichier est considéré comme le commandant du crawler. Il spécifie par des commandes les pages et les fichiers qui peuvent être enregistrés et visités par les robots des moteurs de recherche. Cela exerce une grande influence sur l’indexation des pages web. Par exemple, on peut déterminer que les crawlers ne sont pas autorisés à mettre en œuvre certaines images dans les moteurs de recherche d’images de Google.
Vous pouvez également exclure de l’indexation par les moteurs de recherche le contenu précieux mais accessible au public que vous ne voulez pas que le monde entier examine. Étant donné que le sitemap n’a pas de grande valeur ajoutée pour un site web, il est fortement conseillé de l’exclure également de l’indexation des moteurs de recherche. Dans le pire des cas, l’accumulation des liens peuvent même détériorer la réputation dont jouissait auparavant un site web auprès de Google et d’autres moteurs de recherche.
Un bon travail de référencement ne fait que s’améliorer avec le temps. Ce sont seulement les astuces des moteurs de recherche qui doivent continuer à changer lorsque les algorithmes de classement changent.
Jill Whalen
Qu’est ce que le netlinking, à quoi il sert et comment l’utiliser dans votre stratégie SEO

Définition du Netlinking
la définition la plus simple serait de dire que le netlinking, également appelé “link building”, est une stratégie consistant à augmenter le nombre de backlinks vers un site web afin d’améliorer son classement et sa visibilité. L’objectif d’une stratégie de netlinking est d’améliorer la popularité, le classement et le trafic organique d’un site web. Vous pouvez faire appel à un consultant SEO afin de planifier votre future stratégie de netlinking.
Qu'est-ce qu'un backlink et à quoi il sert ?
Une stratégie de netlinking est basée sur l’augmentation du nombre de liens pointant vers une page web pour la rendre plus visible. Le backlink est le lien provenant d’un site tiers pointant vers votre site, il est donc l’ingrédient principal d’une stratégie de netlinking et, à ce titre, la qualité des backlinks est essentielle.
ATTENTION : seuls les liens étiquetés “do follow” sont suivis et pris en compte dans l’algorithme de Google.
Qu'est-ce qu'un lien externe de qualité ?
Pour une stratégie de netlinking efficace et durable, un backlink doit répondre à certains critères de qualité, dont voici une liste non exhaustive :
- Le lien retour (ou backlink) doit provenir d’une page web dont le contenu textuel est dans la même thématique que celui de la page ciblée.
- Il doit provenir d’une page populaire avec un PageRank élevé (ou des mesures équivalentes mesurées par des outils tels que Semrush, Majecstic, Ahrefs…),
- Le lien entrant doit provenir d’une page web avec peu de liens sortants pour maintenir un netlinking cohérent.
- Le texte d’ancrage du lien doit décrire le contenu que l’utilisateur trouvera sur la page de destination du lien, il faut éviter les textes d’ancrage tels que : en savoir plus, cliquez ici, … Cependant il est important de maintenir un profil de texte d’ancrage naturel, si tous vos liens sont “optimisés”, ce ne sera pas naturel et vous risquez une pénalité.
- Préférez un lien sur une page web avec de l’ancienneté.
- Vous devez diversifier vos domaines référents. 100 liens provenant de 100 sites différents seront plus efficaces que 100 liens provenant du même site.
- Assurez-vous que le lien est bien placé, il doit se trouver dans le contenu rédactionnel de la page.
- Évitez un afflux massif de liens entrants sur une courte période et préférez une acquisition régulière de backlinks dans le temps.
- Préférez les liens provenant de domaines à fort trafic.
En respectant tous ces critères de qualité dans votre acquisition de liens, votre netlinking sera efficace et durable.
Pensez également à analyser vos concurrents pour vous en inspirer, ou au contraire, ne pas faire les même erreurs qu’eux.

Comment faire du netlinking optimisé ?
Il existe différentes façons d’obtenir des backlinks et toutes ne sont pas égales. Outre la qualité du lien, les moyens utilisés pour l’acquisition de liens ont un impact direct sur la qualité et les résultats de votre stratégie de netlinking. En termes de création de liens, il existe deux catégories de liens :
- Liens naturels : à privilégier,
- Les liens artificiels : à éviter.
L'achat de backlinks
Il s’agit d’une technique d’acquisition de liens artificiels à éviter si vous n’êtes pas un expert en Netlinking. Google considère qu’un lien doit être naturel et l’achat est tout sauf naturel. En outre, la qualité des backlinks n’est pas toujours à jour. Si vous devez acheter des backlinks, faites-le avec beaucoup de précaution.
L'échange réciproque de liens retour
Les échanges massifs de liens entre deux sites doivent être évités ou limités à quelques liens et de préférence entre deux sites partenaires réels. La création massive de liens à partir de “sites partenaires” est au mieux inefficace et au pire pénalisée par Google.
Link baiting ou appât du lien en français
C’est de loin la meilleure stratégie de netlinking. Le link baiting consiste à capter des liens externes de manière naturelle, sans demander leur création. La mise en œuvre du link baiting est relativement simple : il suffit de produire du contenu intéressant, de le promouvoir et de surveiller la création de liens naturels. Il s’agit de la technique de netlinking recommandée par Google.
Acheter un nom de domaine expiré
En fonction de vos choix stratégiques en matière de référencement, l’achat d’un nom de domaine expiré peut être une option intéressante dans certaines conditions. Par exemple, vous devez veiller à ne pas acheter un domaine qui est pénalisé par Google. Des sites comme kifdom.com par exemple proposent des domaines expirés à la vente. Vous trouverez des domaines à tous les prix et dans tous les thèmes. Outre le prix, ils fournissent les informations suivantes
- Disponibilité (immédiate ou non),
- La date à laquelle le domaine a été ajouté,
- L’ancienneté du domaine,
- Son PageRank Google,
- Ahrefs Rank et les mesures de Majestic SEO (Trust Flow (TF) et Citation Flow (CF)).
Une fois que vous avez acheté votre domaine, vous pouvez simplement l’utiliser en mettant en œuvre une redirection 301 ou l’exploiter à nouveau en déplaçant un site.
Pour augmenter votre nombre de backlinks sans risquer d’être sanctionné par Google, la technique de netlinking à privilégier est définitivement le « link baiting ».
Comment piloter et suivre votre stratégie de netlinking
Dans le cadre d’une stratégie de Netlinking, il est important de piloter votre suivi de backlinks.
Cette vérification des liens entrants permet :
- De vérifier que les backlinks artificiels sont toujours présents,
- Analysez la qualité et la pertinence de tous vos liens entrants,
- Identifiez les backlinks indésirables et signalez-les,
- Suivez la progression de l’acquisition de liens naturels.
Vous pouvez vérifier vos backlinks avec la Google Search Console et Bing Webmaster. Vous pouvez également utiliser des outils de référencement plus complets, tels que ceux proposés par Majestic SEO, Ahrefs ou SemRush. Ces outils payants fournissent plus d’informations sur vos backlinks. Ils ont également l’avantage de figurer dans d’autres listes que celles de la Google Search Console.
Conclusion : Ce qu’il faut retenir du netlinking
Le netlinking est efficace pour améliorer la réputation et la visibilité d’une page à condition que vous :
- Privilégiez la qualité à la quantité,
- Privilégiez les liens naturels au détriment des liens artificiels.
Si vous respectez ces deux conditions, vous obtiendrez un netlinking efficace, durable et rentable pour votre référencement naturel.