Comment sélectionner des mots clés pertinent pour votre SEO en 5 étapes

La recherche de mots-clés est l’une des étapes les plus importantes de l’optimisation pour les moteurs de recherche. Ce n’est qu’en optimisant sur des mots-clés bien choisis que l’on peut obtenir des résultats. Pour le choix des mots-clés, outre la pertinence et la thématique, le volume de recherche est un critère important pour tous les SEO. Les mots-clés qui ne sont pas recherchés ne génèrent pas d’utilisateurs. Je vais vous montrer comment vous pouvez décider quels mots-clés choisir en SEO en fonction de votre secteur d’activité. Avant de commencer les cinq étapes, nous allons d’abord clarifier les points les plus importants concernant le volume de recherche.
Je vais vous montrer en cinq étapes à quels facteurs vous devez faire attention lors de votre recherche de mots-clés. Ainsi, même sans être un expert en SEO, vous trouverez les bons mots-clés pour votre site ! Faire appel à un professionnel du SEO peut tout de même vous être d’une grande aide pour la sélection de vos mots clés.
Tout connaitre sur le volume de recherche
Par volume de recherche, on entend le nombre de recherches effectuées ou attendues pour un mot-clé au cours d’une période donnée.
La plupart des données se réfèrent à une valeur moyenne mensuelle. Ces valeurs ne doivent bien sûr pas rester constantes chaque mois. De nombreux volumes de recherche dépendent d’une saison. Prenons par exemple les mots-clés ” Ventilateur ” et ‘’ Sapin de Noël “. Les deux ont un volume de recherche mensuel moyen comparable, mais sont recherchés en France à des mois différents. Une telle évolution saisonnière peut être mise en évidence à l’aide de Google Trends :
On peut facilement voir que ‘’ sapin de Noël ‘’ est plus recherché lorsque l’automne commence et que les lunettes de soleil deviennent un terme de recherche plus fréquent au début du printemps. Les mots-clés ne sont pas pour autant réduits à néant, car on a aussi besoin d’une protection solaire en hiver.

Choisir le bon outil SEO pour déterminer le volume de recherche d’un mot clé
Pour pouvoir définir des mots-clés pour l’optimisation, il faut d’abord les rechercher. Les outils suivants entrent en ligne de compte :
- Semrush : Sans doute l’un des meilleurs outils en termes de référencement. Seul bémol, son prix est d’environ 100$ / mois.
- Outil de planification Google : Outil gratuit à la portée de tous proposé par Google en personne. Inconvénient, l’outil propose une estimation du volume de recherche et non un volume exact et la concurrence des mots clés est basé sur du SEA et non du SEO.
- UberSuggest : Le bon compromis des outils SEO avec un tarif très abordable et version gratuite assez poussée. En revanche, le principal inconvénient, est que ces données ne sont pas très fiables.
- Ahref : Outil connu de tous les SEO, Ahref propose une bonne sélection de mots clés, en revanche l’outil est payant et est surtout utilisé pour analyser le profil de liens des sites.
Il existe bien évidement de nombreux autres outils pour une sélection de mots clés pertinente. Je vous conseille de choisir un outil avec lequel vous êtes à l’aise et qui rentre dans votre budget.
Choisir ses mots clés SEO en 5 étapes clés
Lorsque vous décidez quels mots-clés choisir, trois facteurs sont particulièrement pertinents :
- Volume de recherche : Plus le volume de recherche est élevé, plus vous atteignez d’utilisateurs potentiels.
- La pertinence : Plus le mot-clé est pertinent dans les résultats de recherche de moteurs, plus cela l’est pour l’utilisateur
- La difficulté : La concurrence est omniprésente en référencement naturel, sélectionner des mots clés avec un KW (Keyword Difficult) faible vous permettra d’être positionné plus facilement.
Les facteurs pertinence et difficulté font que ce n’est pas toujours le plus grand volume de recherche qui est le plus adapté. Supposons que vous écriviez un blog sur le sport et que vous souhaitiez planifier de nouveaux articles de blog. Comment décider pour quels mots-clés écrire de nouveaux articles ? Pour cela, vous avez besoin des cinq étapes suivantes. Mais attention, l’exemple donné ici est bien sûr très superficiel, fictif et ne vise qu’à illustrer la procédure.
1 : La recherche de mots clés
La première étape consiste à rechercher des mots-clés potentiels. Pour simplifier, nous nous en tiendrons aux exemples de mots-clés sur le sport, comment perdre du poids, apprendre à courir, comment faire un marathon… J’ai donc recherché sept mots-clés pour cet exemple. Le mieux est de créer un tableau dans lequel vous inscrirez toutes les informations importantes. Cela peut par exemple ressembler à ceci :

2 : Rechercher le volume de recherche
Pour cet exemple, j’utilise l’outil SEMrush. Tout autre outil de mots-clés convient également. Les volumes de recherche sont ensuite saisis pour les différents mots-clés :

Lorsque l’on dispose d’un ensemble de mots-clés (dans l’exemple, nous avons maintenant un ensemble de 7 mots-clés), on peut encore déterminer, à l’aide des données des volumes de recherche, quel volume de recherche est élevé et quel volume de recherche est faible. Dans cet exemple, tout est élevé. On peut considérer un volume de recherche faible comme étant inférieur à 500 recherches mensuelles, moyen entre 500 et 1.000 et élevé lorsque le mot clé est supérieur à 1.000. Cela n’est pas une généralité, certaines thématiques on bien moins de mots clés que d’autres, dans ce cas, un volume de 500 peut être considérer comme élevé.
3 : Déterminer la pertinence du mot clé choisi
Sans doute l’une des étapes les plus importantes selon moi.
Cela devient maintenant plus difficile. Si l’on pouvait simplement choisir des mots-clés et obtenir un (très) bon classement pour ceux-ci, le SEO ne serait probablement pas aussi important. Malheureusement, il n’est pas toujours facile de trouver le bon mot-clé dans la recherche Google. La troisième étape consiste à réfléchir à la pertinence d’un mot-clé. Le mieux est de rechercher les différents mots-clés dans Google en mode incognito et de comparer les résultats avec son propre site en essayant de répondre aux questions suivantes :
- Les mots-clés correspondent-ils à mon site et au contenu des pages prévues à cet effet ?
- Qu’est-ce qui se positionne dans les résultats de recherche ?
- Les résultats de recherche supérieurs sont-ils uniquement constitués d’annonces ou d’extraits enrichis qui poussent ainsi les résultats organiques vers le bas ?
- Le mot-clé est-il la marque d’une entreprise et les résultats de recherche se composent-ils uniquement de la page de l’entreprise ?
- Un extrait de Google Maps fait-il descendre les résultats ?
- Les pages qui ressemblent beaucoup à la mienne et qui abordent des thèmes similaires se classent-elles ?
- Les résultats qui ressortent sont-ils du SEO local ?
- Les pages qui couvrent un contenu totalement différent se classent-elles ?
- Les résultats correspond-ils au type de contenu que je souhaite créer

Plus la page s’intègre dans les résultats de recherche, plus elle est pertinente. Si les résultats de recherche sont dominés par des annonces, des extraits enrichis ou des extraits de cartes, les résultats organiques passent au second plan et la pertinence diminue. Il est alors possible d’indiquer dans l’aperçu si la pertinence d’un mot-clé est élevée ou faible :
4 : Détermination de la difficulté de se positionner sur le mot clé
La pertinence est importante, mais la difficulté réelle d’être classé dans les résultats de recherche l’est encore plus. Quelle est donc la probabilité que l’article apparaisse sur la première page des résultats de recherche ? Si seules les grandes boutiques sont classées, les chances de les dépasser reste faible. Si des pages similaires se classent et que les articles ne correspondent pas si bien au mot-clé, les chances sont très élevées. Dans ce cas, l’optimisation peut donc conduire à un classement dans le top 10 et donc à des clics pertinents. Pour l’exemple fictif, cela peut se présenter ainsi :

L’outil SEMrush indique également la métrique ‘’ keyword difficult ‘’. L’outil se base sur une échelle de 0 à 100 permettant d’évaluer la difficulté de se positionner sur ce mot clé.
Les mots-clés sont utiles lorsqu’ils sont recherchés, pertinents et qu’ils ont leurs « chances » d’être classés.
On recherche bien sûr aussi des mots-clés pour des pages déjà existantes dont on souhaite améliorer le classement. Si, pour les mots-clés choisis, la page personnelle se positionne par exemple sur la deuxième page du moteur de recherche, on a plus de chances, grâce à une optimisation concrète, d’arriver rapidement sur la première page et de générer ainsi plus de trafic.
5 : Définir ses priorités en fonction de sa thématique et de son marché
Toutes les informations importantes sont maintenant rassemblées. Il est maintenant possible de déterminer quels sont les mots-clés qui conviennent vraiment. Il n’existe malheureusement pas d’instructions toujours adaptées sur la meilleure façon de pondérer tous les facteurs. En général, il faut s’orienter sur la pertinence des SERP et du volume de recherche. S’il y a des mots-clés avec un volume de recherche élevé et d’autres avec un volume de recherche faible qui ont une concurrence élevée, les mots-clés avec un volume plus élevé sont naturellement plus intéressants.

Conclusion : Choisir ses mots clés de façon pertinente pour votre SEO
À ce stade, j’aimerai savoir quel outil vous utilisez le plus pour la recherche de mots-clés, et est-ce que cet article vous a appris quelque chose d’intéressant pour votre sélection de mots clés ? J’attends vos commentaires 😊
Comment bien utiliser la Google Search Console en 2022 ? Le guide complet

Vous êtes propriétaire d’un site web ou d’une entreprise et que vous essayez d’optimiser votre site web, vous avez peut-être déjà entendu parler de la Google Search Console. Si vous n’êtes pas familier avec la Search Console, vous ne savez peut-être pas à quel point elle est importante.
Initialement connue sous le nom de Google Webmaster Tools depuis près d’une décennie, Google a rebaptisé sa suite d’outils Google Search Console en 2015.
À chaque nouvelle année, Google met à notre disposition de nouveaux outils et analyses et données que nous pouvons suivre dans la Google Search Console.
Bien configurer la Google Search Console
Avant toute chose : la Search Console est mise à disposition gratuitement par Google. En effet, Google a tout intérêt à ce que votre site Internet réponde le mieux possible aux exigences des utilisateurs et des moteurs de recherche. Comme Google doit de toute façon collecter des données sur votre site web pour le rendre trouvable via la recherche sur le web, la mise à disposition des données dans l’outil n’occasionne pratiquement pas de frais supplémentaires pour Google.
Faire appel à un consultant en référencement naturel, peut vous être d’une grande aide dans la mise en place de la Search Console et de son optimisation.
Que propose la Google Search Console ?
Les fonctionnalités de la GSC couvrent les domaines suivants :
- Analyse : Comment votre site web se positionne-t-il dans les résultats de recherche ? Pour quelles requêtes de recherche vous trouve-t-on ? Quels backlinks pointent vers vos contenus ?
- Surveillance : Google a-t-il constaté des erreurs lors de l’accès à votre site ? Votre site est-il toujours adapté aux mobiles ? Y a-t-il des problèmes techniques ?
- Configuration : Comment Google doit-il accéder à votre site ? Celui-ci est-il par exemple orienté vers un pays particulier ?
Les questions énumérées sont à chaque fois à considérer comme des exemples et couvrent les cas d’application les plus fréquents lors de l’utilisation de la GSC.
Pour pouvoir utiliser la Search Console, vous devez vous identifier comme propriétaire d’un site web ou obtenir l’accès à un site web d’un propriétaire existant. Pour configurer un site web pour la première fois dans la Google Search Console, une clé d’identification personnelle doit être déposée sur le site web. Une présence web confirmée est appelée “propriété” dans la GSC. Pour valider un site Web, vous avez donc besoin de :
- Un compte utilisateur chez Google
- Votre clé d’identification personnelle sur le site web.
Pour commencer à vérifier votre site web, rendez-vous sur https://search.google.com/search-console/about et connectez-vous.
Google propose différents types de vérification pour les sites web :
- Domain-Property : ceci permet de tout regrouper sur le site web
- URL-Property : seules les données relatives aux adresses commençant par le préfixe correspondant sont affichées. Si je choisis ici par exemple https://www.mon-site.fr/, les données pour http:// n’y seraient pas saisies.

En bref : en créant une propriété de domaine, vous obtenez davantage de données. Celles-ci sont toutefois regroupées sur différents domaines de pages. Cela signifie, par exemple, que les contenus sous blog.mon-site.fr ainsi que www.mon-site.fr apparaissent ensemble dans une propriété de domaine. Si vous publiez des contenus sous différents sous-domaines, comme blog. et www., vous avez tout intérêt à utiliser une propriété de domaine. Vous pouvez bien entendu combiner la propriété de domaine et les préfixes d’URL.
Mais comment configurer ces propriétés exactement ?
Pour cela, il est nécessaire de publier la clé de vérification personnelle sur la propriété. Pour cela, Google propose différentes options comme le téléchargement d’un fichier HTML. Toutes les méthodes sont équivalentes, le choix n’a donc aucune importance. Vous trouverez un aperçu des méthodes de vérification avec plus d’informations dans l’aide de la Search Console.

Comprendre le tableau de bord de la Google Search Console
Après avoir mis à disposition la clé de vérification sur le site web comme décrit par Google, vous pouvez terminer le processus et voir ensuite ce que l’on appelle le tableau de bord. Celui-ci vous donne un aperçu de la manière dont votre site web est actuellement trouvé dans la recherche Google ainsi que de la couverture de l’index, y compris les améliorations possibles pour les différentes adresses.
En cliquant sur « Exporter », vous pouvez obtenir plus de détails sur les données affichées. Vous pouvez également utiliser la navigation de gauche.

Le rapport de performances : Pour quelle requête vous trouve-t-on ?
Le domaine d’analyse le plus populaire de la Search Console se trouve dans l’onglet « Performances ». Ici, vous pouvez voir pour quelles requêtes de recherche votre site web a été trouvé, depuis quel pays la requête de recherche a été effectuée, sur quelles adresses les utilisateurs sont entrés, via quel type de terminal et bien plus encore. Vous voyez : c’est très complet !
Au-dessus du graphique, vous pouvez sélectionner ce que l’on appelle les métriques. Celles-ci sont :
- Clics : Combien de fois le site web a-t-il été visité ?
- Les impressions : Combien de fois le site web est-il apparu dans les résultats de recherche consultés par l’utilisateur ?
- Taux de clics (CTR) : quel est le rapport entre les clics et les impressions ?
- Position : à quelle position le site web est-il apparu ?
En dessous du graphique, vous trouverez les dimensions dans lesquelles vous pouvez consulter les données :
- Requêtes de recherche : pour quelles requêtes de recherche avez-vous été trouvé ?
- Les pages : Avec quelle adresse avez-vous été affiché ?
- Pays : depuis quel pays la recherche a-t-elle été effectuée ?
- Appareil : via quel type d’appareil (desktop, mobile, tablette) la requête a-t-elle été effectuée ?
- Apparence dans les SERP : Votre site web a-t-il été affiché, par exemple, avec des évaluations par étoiles ou autres ?
- Dates : comment les données se répartissent-elles par jour ?

Le rapport de performance est très puissant et peut vous fournir énormément d’informations sur les contenus qui sont actuellement particulièrement bien classés dans les recherches Google. Grâce aux filtres, vous pouvez analyser les données en fonction de vos besoins. Si vous choisissez par exemple sous Appareil => Mobile, toutes les données seront filtrées après un clic. Vous pouvez donc voir quelles recherches ont été effectuées sur des appareils mobiles et les combiner avec toutes les dimensions telles que les pages d’accueil ou les recherches.
Dans la barre principale, vous pouvez voir les filtres mis en place et les régler. Une option de comparaison est également disponible. Pour ce faire, cliquez sur ” + Nouveau ” dans la barre supérieure, sélectionnez ce que vous souhaitez comparer (par exemple la semaine dernière avec cette semaine) et fixez les valeurs. Vous pouvez ainsi voir où les positions ont éventuellement changé.
J’aimerais vous recommander un article de l’aide de la Search Console pour une lecture plus approfondie. Dans cet article, Google explique comment se calculent les différentes valeurs telles que les impressions, les clics et la position moyenne.
Prenez un peu de temps pour vous familiariser avec le rapport de performance. Je vous le garantis : Cela en vaut la peine ! Il contient énormément d’informations pour développer et évaluer la visibilité de votre site web.
Vérification de l'URL : Vos pages sont-elles indexées et peuvent-elles être améliorées ?
La vérification de l’URL est un outil qui vous permet de vérifier si certaines adresses de votre site web présentent un potentiel d’amélioration. Cette fonction est également visible dans la barre principale en haut. Vous y saisissez une adresse et recevez ensuite des informations de Google.
En cliquant sur les flèches, vous obtiendrez de plus amples informations. Le test en direct, accessible par un lien en haut à droite, est particulièrement intéressant. Grâce à lui, vous demandez à Google d’appeler à nouveau la page et de la vérifier. En effet, les données affichées initialement proviennent de ce que l’on appelle l’index Google et montrent la dernière version de la page que Google a saisie. Après l’envoi d’un test en direct et un clic sur Afficher la page testée, vous voyez le texte source que Google a traité ainsi qu’une image visuelle de la page.
Alors, à quoi sert la vérification de l’URL ?
- Vérifier si une page figure dans l’index Google
- Si des améliorations peuvent être apportées à une page et, si oui, lesquelles.
- Quel est le texte source affiché par Google et à quoi ressemble le site pour Google.
- Pour informer Google d’une mise à jour du contenu d’un site web ou d’une toute nouvelle adresse.
Google vous renvoie toujours à la vérification de l’URL par différents moyens au sein de la Search Console.
Couverture de l'index : quelles sont les pages (non) indexées ?
Dans la vérification de l’URL, Google vous dit déjà si certaines adresses peuvent être trouvées via Google (parce qu’elles sont indexées). Pour obtenir cette information pour le site web dans son ensemble, il existe un rapport spécifique avec la couverture d’index.
Pour mon site utilisé comme exemple, 30 pages sont actuellement indexées sans erreur par Google. En outre, 26 adresses sont connues du moteur de recherche, mais ne peuvent pas être trouvées via la recherche Web (Exclu) en raison de différents critères d’exclusion.
La tendance permet de voir comment évolue le nombre d’adresses dans le cluster concerné. Si, par exemple, le nombre de pages avec redirection diminue sans que vous ayez activement supprimé des redirections, cela peut être le signe d’un problème. Il en va de même si vous mettez beaucoup de nouvelles pages en ligne, mais que la ligne verte stagne.
Comme pour les autres rapports, il existe de nombreux cas d’application pour la couverture de l’index. Ils vont de la liste des pages introuvables (erreur 404) aux adresses bloquées. Les données (jusqu’à 1.000 sont affichées) peuvent être filtrées ou téléchargées comme dans le rapport de performance par exemple. Utilisez à cet effet les icônes situées au-dessus du tableau de données.
Il est particulièrement intéressant de rechercher les adresses qui ont été indexées par Google, mais qui n’apparaissent dans aucun plan du site. L’idée de base est que toutes les adresses souhaitées pour l’indexation devraient être contenues dans des sitemaps XML. Le rapport permet d’identifier les adresses qui ont été omises lors de la création des sitemaps.
Vos sitemaps ont-ils été traités correctement à votre Search Console
Les sitemaps XML vous permettent d’envoyer de (nouvelles) adresses aux moteurs de recherche afin d’accélérer leur intégration dans l’index. Seules les adresses qui y sont reprises peuvent être trouvées via la recherche web.
Pour que vous puissiez consulter les statistiques, vous devez envoyer vos sitemaps XML. Pour ce faire, saisissez leur adresse dans le masque de saisie et envoyez-la.
Dans la partie supérieure gauche du rapport de couverture, vous voyez que l’évaluation a été limitée au fichier sélectionné. Le cas échéant, vous voyez les adresses qui ont été soumises, mais qui n’ont pas encore été indexées. Bien entendu, Google affiche également les adresses qui n’ont pas pu être consultées. Utilisez ce filtrage de données pour optimiser les sitemaps XML défectueux.

Actions manuelles et problèmes de sécurité : existe-t-il des problèmes graves
Si Google a constaté des violations des directives pour webmasters ou des problèmes de sécurité sur le site web, vous trouverez plus d’informations à ce sujet dans les points de menu correspondants. Dans 99% des cas, vous voyez sur les rapports que tout va bien. En cas de problèmes, Google vous envoie une notification dans la Search Console et en plus par e-mail, si vous n’avez pas modifié ce paramètre par défaut.
Les liens : Qui fait des liens vers vos contenus ?
Le netlinking est une notion primordiale en SEO. En effet, chaque fois que vous cliquez sur un mot ou une image pour accéder à un autre site web, vous avez suivi un lien (ou backlink). Dans l’idéal, un grand nombre de sites web de qualité établissent un lien vers vos contenus car c’est un signal très fort pour chaque moteur de recherche et il est généralement récompensé par de très bonnes positions.
Dans la Google Search Console, vous pouvez voir quels sont les liens externes et internes connus de Google pointent vers vos contenus. Dans la partie supérieure droite, vous trouverez les possibilités de téléchargement.
En cliquant sur Plus, vous obtenez d’autres données. Vous pouvez par exemple analyser d’où proviennent les backlinks vers une sous-page bien précise. Comme d’habitude, vous pouvez filtrer les données affichées à l’aide de l’entonnoir.
Comment utiliser les données pour optimiser votre site web ? Par exemple en regardant quelles pages web sont très souvent reliées en interne comme en externe. Ces pages sont facilement accessibles et de nombreux utilisateurs visitent ces adresses. Utilisez ces pages pour rendre d’autres contenus accessibles !
Les paramètres de la Google Seach Console
Au début de ce tutoriel détaillé sur la Google Search Console, je vous ai dit qu’il était possible de configurer son propre site web via cet outil. Dans de nombreux cas, cette ou ces fonctions n’ont pas encore été transférées dans la nouvelle présentation et se trouvent actuellement sous Outils et rapports précédents.
Dans la zone des paramètres, vous pouvez actuellement ajouter d’autres utilisateurs et annoncer un changement de domaine. En outre, vous pouvez voir ici, si Google saisit actuellement votre site web via un crawler pour smartphone ou pour ordinateur. Si c’est le cas, votre site web a déjà été converti à ce que l’on appelle le Mobile Frist Index. Si ce n’est pas le cas, ce n’est pas un inconvénient. Veillez toutefois à ce que votre site soit optimisé pour les mobiles.
Tutoriel de la Google Search Console (GSC) terminé
Le guide complet pour bien utiliser la Search Console en 2022 est maintenant terminé.
Il y a certains points que je n’ai pas abordé, car tout le monde n’y est pas éligible en fonction des données récoltés par Google. C’est le cas de l’onglet « Expériences » et l’onglet « Améliorations » qui ne sont pas très importants. Je vous laisse surfer dessus par vous-même afin de voir quel serait leurs utilités pour votre site internet.
Merci d’être venu jusqu’ici. J’espère vraiment que ce tutoriel vous a donné un aperçu complet de la Google Search Console. Pour un outil gratuit, l’étendue des fonctions est géniale, de plus, la GSC vous aide à améliorer votre site web en permanence. Bonne optimisation à tous ! 🙂
Indexation Google : Comment bien indexer les pages de votre site web

La gestion de l’indexation reste une tâche extrêmement importante dans l’optimisation pour les moteurs de recherche (SEO). L’objectif est de ne faire indexer que les pages souhaitées par Google et d’éviter les doublons.
Il existe différents outils techniques qui permettent de contrôler les pages dans l’index Google. Mais si ces outils sont confondus ou mal utilisés, l’effet escompté peut être perdu ou des signaux négatifs peuvent même être envoyés au moteur de recherche. Dans cet article, je vous montre quels sont les outils existants et dans quels cas ils sont utilisés.
En tant que Consultant SEO, je peux vous accompagner dans l’élaboration de votre future stratégie de référencement.
Pourquoi la gestion de l’indexation est-elle importante en SEO ?
Il s’agit en premier lieu de ne mettre à la disposition de l’utilisateur et du moteur de recherche, que des pages qui offrent une valeur ajoutée. Or, les domaines accumulent au fil du temps, des pages sans contenu ou des doublons qui n’ont aucune pertinence pour l’utilisateur.
Pour simplifier, on parle de doublons lorsqu’il existe plusieurs pages au contenu très similaire ou exactement identique avec des URL différentes. Cela complique l’exploration et l’évaluation des pages par Google Bot et peut entraîner un classement moins bon ou un classement non souhaité du doublon au lieu de la page originale souhaitée.
Parallèlement, il existe des pages ou même des domaines entiers sur le domaine qui ne représentent certes pas des doublons, mais qui ne doivent pas pour autant apparaître dans l’index et donc dans les requêtes de recherche. Il peut s’agir par exemple de pages dans le processus de paiement, de pages de services ou encore de répertoires avec des images.
Comment savoir si mes pages sont indexés sur Google
Pour vérifier les pages actuellement indexées et identifier d’éventuels problèmes, il est possible d’utiliser ce que l’on appelle la requête de site de Google Search. Pour effectuer une requête de site, vous devez saisir dans la recherche Google : ” site:www.mon-site.fr “.
SCREEN SERP SITE :
Vous obtiendrez comme résultats de recherche toutes les URL qui se trouvent dans l’index. Si vous avez plusieurs sous-domaines, saisissez le domaine sans www. afin que toutes les pages soient affichées. Faites attention aux URLs avec des paramètres et/ou aux résultats qui n’ont pas de sens pour vous. Bien entendu, il n’est pas possible de vérifier chacune des milliers de pages indexées. Mais une première analyse devrait vous donner une idée générale de la qualité des pages indexées et vous permettre d’identifier des modèles en cas de problèmes éventuels.

Comment pousser l’indexation et éviter les doublons
Nous souhaitons à présent clarifier la question de la manipulation des pages existantes. Pour contrôler le crawling ou l’indexation, on utilise les outils suivants :
- Robot.txt
- Balise méta Robots
- Balises Canonical
Outre ces points, il existe bien sûr d’autres moyens pour annuler l’indexation des pages de votre site web à court ou à long terme, comme le code d’état 410 ou encore les redirections. Ces deux points sont toutefois appliqués à des pages qui n’existent plus et ne seront donc pas abordés dans un premier temps.
Pousser l’indexation de vos pages grâce à la Google Search Console
Vous pouvez également solliciter une demande d’indexation à Google grâce à l’outil Google Search Console. Cela permet de tester votre URL et d’indexer vos pages plus rapidement.
Pour se faire, allez dans l’onglet « Inspection de l’URL », ajoutez-y l’URL que souhaitez soumettre, vérifiez son état à l’aide du bouton « TESTER L’URL EN DIRECT » puis, appuyez sur « DEMANDE UNE INDEXATION ».

Le robots.txt
Structure du fichier robots.txt
Selon l’accord du protocole standard Robots-Exclusion, un crawler web (robot) qui trouve un site web lit d’abord le fichier robots.txt (en minuscules) dans le répertoire racine (“root”) d’un domaine. Dans ce fichier, il est possible de définir si et comment le site web peut être visité par un crawler web. Les exploitants de sites web ont ainsi la possibilité de bloquer certaines zones de leur présence sur le web pour (certains) moteurs de recherche.
Grâce à ce fichier, vous indiquez donc à Google quelles pages peuvent être visitées et quelles pages ne doivent pas l’être. Une structure de base pourrait par exemple ressembler à ceci :
- User-agent : *
- Désactiver : /wishlist/
- Désactiver : /admin.html
- Sitemap : https://www.mon-site.fr/sitemap_index.xml
Avec cette entrée dans le Robots.txt, vous autorisez les moteurs de recherche (User-Agent) à visiter toutes les pages, à l’exception des deux répertoires exclus. En outre, le chemin du sitemap est également affiché, ce qui permet aux moteurs de recherche de comprendre plus rapidement l’architecture du site.
Il faut toutefois mentionner ici que l’exclusion de certaines pages ou de certains répertoires dans le robots.txt n’empêche pas l’indexation de base et donc l’apparition dans les résultats de recherche. Cependant, la plupart des moteurs de recherche s’en tiennent aujourd’hui à cette indication dans le fichier.
Conseil : Pensez à soumettre également le sitemap à la Search Console.
Balise Méta Robots
Structure et variations des balises meta
La balise méta mentionnée ci-dessus sert à contrôler le comportement du crawler ou des robots Google (ainsi que des autres crawlers web). Il existe quatre valeurs qui peuvent également être combinées entre elles :
- “index” : la page est indexée
- “noindex” : la page n’est pas indexée
- “follow” : suivre les liens sur la page en question
- “nofollow” : ne pas suivre les liens sur la page concernée.
Si cette balise n’est pas activée sur un site web, la page concernée est indexée par le crawler et tous les liens sont suivis. Cela correspond donc à cette balise :
- <meta name=”robots” content=”index, follow”>.
Si une page ne doit pas être indexée, mais que les liens doivent être suivis, la balise suivante est utilisée :
- <meta name=”robots” content=”noindex, follow”>.
Balise canonical
Structure de la balise canonical
Lors de la mise en place de la balise Canonical, il est possible d’indiquer au robot Google une page préférée (page canonique) parmi plusieurs pages ayant un contenu très similaire ou identique. Cette méthode est souvent utilisée pour les pages de filtrage. En règle générale, il est recommandé de placer la balise Canonical sur toutes les pages. S’il n’y a pas de contenu dupliqué pour une page, la balise Canonical renvoie à la page sur laquelle elle est implémentée (en tant que page canonique). La balise Canonical aurait donc la structure suivante :
- Page canonique : http://monsite.fr/article1.html
- Balise canonical : <link rel=”canonical” href=”http://monsite.fr/article1.html”>.
S’il existe pour cette page une autre page avec un contenu très similaire ou identique, le Canonical doit renvoyer à la page d’origine (page canonique). La même balise canonical que celle de la page canonique est donc affichée sur le doublon. Cela correspond à cette structure :
- Page (dupliqué) : http://monsite.fr/article1.html?parameter1¶meter2
- Balise canonique : <link rel=”canonical” href=”http://monsite.fr/article1.html”>.
Il faut toutefois mentionner ici que l’activation de cette balise n’empêche pas nécessairement l’indexation des pages concernées. Si les pages ou les répertoires doivent être exclus de l’index, il faut travailler avec la balise méta “robots”.
CONCLUSION : Tout connaitre de l’indexation Google
Les méthodes présentées ici vous permettent d’éviter les doublons de manière simple et efficace et de décider vous-même quelles pages doivent être prises en compte par Google dans l’indexation. Vérifiez vous-même de temps en temps, à l’aide de la requête de site, quelles pages se trouvent actuellement dans l’index. Si vous avez besoin d’informations supplémentaires ou si vous avez encore des questions, je suis bien sûr à votre disposition dans les commentaires de cet article. :- )
Le guide complet du plug-in Yoast SEO pour votre référencement WordPress
Avec plus de 5 millions d’installations, Yoast SEO est l’un des plugins WordPress SEO les plus populaires. Je l’ai également utilisé pendant longtemps et je vais vous montrer à travers ce guide complet, comment configurer le plugin. Outre les paramètres avancés, je vous explique brièvement comment optimiser votre contenu pour les moteurs de recherche.
Dans un premier temps, non, le plugin ne se charge pas de l’optimisation pour les moteurs de recherche !
Il offre cependant toutes les conditions pour optimiser votre site web pour les moteurs de recherche. La plupart des utilisateurs ne connaissent et n’utilisent qu’une petite partie des fonctions de Yoast SEO. Le plugin ne se limite cependant pas à la Meta Box située sous tes articles et tes pages !
A travers ce guide complet du plug-in Yoast, vous trouverez les paramètres les plus importants pour les blogs et quelques conseils pour mieux utiliser le plugin ! Et si jamais vous souhaitez être accompagné par un consultant SEO afin de générer davantage de trafic, n’hésitez pas à me contacter. 😊
Les paramètres généraux de Yoast SEO
Après l’installation et l’activation du plugin, vous trouverez une nouvelle boîte intitulée ” Yoast SEO ” en dessous de vos pages, articles, catégories, etc.
Je suppose que vous connaissez cette boîte et que vous l’utilisez déjà.
Mais connaissez-vous les nombreuses possibilités de réglage qui concernent globalement votre site ?
Modèle pour votre balise de titre
Vous devriez saisir un modèle pour les balises Title de vos pages pour lesquelles vous n’attribuez pas manuellement de balise Title propre. Il peut s’agir d’articles, mais aussi de pages ou d’archives.
Directement depuis le plug-in, vous trouverez les configurations correspondantes dans le menu sous ” SEO ” -> ” Types de publications “. Vous pouvez y entrer le modèle par défaut des balises Title et Méta Description pour certains types de pages.
Normalement, vous pouvez conserver le modèle déjà enregistré, sauf, si bien sûr vous souhaitez changer quelque chose. Le charabia que vous rencontrez dans le champ de saisie est constitué de variables. Ces variables récupèrent certains textes et les insèrent dans la balise Title.
Les variables déposées par Yoast SEO pour les balises Title des articles se présentent comme suit :
%%title%% %%page% %%sep%% %%nom du site%%%.
Cela signifie que le titre que vous avez saisi sera d’abord utilisé. Si l’article a plusieurs pages, le numéro de la page est ensuite lu, suivi d’un séparateur (peut être trouvé sous ” SEO ” -> ” Réglages SEO ” -> ” Séparateur de titre “.
Si vous souhaitez modifier ce modèle standard, vous trouverez ici les variables possibles. Pour ma part, je laisse le modèle par défaut, car je saisis de toute façon toujours les balises Title et Description manuellement.

Dans cet élément de menu, vous pouvez également placer certains types de pages en noindex (ne sont pas affichés dans les résultats de recherche).
Noindex, Follow & désactivation des pages d'archives
Le CMS WordPress crée automatiquement des pages dites « d’archives ». Celles-ci se composent par exemple de tous les articles qui sont attribués à une certaine catégorie, un mot-clé ou un auteur.
Si vous utilisez des catégories ou des mots-clés, vous devriez en tout cas mettre ces pages d’archives sur ” index ” sous ” SEO ” -> ” Titre & Metas ” ->” Taxonomies “. J’ai désactivé les archives d’auteurs sur ce blog, tout comme les archives de dates, car je ne fais référence nulle part aux pages d’auteurs et je ne les utilise pas non plus.

Le sitemap XML généré par Yoast SEO
L’importance des sitemaps XML n’est plus un secret pour personne. Ils aident les moteurs de recherche à voir l’ensemble de votre site web et toutes les sous-pages.
Yoast SEO offre la possibilité d’activer et de configurer les sitemaps dans l’onglet ” SEO ” -> ” Réglages généraux ” -> ” Plan de site XML “.
Le sitemap XML devrait en tout cas être activé pour que vous puissiez le soumettre à la Google Search Console. Il est alors accessible sous : votresite.fr/sitemap_index.xml.
Sous l’onglet ” Types de publications “, dans ” Réglages SEO “, vous pouvez définir quels types de pages doivent être listés dans le sitemap. Les articles, les pages et les médias doivent être activés dans tous les cas. En outre, vous pouvez exclure des contributions à l’aide de leur ID dans l’onglet ” Contributions exclues ” et définir les taxonomies à inclure dans le plan du site sous ” Taxonomies “. Si vous utilisez des catégories ou des mots-clés, vous pouvez les activer. Si vous ne les utilisés pas, je vous conseille de les désactiver.
Yoast SEO ne propose pas uniquement des possibilités d’optimisation pour les moteurs de recherche, mais aussi pour Facebook, Twitter & Co. Sous ” SEO ” -> “Réseaux sociaux “, vous pouvez lier votre site web à vos médias sociaux afin d’attirer l’attention des moteurs de recherche sur cette connexion.

Paramètre des réseaux sociaux
L’onglet ” Facebook ” permet en outre d’ajouter ce que l’on appelle les ” Open Graph Data “. Ces données font en sorte que votre page d’accueil, lorsqu’elle est partagée sur Facebook, soit bien présentée. Vous pouvez définir le titre, la description et l’image qui doit apparaître lorsque vous partagez votre page d’accueil.
Ce qui est très pratique, c’est que vous pouvez enregistrer une image qui sera toujours utilisée si vous n’avez pas défini d’image individuelle pour une page ou une publication.
Sous ” Twitter “, vous pouvez activer la Twitter Card et choisir le format souhaité. L’onglet ” Pinterest ” offre également la possibilité de relier votre site web à ce réseau.
Connectez vos outils de Webmaster à votre compte Yoast SEO
Pour éviter d’avoir besoin d’autres plug-ins, Yoast SEO permet de connecter votre site web aux outils pour webmasters Google, Bing, Yandex et Baidu.
Paramètres spécifiques aux pages et aux messages
Maintenant que les configurations les plus importantes concernant l’ensemble de votre blog ou de votre site ont été expliquées et effectuées, passons aux configurations spécifiques des pages et aux messages. Ces réglages ne concernent que la page, le message, la catégorie, etc. sur laquelle vous les effectués. Ils remplacent les réglages par défaut effectués précédemment.
Vous trouvez ces réglages dans la Yoast SEO Meta Box en dessous de l’éditeur. Si vous ne la voyez pas, cliquez tout en haut à droite sur ” Personnaliser l’affichage ” et cochez la case ” Yoast SEO “.
Aperçu Google & adaptation des balises Title et Description
Cette section de la Yoast SEO Meta Box est probablement celle qu’utilisent la plupart des personnes. Dans l’aperçu de Google, vous pouvez voir à quoi ressemblera votre page dans les résultats de recherche Google.
Vous pouvez modifier les trois parties de l’aperçu Google directement depuis l’éditeur de votre nouvelle page/ article. N’oubliez pas que la balise Title est extrêmement pertinente pour les moteurs de recherche et les utilisateurs, que l’URL joue également un rôle crucial, mais que la balise Méta Description n’est pas prise en compte par les moteurs de recherche, mais n’est pertinente que pour les utilisateurs !

Analyse de lisibilité et couleurs propulsés par le plugin Yoast SEO
Au-dessus de l’aperçu Google se trouve un onglet appelé ” Lisibilité “. Il s’agit de l’analyse de la valeur de Flesch et d’autres valeurs pour évaluer la lisibilité. La quantité de mots après les sous-titres permet de vérifier si votre texte présente une bonne structure. La longueur des phrases est également analysée, ainsi que d’autres facteurs.
Cette analyse est très pratique, car dans le flux d’écriture, on ne se rend souvent pas compte de la longueur des phrases et des paragraphes. En revanche, cela n’est pas à prendre au pied de la lettre, parfois certaines métriques ne sont pas cohérentes avec la longueur ou la pertinence de votre article.

Données Facebook & Twitter (Open Graph)
C’est ici que vous pouvez saisir le titre, la description et l’image qui doit apparaître lors du partage de la page sur Facebook et Twitter. Il est incroyablement important que vous remplissiez les champs pour Facebook et Twitter. Même si vous ne partagez pas vos pages et vos articles via ces deux canaux, beaucoup d’autres le font ! Si l’aperçu de la page n’est pas optimisé, vous perdez de nombreux lecteurs potentiels.
Pour l’image, ne prenez pas la même que celle que vous utilisez pour la publication. Facebook et Twitter ont certaines directives concernant la taille d’affichage d’une image. Si ce format n’est pas respecté, certaines parties de l’image peuvent être coupées ou l’image peut être pixellisée dans son ensemble. Découpez donc les images en fonction des différents réseaux sociaux !

Contrôler les Meta Robots
Dans l’onglet « avancé » de la Yoast SEO Box, vous arrivez dans les paramètres avancés. Ici, vous devez faire attention, car vous pouvez causer des problèmes avec de mauvais réglages.
Dans cette fenêtre, vous pouvez contrôler les Meta Robots. Vous pouvez par exemple définir que la page soit sur noindex, c’est-à-dire qu’elle ne puisse pas être indexée. Vous pouvez également indiquer si les crawlers doivent suivre les liens ou non (follow / nofollow), vous pouvez également saisir une URL canonique pour éviter le duplicate content.
Dans 99% des cas, vous ne devez rien régler ici !

Connaissiez-vous déjà ces possibilités de réglage ou n’avez-vous utilisé jusqu’à présent que la Yoast SEO Meta Box sous les articles et les pages ? Si c’est le cas, quelles sont les nouvelles options que vous avez découvertes et qui vous semblent les plus intéressantes ? Je serais très heureux de recevoir vos commentaires ! 😊
Les 5 façons pour optimiser votre vitesse de chargement sur votre site internet
Pourquoi le temps de chargement est-il important pour votre SEO
La vitesse de chargement de votre site web est essentielle à son succès. Non seulement il offre une meilleure expérience utilisateur à vos visiteurs, mais il contribue également à améliorer le classement de votre site en matière de référencement.
C’est pourquoi les développeurs de votre site doivent prendre le temps de concentrer leur attention sur l’optimisation maximale de ce facteur. Nous examinerons ci-dessous non seulement comment améliorer la vitesse de chargement des pages Web, mais aussi comment mesurer le succès de vos efforts.
Si vous le souhaitez, vous pouvez faire appel à un professionnel du SEO pour vous aider à optimiser le temps de chargement de vos pages web.
La vitesse de la page
Des études ont montré que les internautes apprécient réellement un temps de chargement rapide des sites web qu’ils visitent. C’est pourquoi Google utilise depuis quelque temps déjà le “Page Speed” comme facteur de classement. En bref, plus votre site Web se charge rapidement, mieux il se positionne dans les résultats de recherche.
Toutefois, ce facteur de classement s’est principalement concentré sur les recherches effectuées via des ordinateurs, ce qui va maintenant changer. Google a annoncé qu’il mettrait en œuvre ce facteur de classement pour les recherches mobiles également :
“Les gens veulent pouvoir trouver des réponses à leurs questions aussi rapidement que possible – les études montrent que les gens se soucient vraiment de la vitesse d’une page. Bien que la vitesse soit utilisée comme un signal de classement depuis un certain temps, ce signal était axé sur les recherches sur ordinateur. La vitesse de chargement deviendra alors un facteur de classement pour les recherches mobiles.”
Ce qui va imposer des exigences encore plus grandes aux sites Web des entreprises et à leur conception. Cependant, cette mise à jour n’est pas la seule chose qui rend plus important l’optimisation du temps de chargement de votre site web…
Indice Mobile First
Google a commencé à déployer son index Mobile First, ce qui signifie que le site mobile sera désormais la version primaire indexée par Google.
Cette mise à jour a été l’un des changements les plus importants depuis de très nombreuses années. Elle implique également un changement d’orientation pour les entreprises et ceux d’entre nous qui participent activement au référencement. Toutefois, il convient de souligner que ce déploiement est progressif, mais pour garder une longueur d’avance, il est important de commencer à s’adapter dès maintenant !
Optimiser le temps de chargement de votre site web
Maintenant que vous comprenez mieux pourquoi un bon temps de chargement sur votre site Web est important, nous avons pensé vous montrer 5 méthodes que vous pouvez utiliser pour optimiser le temps de chargement de votre site Web.
Page mobile accélérée (AMP)
L’une des choses que vous pouvez faire pour optimiser le temps de chargement de vos pages Web est de créer des pages mobiles accélérées, également appelées pages AMP. En pratique, cela signifie qu’une page AMP est dépourvue de tout encombrement. Au lieu de cela, les différents éléments de la page sont adaptés au format AMP.
Actuellement, cela signifie, entre autres, que les images sont adaptées à l’AMP avec des dimensions claires et des fins spécifiques. Il en va de même pour les polices de caractères, les vidéos et les diaporamas. C’est ce qui fait que les pages prennent beaucoup moins de temps à charger.
Ce format est particulièrement adapté aux actualités, la rapidité étant particulièrement importante pour ce type de contenu. À la fois pour l’auteur qui publie l’information, mais aussi pour le lecteur qui veut pouvoir la lire rapidement dans le bus sans prendre trop de temps ou de données mobiles. Les premiers tests ont montré que les pages AMP se chargeaient quatre fois plus vite et utilisaient huit fois moins de données mobiles que les autres pages adaptées aux mobiles :
Limiter les commentaires
Quel que soit le type de site web que vous gérez, vous disposez probablement d’une section “commentaires” où vos visiteurs ont la possibilité de commenter un article de blog ou un autre contenu. C’est un élément extrêmement important pour entamer une conversation et susciter l’engagement de vos visiteurs.
Cependant, si vous avez des centaines de commentaires sur une page web, cela peut ralentir le temps de chargement. Pour remédier à cela, je recommande de limiter les commentaires en introduisant une pagination. En bref, à partir d’un certain nombre de commentaires, ils sont répartis sur différentes pages.
Si vous utilisez le CMS WordPress, vous pouvez facilement le faire en allant dans Réglages > Discussion > sous “commentaires” et en cochant la case qui dit “séparer les commentaires des pages”.
Installation du plugin WP Rocket
Avec WordPress, vous pouvez installer WP Rocket ou une autre extension similaire qui minimise automatiquement le code de votre site : HTML, le CSS et le JavaScript. Il permet également la mise en cache, ce qui signifie qu’une copie de votre site web est enregistrée dans le navigateur de vos visiteurs. Ainsi, la page se chargera très rapidement la prochaine fois qu’ils la visiteront.
Compresser les images
Les fichiers multimédias trop nombreux et trop volumineux, tels que les images et les vidéos, ralentissent réellement le temps de chargement de vos pages. Veillez donc à utiliser les images et les vidéos à bon escient et à les compresser avant de les publier sur votre site web.
En bref, cela signifie que vous réduisez la taille du fichier, ce qui signifie qu’il se charge plus rapidement. Vous pouvez facilement le faire via différents outils en ligne. Ci-dessous vous pouvez voir comment j’ai utilisé le site internet ShortPixel pour compresser une image pour cet article. Comme vous pouvez le constater, la taille du fichier a été réduite de 63 % :

Supprimer les fichiers multimédias inutilisés
Une autre méthode simple qui peut être utilisée pour améliorer le temps de chargement de votre site Web consiste à supprimer les fichiers multimédias inutilisés. Souvent, les images sont supprimées du site web, mais elles sont toujours sur le serveur. En les supprimant, vous pouvez libérer de l’espace et améliorer votre temps de chargement.
Si vous utilisez WordPress, vous pouvez facilement le faire en allant dans Media > Médiathèque > « Non attaché » et en les supprimant.
Testez le temps de chargement de vos pages web
Vous n’êtes pas sûr de la vitesse de votre site web ? Vous pouvez facilement le tester grâce à différents outils comme :
- PageSpeed Insights
- Pingdom
- WebPagetest
J’espère que vous êtes maintenant inspiré pour mettre en œuvre les méthodes ci-dessus et accélérer le temps de chargement de votre site Web. J’espère également que cela permettra également d’améliorer votre classement dans les résultats de recherche !
Comment réaliser une analyse concurrentielle SEO | Erwan Rozec
A quoi servent les analyses concurrentielles SEO ?
Une analyse concurrentielle détaillée implique la collecte d’informations sur les concurrents, la préparation et, enfin, l’évaluation de ces informations et la déduction des mesures nécessaires.
À l’aide d’une telle analyse concurrentielle, le statu quo peut être cartographié par rapport aux concurrents pertinents. Qui sont vos concurrents ? Quels sont les points forts de vos concurrents ? Quelles faiblesses peuvent être identifiées ? Il est essentiel de répondre à ces questions pour pouvoir évaluer le potentiel de la concurrence et en tirer des conclusions pour votre propre stratégie de référencement.
Vous pouvez demander de l’aide à un consultant SEO afin de vous accompagner sur l’analyse concurrentielle de référencement.
Identifier les concurrents
Afin de pouvoir réaliser une analyse concurrentielle seo efficace, il est tout d’abord essentiel d’identifier les concurrents pertinents. Vous devez procéder de manière approfondie, car c’est la seule façon d’éviter le risque de négliger un concurrent potentiellement important.
Identifier les concurrents à l'aide de mots-clés via Google
Un moyen simple d’identifier les concurrents via Google consiste à lancer une recherche sur Google pour un mot clé qui vous concerne. Pour le domaine bricotdepot.fr, par exemple, il pourrait s’agir du mot clé « enrouleur tuyaux d’air ».
Conseil pour les clics : évitez de commettre l’erreur de lancer une requête de recherche dans un navigateur classique, car Google se souvient des termes de recherche précédents sur lesquels vous avez peut-être déjà cliqué dans les résultats de recherche (SERPS). Sur la base de cet historique, Google sélectionne ensuite les résultats de votre requête actuelle. Les résultats pourraient donc être faussés.
Passez plutôt au module ” Navigation privée ” pour cette requête de recherche. Dans le navigateur Google, par exemple, sélectionnez l’élément ” Fenêtre privée ” dans le menu prévu à cet effet. Une nouvelle fenêtre de navigateur s’ouvrira alors, ce qui protège contre l’enregistrement des activités.

Vous pouvez maintenant faire votre recherche avec le mot clé suivant « enrouleur tuyaux d’air » sans données externes venant trahir vos SERPs.

Maintenant vous pouvez voir les premiers concurrents de Bricot Dépot dans la zone organique : Manomano, Leroy Merlin, Cdiscount etc.
Attention, si vous êtes une entreprise locale (artisan, restaurant, salle de sport…), le process est un petit peu différent. Il y a de forte chance qu’il y ait une intention de recherche locale dans la requête de vos utilisateurs.
Exemple : Restaurant sushi à Paris
Pensez alors, à bien travailler votre SEO local afin de répondre au besoin de vos internautes.
Identification des concurrents à l'aide des domaines via Semrush
Pour trouver des concurrents à l’aide des domaines, l’outil Semrush est également approprié. Pour ce faire, il suffit de saisir le domaine souhaité dans l’emplacement de recherche Semrush, puis scroller jusqu’à trouver le bloc dédié « Main Organic Competitors ».

Si vous n’avez pas encore de page “Google My Business”, créez-en une et tenez-en le contenu à jour.
Pour créer votre propre page “Google My Business”, vous devez disposer d’un compte Google.
Identification des concurrents avec les mots clés Semrush
Vous pouvez également trouver des concurrents à l’aide de la recherche par mots clés avec l’outil Semrush.
Il vous suffit d’aller dans « keyword overview » et de taper votre mot clé, ici j’ai utilisé « carrelage sol ».
Scrollez jusqu’à arriver au bloc SERP Analysis. Celui-ci ressort les SERP Google avec tous vos concurrents étant positionné sur le mot clé « carrelage sol ». Il y a d’intéressant, qu’il traite également certaines métriques SEO tel que :
- Page AS : Correspond au score d’autorité de Semrush. Basé sur les domaines référents, les backlinks et le trafic.
- Domains : Le nombre de domaines faisant un lien vers les sites.
- Backlinks : Le nombre de liens provenant de site tiers.
- Search Trafic : Le trafic organique.
- URL Keywords : Le nombre de mots-clés pour lesquels une URL donnée est classée dans les résultats de recherche.

Tous les résultats montrent des concurrents potentiels sous forme de « bulles » et de graphique avec la part de trafic organique mensuel.
Comment vos concurrents se présentent-ils dans les SERP ?
Dans l’étape suivante, vous pouvez tester de manière aléatoire les résultats de recherche effectivement affichés par vos concurrents. Il vous suffit d’entrer les mots clés qui vous concernent dans Google. L’objectif de cette vérification est d’identifier les ” rich snippets ” qui peuvent être pertinents pour votre secteur.
Les rich snippets sont des résultats de recherche qui représentent une forme étendue des résultats de recherche classiques, puisqu’ils contiennent, par exemple, des évaluations supplémentaires, des détails sur les prix, des fils d’Ariane ou d’autres informations. Ceux-ci peuvent constituer des informations supplémentaires pour le chercheur, qui peut finalement décider de cliquer ou non sur un résultat de recherche.

Il se peut, par exemple, qu’un concurrent se classe derrière vous dans les résultats de la recherche organique, mais que sa page soit néanmoins cliquée plus souvent parce que l’extrait est plus visible. Il ne faut en aucun cas céder ce potentiel et prendre les mesures nécessaires, comme le balisage sémantique de votre page via schema.org.
Analyse des backlinks de vos concurrents SEO
Les avantages des backlinks de haute qualité ne sont pas à négliger, surtout à l’heure de Penguin 4.0, car les liens pertinents apportent des visiteurs réels sur votre propre site. Cependant, pour pouvoir analyser le netlinking de vos concurrents, une large base de données est indispensable. Cette base de données peut être constituée, par exemple, à l’aide de l’outil Ahrefs.
Grâce à Ahrefs, vous pouvez afficher les domaines référents, les sous-pages référentes, les nouveaux backlinks et bien d’autres informations sur la page souhaitée.

À l’aide de l’outil Ahrefs, il est donc possible d’identifier les sources de liens de haute qualité et thématiquement pertinentes des concurrents et de savoir avec quel contenu le concurrent a reçu un lien à cet endroit. De cette façon, vous pouvez déterminer pour votre propre site Web quelles sources pourraient convenir pour l’insertion de votre contenu dans le cadre de la création de liens.
Conseil de Clicks : Vous devriez ensuite combiner les résultats avec votre propre expérience au lieu de simplement copier le profil de lien de votre concurrent. Améliorez les stratégies de vos concurrents et ensuite seulement appliquez-les à votre propre entreprise, de cette façon vous aurez toujours une longueur d’avance sur vos concurrents.
Analysez le contenu de vos concurrents
Ce n’est pas d’hier que le principe directeur du marketing en ligne est ” le contenu est roi “. Cependant, il y a souvent un manque de créativité ou d’idées nouvelles. En outre, il y a le risque que, dans très peu de cas, on soit certain de la manière dont son propre contenu sera reçu par le groupe cible. Bien sûr, il y a aussi le risque de mauvais investissements.
Par conséquent, observez d’abord vos concurrents et découvrez le contenu qu’ils utilisent pour réussir. Ici, vous pouvez d’abord examiner le contenu au niveau des catégories et des produits, par exemple. S’agit-il de textes standard du produit qui ont été simplement copiés du fabricant ?
Vous pouvez le découvrir en copiant n’importe quel texte et en lançant une requête de recherche sur Google. Les résultats de la recherche vous montreront sur quelles pages un même texte est disponible.
Ici, vous pouvez être meilleur que vos concurrents et marquer des points auprès des utilisateurs avec des textes de produits individuels. Répondez toujours aux questions « W » les plus importantes afin d’offrir à vos utilisateurs une valeur ajoutée maximale.
Conclusion : tirer profit des résultats de l'analyse concurrentielle
Une fois que vous aurez suivi les étapes ci-dessus, vous obtiendrez un bon aperçu initial du positionnement de vos concurrents dans le secteur en ligne. Toutefois, il ne faut pas adopter ces connaissances de manière identique, mais analyser quelles stratégies se cachent derrière ces mesures. Tirez-en des conclusions pour votre propre entreprise et essayez ensuite ce qui fonctionne le mieux avec votre groupe cible.
Qu’est ce que le sitemap et à quoi sert-il ?

Le plan du site est considéré comme un élément important d’un site web, qui sert principalement au référencement naturel et répertorie un grand nombre de sous-pages avec leurs URL. Ainsi, le plan du site est une liste des pages d’un site web qui peuvent être vues ou consultées publiquement par des robots d’exploration ou des utilisateurs. Un document ou une page web peut être utilisé comme plan du site. En règle générale, le document ou les pages HTML contenant les URLs répertoriées sont organisés de manière hiérarchique.
Outre les catégories responsables de la structure d’un site web, le plan de site répertorie également certaines sections relatives aux médias et aux actualités, les éléments communautaires, le contenu du blog etc. Les sitemaps sont souvent présents sur Internet et sont également appelés protocoles sitemap. Ce protocole a été fondé sur l’idée de créer des sites Web adaptés aux robots d’exploration. En 2005, Google a développé la première technologie sitemap.
Les deux versions existante d'un plan de site
Il existe deux versions courantes d’un plan de site. Un plan de site XML (ou sitemap.xml) est un format structuré que le propriétaire du site et le visiteur ne voient pas. Cette version ne communique pratiquement qu’avec les crawlers des moteurs de recherche.


Cela leur permet de voir l’importance d’une seule sous-page, le nombre de visiteurs qui cliquent dessus et la fréquence de sa mise à jour. Le XML est un document qui utilise une structure et un codage particuliers. Ce codage est également considéré comme la norme permettant aux robots d’exploration du Web d’analyser et de trouver les sitemaps. La deuxième version est le plan du site HTML. Ce système est conçu pour aider l’utilisateur à mieux organiser le contenu du site Web. Les sitemaps HTML ne doivent pas nécessairement capturer chaque sous-page.
Il aide également les visiteurs et les robots des moteurs de recherche à trouver le contenu d’un site web et est donc accessible au public, par exemple via un lien sur la page d’accueil (généralement dans le pied de page) ou une entrée dans le menu du site. Les pages HTML, contrairement aux versions XML, indiquent la conception de la page web. Les pages XML, en revanche, sont blanches et n’ont pas de contenu CSS ou de codes HTML. Le XML est également beaucoup plus précis que le codage HTML. Les erreurs ne sont pas tolérées, ce qui signifie que la syntaxe est toujours exacte.

Les origines et le but principal d’un sitemap pour le référencement naturel
En 2005, Google a introduit les sitemaps pour permettre aux développeurs web de publier des listes de liens depuis leurs sites web. L’idée de base est que certains sites Web comportent un grand nombre de pages dynamiques qui n’existent que grâce au contenu des visiteurs, comme les forums. Le fichier sitemap contient les URLs de ces pages afin que les robots d’exploration du web puissent les trouver.
Les principaux moteurs de recherche – Bing, Google, Yahoo et Ask – partagent tous un protocole sitemap, ce qui facilite bien sûr l’adhésion des opérateurs de sites web aux spécifications et aux directives de restriction énumérées ci-dessous. Cependant, les sitemaps ne peuvent pas garantir que tous les liens seront explorés, ni l’indexation. Toutefois, un plan de site reste la meilleure assurance pour indiquer à un moteur de recherche que votre site web existe et qu’il se développe ou propose un nouveau contenu.
Utiliser et intégrer un sitemap à bon escient
Si vous avez de l’expérience dans le codage de documents Web, vous pouvez créer un plan du site à l’aide de simples extraits de code et le télécharger sur le serveur sur lequel se trouve le site Web. Faire appel un consultant SEO peut grandement vous aider. Cela peut également se faire avec des systèmes de gestion de contenu. Cependant, elles sont plutôt destinées aux profanes qui souhaitent mettre en place des plates-formes web sans grandes connaissances.
Ces groupes de personnes ont la possibilité d’utiliser ce que l’on appelle des plug-ins et de les utiliser pour installer un plan du site en un clic de souris. L’avantage de cette méthode est que la conception et le contenu exacts du plan du site peuvent être créés ou sélectionnés sans grand effort de codage supplémentaire.
De tels plug-ins qui peuvent fournir un plan du site peuvent être trouvés pour WordPress ainsi que pour Joomla, Drupal et d’autres systèmes de gestion de contenu. Le plus connu est Yoast SEO sur WordPress. En ce qui concerne le protocole sitemap, il convient également de noter que les plug-ins généralement utilisés dans les systèmes de gestion de contenu ont une limite automatique de 50 000 URLs.
Quelles sont les limites du plan du site ?
Il y a quelques restrictions à connaître lors de l’utilisation d’un plan de site. Par exemple, il n’est pas permis de répertorier dans le plan du site plus de 50 000 URLs qui renvoient à du contenu sur la plate-forme web. Si vous avez plus de contenu, vous devez en rayer une partie ou n’inclure que le plus important dans le plan du site. Une autre restriction concerne la taille du plan du site. Il ne doit pas dépasser 50 Mo.
Cette limite de taille supérieure doit également être respectée lors de l’utilisation de sites web compressés. Toutefois, vous pouvez contourner les restrictions en utilisant simplement plusieurs sitemaps. Le sitemap principal renvoie à tous les autres sitemaps, ce qui vous permet théoriquement d’inclure un total de 2,5 milliards d’URLs dans votre protocole sitemap.

Sitemap et Robot.txt, le duo ultime pour un SEO parfait
Les exploitants de sites web utilisent généralement un fichier Robots.txt. Ce fichier est considéré comme le commandant du crawler. Il spécifie par des commandes les pages et les fichiers qui peuvent être enregistrés et visités par les robots des moteurs de recherche. Cela exerce une grande influence sur l’indexation des pages web. Par exemple, on peut déterminer que les crawlers ne sont pas autorisés à mettre en œuvre certaines images dans les moteurs de recherche d’images de Google.
Vous pouvez également exclure de l’indexation par les moteurs de recherche le contenu précieux mais accessible au public que vous ne voulez pas que le monde entier examine. Étant donné que le sitemap n’a pas de grande valeur ajoutée pour un site web, il est fortement conseillé de l’exclure également de l’indexation des moteurs de recherche. Dans le pire des cas, l’accumulation des liens peuvent même détériorer la réputation dont jouissait auparavant un site web auprès de Google et d’autres moteurs de recherche.
Un bon travail de référencement ne fait que s’améliorer avec le temps. Ce sont seulement les astuces des moteurs de recherche qui doivent continuer à changer lorsque les algorithmes de classement changent.
Jill Whalen
Comment optimiser son SEO local

L‘optimisation des résultats recherche locales devient de plus en plus importante. De nombreuses entreprises n’ont accordé que peu ou pas d’attention à cette importante mesure de marketing. Mais quelle est l’importance réelle du référencement et de la recherche locale, comment faire connaître son entreprise localement et générer plus de ventes ? Enfin quelle mesure influence le classement dans la recherche locale ?
Cet article vous montre les bases les plus importantes du référencement local et vous prodigue des conseils pour que votre entreprise apparaisse de manière optimale dans les résultats locaux des SERPs.
Vous pouvez également faire appel à un consultant SEO pour vous accompagner dans la mise en place de votre stratégie de référencement local.
Qu’est ce que le SEO local et comment cela fonctionne t-il ?
Le référencement local fait référence à toutes les mesures qui conduisent à un placement optimal dans les résultats de recherche locaux d’un moteur de recherche. Les moteurs de recherche ont des index différents pour les sites web, les images, les vidéos, les actualités et aussi pour les entreprises locales. Les facteurs qui influencent le classement dans l’indice respectif sont parfois très différents.
Quelle est l’importance du référencement pour la recherche locale ?
De plus en plus d’entreprises locales ont pris conscience de l’importance de la recherche locale sur Google. De ce fait, la concurrence pour le placement dans les résultats de recherche sur les recherches locales est beaucoup plus forte qu’il y a un an ou deux. Pensez alors à bien travailler votre analyse concurrentielle pour connaitre les enjeux existants pour votre référencement local.
Selon Ed Parsons, spécialiste de la géographie spatiale chez Google, un tiers des recherches effectuées sur Google ont un lien local. Et nous le savons nous-mêmes : si nous cherchons un restaurant italien ou un dentiste dans les environs, nous commençons souvent notre recherche sur Google. C’est pourquoi Google est également devenu un outil de marketing important pour les entreprises locales. Plus l’entreprise est bien placée dans les résultats de recherche, plus elle peut générer de nouveaux clients potentiels grâce aux résultats de Google.
Quels types d'entreprises ont besoin du référencement local ?
En gros, on peut dire : toute entreprise, quelle que soit sa taille, quelle que soit sa clientèle. Outre les avocats, les médecins ou les restaurants, il peut s’agir d’agences régionales ou grandes entreprises. Si vous avez une adresse physique et que vous souhaitez que les gens s’y rendent, il est important de figurer dans les résultats locaux sur Google. Et le moyen d’y parvenir est le SEO local.
Les différents facteurs de classement du référencement local
Sur Google, en plus des sections d’annonces, il y a deux sections qui sont pertinentes pour les résultats locaux :
- Index générique
- Les résultats locaux
Divers facteurs de classement jouent un rôle dans le placement de ces domaines.
Proximité de l'endroit recherché
Ce facteur n’est pas vraiment optimisable, sauf si vous êtes prêt à déménager avec votre entreprise afin d’influencer la proximité de l’emplacement recherché comme facteur de résultats locaux. Après tout, plus votre entreprise est proche du centre-ville, meilleur est son classement. La concurrence de la périphérie, en revanche, est désavantagée.
Néanmoins, il ne faut pas mettre tous ses œufs dans ce panier lors du choix d’un emplacement. Dans le monde réel, il est souvent préférable d’être proche d’un certain groupe cible. Et bien sûr, les loyers, les liaisons de transport, etc. jouent un rôle au moins aussi important dans le choix de l’emplacement.
La fiche ou page Google My Business (GMB)
“Google My Business” comprend les services bien connus que sont Google Maps, Google Street View et anciennement Google +.
Une page ou fiche “Google My Business” distincte est très importante pour le référencement local. Google utilise le contenu pour le classement dans les recherches locales et affiche du contenu tel que des photos, des avis ou des horaires d’ouverture à droite des résultats locaux (voir le graphique ci-dessous :

Si vous n’avez pas encore de page “Google My Business”, créez-en une et tenez-en le contenu à jour.
Pour créer votre propre page “Google My Business”, vous devez disposer d’un compte Google.
Connexion et informations de base
Connectez-vous à votre compte Google et ouvrez la page https://www.google.com/business/. Il vous sera demandé de saisir votre entreprise.
Après avoir cliqué sur “Enregistrer une entreprise”, vous pouvez rechercher votre entreprise. Si Google ne connaît pas encore votre entreprise, vous pouvez l’ajouter en cliquant sur le lien “Ajouter une entreprise”. Indiquez votre nom, adresse, code postal, ville et numéro de téléphone. Sélectionnez ensuite la catégorie primaire. Important ici : cela doit être parfaitement adapté. Veillez à indiquer le type d’entreprise et non les biens ou services proposés !
Sélectionnez d’autres catégories, jusqu’à neuf catégories sont possibles. Ceux-ci doivent décrire votre entreprise de la manière la plus précise possible.
Description de l'entreprise
Rédigez un texte descriptif de 100 à 130 mots et créez un lien vers votre site Web et votre adresse électronique. Réfléchissez bien à ce que vous écrivez ici. La description est une information importante pour les utilisateurs qui la lisent. Par conséquent, rédigez cette description avant tout de manière à convaincre un client potentiel. Répétez votre mot clé n’aura aucune incidence pour votre SEO, veillez à ne pas en abuser, et à l’intégrer seulement lorsqu’il est nécessaire pour le lecteur.

Photos
Ajoutez une photo de profil, votre logo et d’autres images à votre page “Google My Business”. De cette façon, vous pouvez rendre votre page attrayante pour l’utilisateur.

Horaires
Ajoutez vos heures d’ouverture et de fermeture. Ainsi, les utilisateurs sauront immédiatement si votre entreprise est ouverte ou fermée. Pensez à tenir à jours ces informations, elles sont cruciales pour les internautes.

Zone de chalandise
Si vous proposez vos produits et services en dehors de votre magasin, définissez la zone de chalandise. Google en tiendra compte pour les recherches locales. Vous pouvez modifier cela dans ” Info ” puis ” Zone desservies “. (Voir ci-dessous).


Les avis
Les utilisateurs ont la possibilité d’évaluer votre entreprise sur votre page “Google My Business”. Les avis sont très importants pour le classement. C’est pourquoi nous nous consacrons à ce sujet dans la section suivante.

Les avis contribuent grandement au référencement local
Les avis sont des informations importantes pour votre entreprise, pour les internautes et pour Google.
Vous obtenez un retour d’information direct de vos clients par le biais des évaluations. Si la critique est bonne, vous êtes heureux. Si une critique n’est pas très bonne, ne réprimandez pas le client, mais utilisez ce retour pour vous remettre en question : “Aurais-je pu faire mieux ?” En outre, les avis médiocres, voire négatifs, sont un signe de l’authenticité des avis pour Google.
Il montre aux utilisateurs comment les autres utilisateurs ont aimé quelque chose. Les cotes d’évaluation ont une très grande influence sur le fait que les chercheurs cliquent ou non sur un résultat. Pensez à répondre aux bons comme aux mauvais avis. Certaines réponses de votre part peuvent aider un internaute quelconque.
En termes d’optimisation des moteurs de recherche pour les recherches locales, Google utilise non seulement ce critère pour le classement, mais les affiche également sous forme d’étoiles. Cela leur apporte une attention supplémentaire et, avec une bonne évaluation globale, également beaucoup plus de clients potentiels.
Toutefois, veillez à ne pas recevoir systématiquement de mauvaises critiques, ce qui aura bien sûr un effet négatif sur le positionnement dans les résultats de recherche locaux et sur le taux de conversion.
Les priorités diffèrent d'un secteur à l'autre
Les évaluations en ligne n’ont pas la même importance pour tous les secteurs. Posez-vous d’abord ces questions :
- À quels secteurs d’activité puis-je affecter mon entreprise ?
- Existe-t-il des plateformes d’évaluation spéciales pour cela ? Si c’est le cas, il est recommandé de s’y inscrire.
- À quelle clientèle dois-je m’adresser ? Ce groupe cible est-il en grande partie adepte de l’Internet ?
- Conseils sur le thème de l’évaluation
Les évaluations sur Internet prennent de plus en plus d’importance et jouissent d’une popularité croissante. Cela se voit également dans le nombre toujours croissant de plateformes dédiées. En tant qu’entrepreneur, vous devez garder à l’esprit les points suivants si vous êtes ouvert à l’opinion publique :
En général, plus il y a d’avis, plus l’impact sur la confiance des utilisateurs et le classement des moteurs de recherche est important. Les clients font de plus en plus confiance aux opinions des autres visiteurs du site, même si ces utilisateurs ne leur sont pas connus.
Surtout, les avis positifs font monter le site dans le classement.
Des évaluations régulières sont un signe de cohérence pour les utilisateurs et les moteurs de recherche. Si le dernier examen remonte à deux ans, cette démarche est contre-productive et peut avoir un effet négatif.
Si vous voulez obtenir de bonnes critiques, devenez vous-même actif et demandez à vos clients réguliers de donner leur avis. Un client régulier est régulier parce qu’il est satisfait de vous. Il est très probable qu’ils donneront une bonne note à vos services.
Vous pouvez également vous référer aux plateformes d’évaluation après un entretien de vente réussi. Dites au client que vous seriez heureux de recevoir une évaluation. Mais : il n’est pas légalement permis de récompenser les clients ou autres utilisateurs pour leur évaluation, quelle qu’en soit la forme.
Et si vous recevez de mauvaises critiques, prenez-les avec humour et utilisez la critique constructive comme une occasion d’optimisation.
Créer des entrées d'annuaire
Les Pages Jaunes & Cie n’ont plus le même statut qu’il y a quelques années. Néanmoins, une inscription dans les annuaires professionnels vaut la peine. Outre la portée de l’inscription d’une entreprise via ces annuaires, l’inscription sur Google est un signal important pour la notoriété de votre entreprise sur Internet. La citation locale désigne la mention d’une entreprise comprenant des données locales (nom, adresse, téléphone) sur l’internet.
Les entrées dans les annuaires professionnels locales et thématiques sont extrêmement importantes pour l’optimisation des moteurs de recherche locaux. Pour Google, il importe peu que vous ayez une entrée gratuite ou que vous payiez pour une entrée étendue.
Apple Maps
En raison de la forte prévalence de l’iPhone et de l’iPad, vous devriez également maintenir ou créer l’entrée de votre entreprise ici. L’inscription est simple et le profil de votre entreprise est prêt en quelques minutes seulement.
Connectez-vous avec votre identifiant et votre mot de passe Apple pour créer une entrée d’entreprise : https://mapsconnect.apple.com.
Bing places for business
Le Google My Business de Microsoft s’appelle bing places for business. Ici aussi, vous pouvez saisir votre entreprise, corriger une saisie existante ou l’enrichir d’informations : https://www.bingplaces.com.
Schema.org pour les entreprises locales
Schema.org est un projet commun de Google, Microsoft et Yahoo ! L’objectif du projet est de mieux comprendre les informations sur les sites web afin de fournir aux chercheurs de meilleurs résultats de recherche. Pour les entreprises locales, schema.org permet de baliser un grand nombre d’informations pertinentes telles que le nom de l’entreprise, l’adresse, le numéro de téléphone, les coordonnées géographiques, les modes de paiement, les heures d’ouverture, etc.
L’utilisateur ne voit pas ces balises sur le site web. Ils ne sont visibles que dans le code source du site web.
En tant que critère de classement, les balises structurées sont importantes. Cela permet aux moteurs de recherche de définir correctement le contenu et de l’utiliser pour les recherches locales. Cependant, le marquage selon “schema.org” implique un effort supplémentaire et n’est pas possible avec tous les systèmes de gestion de contenu. Vous devez donc vérifier si l’avantage justifie le travail.
Vous trouverez de plus amples informations sur Schema.org.
Conclusion, ce que vous devez retenir du SEO local
Voici les choses importantes à retenir pour votre SEO local
- Assurer la cohérence sur tous les canaux
- Utilisez des mots-clés intelligemment (« Restaurant Italien Bordeaux » « Consultant SEO Nantes » …).
- Encouragez les clients à laisser des avis
- Utilisez les avis négatifs comme motif d’optimisation
- Utilisez des photos attrayantes
- Maintenir toutes les informations à jour
- Créer des entrées d’annuaire et vérifier régulièrement qu’elles sont à jour
Préciser correctement la catégorie
- Le code postal, le nom de la rue et la ville sont corrects.
- Votre ville de chalandise est mentionnée dans le titre
- Des photos attrayantes de l’entreprise et de ses environs.
Conclusion
Le référencement local est devenu une prestation SEO indispensable dans de nombreux secteurs. De nombreux utilisateurs ne veulent pas seulement trouver l’adresse ou le numéro de téléphone d’une entreprise sur Internet, mais ils veulent aussi se faire une idée de cette entreprise. Le classement dans les résultats de recherche locaux est donc pertinent, le site web est attrayant et les avis des autres utilisateurs sont significatifs.
Ce qui compte dans le référencement local : Avant tout, l’honnêteté et le respect des délais et des horaires. Une image de l’entreprise qui inspire confiance, ainsi que des mots clés importants en rapport avec le nom du lieu concerné, sont indispensables pour générer des clients potentiels.
Qu’est ce que le netlinking, à quoi il sert et comment l’utiliser dans votre stratégie SEO

Définition du Netlinking
la définition la plus simple serait de dire que le netlinking, également appelé “link building”, est une stratégie consistant à augmenter le nombre de backlinks vers un site web afin d’améliorer son classement et sa visibilité. L’objectif d’une stratégie de netlinking est d’améliorer la popularité, le classement et le trafic organique d’un site web. Vous pouvez faire appel à un consultant SEO afin de planifier votre future stratégie de netlinking.
Qu'est-ce qu'un backlink et à quoi il sert ?
Une stratégie de netlinking est basée sur l’augmentation du nombre de liens pointant vers une page web pour la rendre plus visible. Le backlink est le lien provenant d’un site tiers pointant vers votre site, il est donc l’ingrédient principal d’une stratégie de netlinking et, à ce titre, la qualité des backlinks est essentielle.
ATTENTION : seuls les liens étiquetés “do follow” sont suivis et pris en compte dans l’algorithme de Google.
Qu'est-ce qu'un lien externe de qualité ?
Pour une stratégie de netlinking efficace et durable, un backlink doit répondre à certains critères de qualité, dont voici une liste non exhaustive :
- Le lien retour (ou backlink) doit provenir d’une page web dont le contenu textuel est dans la même thématique que celui de la page ciblée.
- Il doit provenir d’une page populaire avec un PageRank élevé (ou des mesures équivalentes mesurées par des outils tels que Semrush, Majecstic, Ahrefs…),
- Le lien entrant doit provenir d’une page web avec peu de liens sortants pour maintenir un netlinking cohérent.
- Le texte d’ancrage du lien doit décrire le contenu que l’utilisateur trouvera sur la page de destination du lien, il faut éviter les textes d’ancrage tels que : en savoir plus, cliquez ici, … Cependant il est important de maintenir un profil de texte d’ancrage naturel, si tous vos liens sont “optimisés”, ce ne sera pas naturel et vous risquez une pénalité.
- Préférez un lien sur une page web avec de l’ancienneté.
- Vous devez diversifier vos domaines référents. 100 liens provenant de 100 sites différents seront plus efficaces que 100 liens provenant du même site.
- Assurez-vous que le lien est bien placé, il doit se trouver dans le contenu rédactionnel de la page.
- Évitez un afflux massif de liens entrants sur une courte période et préférez une acquisition régulière de backlinks dans le temps.
- Préférez les liens provenant de domaines à fort trafic.
En respectant tous ces critères de qualité dans votre acquisition de liens, votre netlinking sera efficace et durable.
Pensez également à analyser vos concurrents pour vous en inspirer, ou au contraire, ne pas faire les même erreurs qu’eux.

Comment faire du netlinking optimisé ?
Il existe différentes façons d’obtenir des backlinks et toutes ne sont pas égales. Outre la qualité du lien, les moyens utilisés pour l’acquisition de liens ont un impact direct sur la qualité et les résultats de votre stratégie de netlinking. En termes de création de liens, il existe deux catégories de liens :
- Liens naturels : à privilégier,
- Les liens artificiels : à éviter.
L'achat de backlinks
Il s’agit d’une technique d’acquisition de liens artificiels à éviter si vous n’êtes pas un expert en Netlinking. Google considère qu’un lien doit être naturel et l’achat est tout sauf naturel. En outre, la qualité des backlinks n’est pas toujours à jour. Si vous devez acheter des backlinks, faites-le avec beaucoup de précaution.
L'échange réciproque de liens retour
Les échanges massifs de liens entre deux sites doivent être évités ou limités à quelques liens et de préférence entre deux sites partenaires réels. La création massive de liens à partir de “sites partenaires” est au mieux inefficace et au pire pénalisée par Google.
Link baiting ou appât du lien en français
C’est de loin la meilleure stratégie de netlinking. Le link baiting consiste à capter des liens externes de manière naturelle, sans demander leur création. La mise en œuvre du link baiting est relativement simple : il suffit de produire du contenu intéressant, de le promouvoir et de surveiller la création de liens naturels. Il s’agit de la technique de netlinking recommandée par Google.
Acheter un nom de domaine expiré
En fonction de vos choix stratégiques en matière de référencement, l’achat d’un nom de domaine expiré peut être une option intéressante dans certaines conditions. Par exemple, vous devez veiller à ne pas acheter un domaine qui est pénalisé par Google. Des sites comme kifdom.com par exemple proposent des domaines expirés à la vente. Vous trouverez des domaines à tous les prix et dans tous les thèmes. Outre le prix, ils fournissent les informations suivantes
- Disponibilité (immédiate ou non),
- La date à laquelle le domaine a été ajouté,
- L’ancienneté du domaine,
- Son PageRank Google,
- Ahrefs Rank et les mesures de Majestic SEO (Trust Flow (TF) et Citation Flow (CF)).
Une fois que vous avez acheté votre domaine, vous pouvez simplement l’utiliser en mettant en œuvre une redirection 301 ou l’exploiter à nouveau en déplaçant un site.
Pour augmenter votre nombre de backlinks sans risquer d’être sanctionné par Google, la technique de netlinking à privilégier est définitivement le « link baiting ».
Comment piloter et suivre votre stratégie de netlinking
Dans le cadre d’une stratégie de Netlinking, il est important de piloter votre suivi de backlinks.
Cette vérification des liens entrants permet :
- De vérifier que les backlinks artificiels sont toujours présents,
- Analysez la qualité et la pertinence de tous vos liens entrants,
- Identifiez les backlinks indésirables et signalez-les,
- Suivez la progression de l’acquisition de liens naturels.
Vous pouvez vérifier vos backlinks avec la Google Search Console et Bing Webmaster. Vous pouvez également utiliser des outils de référencement plus complets, tels que ceux proposés par Majestic SEO, Ahrefs ou SemRush. Ces outils payants fournissent plus d’informations sur vos backlinks. Ils ont également l’avantage de figurer dans d’autres listes que celles de la Google Search Console.
Conclusion : Ce qu’il faut retenir du netlinking
Le netlinking est efficace pour améliorer la réputation et la visibilité d’une page à condition que vous :
- Privilégiez la qualité à la quantité,
- Privilégiez les liens naturels au détriment des liens artificiels.
Si vous respectez ces deux conditions, vous obtiendrez un netlinking efficace, durable et rentable pour votre référencement naturel.
Robots.txt : Ce qu’il est, à quoi il sert et quels sont ses avantages ?

S
i votre site Web comporte des sous-domaines, vous devrez créer un fichier texte unique pour chaque partie. Cela signifie que le site principal aura son propre fichier robots.txt et, de même, chaque sous-domaine aura le sien.
Le fichier Robots.txt est utilisé pour faciliter l’analyse du site : grâce à la structure du fichier texte, le moteur de recherche est en mesure de reconnaître les zones du site qui peuvent être analysées et celles qui, au contraire, sont à éviter. Cela permet de définir une limitation pour les contenus qui ne sont pas importants et qui, selon le propriétaire du site, ne sont pas pertinents pour l’analyse et l’optimisation dans le moteur de recherche, ce qui simplifie et allège le processus global d’analyse. Il est permis, si on le souhaite, de restreindre l’accès à certains dossiers ou secteurs du site, demandant ainsi que le sujet particulier ne soit pas indexé.
Les moteurs de recherche scrutent régulièrement les sites web à la recherche de contenu à analyser et à optimiser. Les instructions émises par robots.txt, plus communément appelées directives, facilitent cette démarche, avec des explications précises à suivre à la lettre. Contrairement à d’autres, dont il n’y a aucune certitude, le moteur de recherche Google a ajouté une limitation. Elle nécessite un fichier robots.txt qui ne dépasse pas 500 ko. Si le fichier texte pèse plus que cela, Google ne suivra pas ses directives mais procédera comme si aucun fichier texte n’existait.
Cela signifie qu’en l’absence du fichier texte, les crawlers procéderont à une analyse complète du site, sans aucune limitation.
Comment reconnaître la présence ou l'absence du fichier texte robots.txt ?
La présence ou l’absence du fichier robots.txt peut être vérifiée à partir de la réponse que le spider reçoit lorsqu’il commence à analyser le site. En fonction du type de réponse qu’il reçoit, le crawler se déplace en conséquence. Si le code http 404 est présenté, le crawler comprendra que le site en question ne contient aucun fichier et analysera donc l’ensemble du site web. Au contraire, le code http 200 indique la présence du fichier, qui peut donc supporter des limitations que le spider devra suivre. Si le logiciel ne reçoit aucune réponse, c’est-à-dire s’il ne lit aucun code, le robot d’exploration n’analysera pas le site.
Écriture du fichier texte robots.txt
Après avoir établi l’importance de l’inclusion d’un fichier robots.txt dans votre répertoire principal, il est essentiel de pouvoir rédiger ce fichier texte le mieux possible. Insérer des directives sans les connaître, au lieu d’améliorer votre classement, pourrait finir par le détériorer. Si vous souhaitez modifier le texte ultérieurement, vous pouvez le faire manuellement ou en utilisant un plugin de référencement tel que Yoast SEO.
La présence d’un fichier correct, c’est-à-dire contenant des informations précises, permet de réaliser correctement la numérisation. Cela permet également d’éviter l’optimisation du contenu dupliqué, qui rend difficile le classement.
En outre, l’analyse du site doit être effectuée dans un certain délai. En d’autres termes, le logiciel doit respecter certains délais lors de l’analyse d’un site web. Les directives incluses dans le fichier robots.txt vous permettent de diriger le scan vers les fichiers principaux, afin de positionner votre contenu de la manière la plus stratégique.

Améliorer la visibilité du site : ce qu'il faut inclure dans le fichier robots.txt
La création du fichier robots.txt commence par un document .txt vide. Une fois les directives insérées et le fichier renommé ” robots.txt “, le fichier sera inséré, comme initialement écrit, dans le répertoire principal du serveur. Si vous préférez un guide, vous devriez créer votre document dans un générateur de fichier robots.txt, qui est également capable de reconnaître et d’éviter toute erreur. La première règle importante à retenir est que chaque directive doit être placée sur sa propre ligne. Rédiger le document sans séparer les instructions entraînerait une confusion pour le moteur de recherche et risquerait de créer des inexactitudes.
Chaque action que vous voulez effectuer comporte un certain libellé.
Prenons un exemple dans le fichier robots.txt :
User agent : Googlebot
Disallow : /Breadcrumb/
Allow : /Breadcrumb/google.pdf
Sitemap : https://www.nomdemonsite.fr/sitemap.xml
Vous voulez améliorer la visibilité et le classement de votre site ? Contactez un consultant en référencement naturel qui peut vous aider.
Robots.txt : la commande User Agent
Tout d’abord, vous vous tournez vers les user agents. C’est là que vous communiquez directement avec les moteurs de recherche, en déclarant que vous voulez adresser le travail à tous les moteurs, ou le limiter à quelques-uns. Si, par exemple, vous souhaitez travailler exclusivement sur Google, il est important d’inclure ce type de formulation : User-agent : Googlebot. Il est ainsi clair pour le robot d’exploration que vous ne voulez travailler que sur un moteur de recherche particulier. Si, par contre, vous voulez traiter avec tout le monde, sans aucune distinction, il suffit d’insérer un astérisque à la place du nom du moteur. L’astérisque, en effet, indique que l’action indiquée s’adresse à tous, sans exclusion.
Robots.txt, autorisations et limitations : allow, disallow et noindex
Dans la ligne de fond, la nomenclature ” disallow ” fait référence au contenu que vous ne souhaitez pas numériser. En insérant le dossier ” breadcrumb ” dans cette ligne, nous annonçons à Google qu’il doit éviter de le scanner. Au contraire, dans la ligne ” autoriser “, nous entrons dans le chemin qui peut être suivi et scanné.
Il est possible d’insérer différents dossiers, notamment si l’on veut éviter de scanner les fils d’Ariane, mais il faut faire une exception pour le fichier ” Google ” à l’intérieur du dossier ” fils d’Ariane “. C’est-à-dire qu’ils vous permettent de définir le chemin à prendre dans le crawl du moteur de recherche, afin de ne placer que ce que vous voulez.
La commande Disallow ne bloque cependant pas l’indexation des pages analysées par les spiders : la balise Noindex est nécessaire pour cela. De cette façon, les pages scannées ne seront pas incluses dans les SERP. Comme Google n’a jamais confirmé l’efficacité de cette commande, si elle est insérée dans le fichier robots.txt, de nombreuses personnes insèrent la méta robots noindex dans les pages qu’elles ne veulent pas indexer dans les moteurs de recherche.

Robots.txt : le signe du dollar et le dièse
Si vous incluez une URL dans les directives ” disallow ” ou ” allow “, vous pouvez ajouter un signe dollar ($) à la fin de celle-ci. Ce symbole vous permet d’empêcher l’exploration de toutes les URL se terminant par cette extension spécifique. Les commentaires peuvent être ajoutés soit au-dessus de la première ligne de la directive, soit à la fin de celle-ci. Si vous ajoutez un dièse (#) au début, ceux-ci ne seront pas pris en compte par le logiciel, mais peuvent être utiles lorsque vous traitez avec des développeurs ou des consultants. Le dièse détermine un texte qui n’intéressera pas le logiciel et ne le perturbera donc pas.
Robots.txt : la fonction du plan du site dans l'optimisation du site
La dernière ligne de la directive rapportée est celle du sitemap. En effet, le fichier texte robots.txt permet de signaler, afin de le préciser, la position du sitemap.xml aux moteurs de recherche. Le plan du site, qui n’est rien d’autre qu’un plan du site web, a été créé dans le but de rapporter une sorte d’index du site sur lequel on navigue. Un outil qui simplifie la recherche de l’utilisateur, lui permettant de trouver plus facilement les éléments qu’il recherche. Au sein du fichier texte robots.txt, les sitemaps ont pour mission d’organiser la structure du contenu du site de manière à faciliter son analyse par les moteurs de recherche. L’insertion de l’url du plan du site dans la directive, comme indiqué dans l’exemple, déclarera la présence du plan du site dans le site Web. Si vous vous retrouvez avec des sitemaps différents, vous pouvez les insérer et les spécifier dans le fichier texte robots.txt.
En utilisant une ligne de directive pour chaque sitemap, il est possible de les ajouter en utilisant les en-têtes sitemap-1.xml et ainsi de suite, signalant ainsi la présence de tous les sitemap.
Robots.txt, à quoi il sert : le résumé
Pour résumer, examinons l’utilisation du fichier robots.txt :
- bloquer l’accès des crawlers aux sections privées du domaine ;
- bloquer l’accès des moteurs de recherche aux scripts, index, utilitaires ou autres types de code ;
- bloquer l’indexation du contenu dupliqué sur le site ;
- simplifier l’analyse du plan de site XML.
Il n’est pas obligatoire de mettre en œuvre le fichier sur son propre site, mais au vu des nombreux avantages, c’est toujours recommandé, notamment en termes de SEO.
De plus, le robot Google arrive sur le site déjà équipé d’un budget de crawl, c’est-à-dire le nombre d’URL qu’il est capable d’analyser. Par conséquent, le fait d’indiquer les pages à exclure garantit que le robot utilise le budget uniquement pour les pages qui l’intéressent, en évitant de le gaspiller sur des pages non pertinentes ou même en double sur le site.