Le HTTPS est devenu un des points clés du web de 2017. Le moteur de recherche Google, les navigateurs Chrome et Firefox commencent à l'imposer systématiquement, le référencement des sites va en devenir dépendant. Alors, pourquoi est-il aussi urgent de passer au HTTPS ?
Un critère de référencement de plus en plus nécessaire.
Google a commencé à imposer progressivement le HTTPS pour un web plus sûr, et ce dès 2014, en publiant un article sur son blog dédié au référencement, pour annoncer qu'il utilisait désormais dans son algorithme ce critère, précisant au passage qu'il gagnerait en importance dans les années à venir.
Dans les faits, après de nombreuses études sur le sujet, il est maintenant AVÉRÉ que plusieurs plateformes ayant migré vers le HTTPS, avaient amélioré significativement leur référencement.
D'ailleurs, selon SemRush, le HTTPS vient maintenant se hisser à la 7ème place des critères de référencement, devant des critères comme la densité ou la présence des mots clés recherchés dans le corps de l’article.
L’installation d’un certificat SSL est donc devenu un véritable avantage concurrentiel. Sur des requêtes ultra-concurrentielles où vous disputez la première place, cela peut vous permettre de faire la différence ou de consolider votre position de leader. Sur des requêtes moins compétitives, si les sites concurrents n’ont pas encore adoptés le HTTPS, cela peut vous permettre de vous hisser en tête des résultats.
À moyen terme, cela va tout simplement devenir indispensable. Les cyberattaques se multipliant ces derniers temps, le poids de la sécurité, et donc du HTTPS, dans les critères de classement des résultats de recherche ne peut qu’être grandissant.
La migration HTTPS souvent mal faite !
Même si Google accorde un bonus aux sites passant au HTTPS, les sites ayant migrés seront considérés comme ayant un nouveau nom de domaine. En clair, pour Google le fait d’ajouter un “s” dans l’URL équivaut à une nouvelle adresse. On parle donc d'une entité nouvelle qu'il convient de soumettre à l'indexation (incluant la Sitemap, à convertir aussi en HTTPS dans le robots.txt) comme tout nouveau site Web nouvellemment créé. Cela ne veut pas dire pour autant que vous risquez de perdre votre ancien référencement, généré par votre site en HTTP, que du contraire, le HTTPS vous permettra de renforcer et d'améliorer votre position.
Le point clé réside dans la redirection des URLs (mise en place de redirections 301 sur l’ensemble des URLs existantes) et surtout dans la mise à jour de l’ensemble des parties du site pouvant contenir des URLs, ressources, scripts ou modules encore appelés en HTTP. Cette partie est importante aussi au niveau de vos utilisateurs pour assurer une transition en tout tranquilité. La conversion par Google ne sera pas immédiate, cela prendra du temps ! Aussi, vous risquez de voir, pendant un temps, au niveau de votre référencement, un mix de liens en HTTP et d'autres en HTTPS… Ce n'est qu'une question de temps avant que la transtion soit complète.
Aussi, il est fortement conseillé d'utiliser Google Analytics pour détecter les liens générant par défaut un trafic important et fréquent et vous assurer plutôt deux fois qu'une, que les redirections sont effectives. Autrement, cela risque de générer des 404 et de l'insatisfaction de vos visiteurs.
En tout temps, vous pouvez demander un rapport HTTPS de votre site pour déceler des liens ou modules restées en HTTP, surtout quand vous avez un volume de pages important sur votre site.
Rassurez votre audience
Utiliser du HTTPS sur son site web est aussi un gage de confiance pour le visiteur.
Depuis peu, les développeurs des navigateurs principaux (Chrome, Firefox, Safari…) ont annoncé qu’ils allaient afficher des messages d’alertes explicites pour les pages qui sont restées en HTTP. Chrome a d'ailleurs déjà mis en place début 2017 un message “Not Secure" (Non sécurisé) qui s’affiche dans la barre d’adresse pour les pages contenant un formulaire non sécurisé.
Dans les prochaines versions, des alertes seront présentes sur tous les sites HTTP. Les notifications seront de plus en plus visibles (en rouge, avec un message clair et un panneau danger).
L’objectif est double, prévenir les utilisateurs des dangers qu’ils courent en saisissant des informations personnelles sur des sites non sécurisés, tout en sensibilisant les webmasters à l’urgence de protéger les données de leurs visiteurs.
L’actualité récente autour de la cybersécurité et le piratage de certains sites vont rendre ces messages particulièrement dissuasifs. Or un utilisateur qui quitte votre site, ce n’est certes pas bon pour votre activité, mais cela peut le devenir aussi pour votre référencement. En effet le taux de rebond, le temps moyen passé sur le site et le nombre de pages par session sont mesurés par Google, qui le prend en compte dans le classement des résultats. D’où un risque de double peine : abandon de navigation et baisse du SEO pour votre site.
Le triptyque “sécurité, confiance et SEO" du protocole HTTPS vous permet donc d’amorcer un cercle vertueux dont il serait dommage de ne pas profiter. D’autant plus que le HTTPS est amené à devenir la norme du Web avant fin 2017, alors autant en bénéficier au plus vite et ainsiprendre une longueur d’avance sur la concurrence.
Le SEO (et le concept d’indexation du contenu) est un univers tellement complexe qu’il comporte ses mythes et ses légendes, au grand bénéfice de certains. Démystifions-en quelques-uns.
Erreur fréquente: “la création de contenu pour le SEO, c’est avoir un contenu bien présenté et de qualité pour que l’utilisateur Web trouve facilement ce qu’il cherche sur votre site“.
En fait, le SEO est en prémisse de toute activité humaine. Il s’agit d’abord et avant tout de rendre le contenu de son site Web clair et compréhensible pour les robots d’indexation. Mais la création de contenu vise surtout à correler le site web à une plus grande quantité de mots-clés afin d’en augmenter la “résonance” dans son environnement.
Ce qui prime, ce n’est ni la présentation, ni la qualité (qui est très relative/subjective, comprenez-moi bien ici), mais l’originalité, la cohérence et la quantité. L’originalité car il faut que le contenu produit soit neuf, sans indexation passive (donc, contenu provenant d’une source déjà indexée). La cohérence car il convient que le contenu soit monté de manière logique et qu’il parle effectivement de ce dont il est censé parler (donc si vous faites un article sur le design intérieur, évitez de trop vous attarder sur le contenu d’une cuisine moderne ou alors, changez de sujet) et la quantité, soit court, à minimum 550-750 caractères soit long à 1000-1200 caractères, parce que plus le site fournit du contenu indexable (et en rapport avec sa niche), plus la résonance du site augmentera, donc son “autorité” (d’ou, son acquisition d’un meilleur référencement).
Les sites ayant généralement un bon référencement présentent une grande quantité de mots-clés indexés.
Erreur fréquente: “Vu qu’il faut produire du contenu de qualité, autant le demander à un pro.“
Nul besoin d’être PRO pour parler de ce qu’on fait ! Ni même pour la création de contenu sur son site Web. En fait, il s’agit juste de rationaliser son action, de comprendre le procédé…
La question de la “qualité” a été abordée … Mais l’idée n’est pas de produire du contenu pour l’utilisateur, même si, en fin de compte, c’est bel et bien lui qui va le lire. Dans un contexte d’accroissement de l’indexation d’un site, l’idée c’est de produire du contenu en rapport avec sa niche de marché. Et cet excercice est à faire avec une certaine logique, … plutôt de la cohérence !
En fait, il est important que l’article (ou la page en question) parle de ce qu’il est censé effectivement parler. Ça a l’air bizarre à dire … Mais beaucoup de personnes se perdent quand ils écrivent.
L’important, c’est de focaliser son attention sur un sujet, et de parler de ce sujet, tout en ayant une construction hiérarchique, à la méthode d’un journaliste (sans être pro pour autant).
En clair, si on lisait un article de journal sérieux, on verrait que le journaliste tourne toute son argumentation autour quelques mots-clés, un sujet. Et ce sujet, il le mentionne dans le texte, plusieurs fois, mais aussi dans le titre, le sous-titre, le chapeau, etc … Et c’est justement voulu. Parce que pour beaucoup d’entre-nous, quand on lit le journal, on regarde les titres (qui que quoi ou comment), le chapeau, l’image aussi … car cela résume grossièrement l’article (et on décide à partir de là de poursuivre la lecture ou non). Les robots d’indexation fonctionnent sensiblement de la même manière, il lisent le code, ce qu’il y a entre les balises (qui ont une signification pour lui), dans le texte, en identifiant les redondances et en faisant de possibles corrélations. Voilà pourquoi les titres, les balises H1, H2 sont importantes, parce qu’elles donnent le ton ! Elles annoncent de quoi parle l’Article (ou le site web).
Donc, si un sujet doit être traité dans un article, ce sujet (ou mot-clé) doit être mentionné dans l’URL, dans le titre H1, dans le titre H2, dans le corps de texte, dans la balise Alt de l’image, dans le titre SEO, dans la META Description … Pas trop souvent tout même, sinon, c’est de la suroptimisation (appelé aussi bourrage).
Pour conclure, quand on produit du contenu, qu’on exploite un sujet, il s’agit de s’attarder sur celui-ci, de l’expliquer, de l’argumenter et si vous en avez plus à dire, écrivez-en un autre ! Ça ne peut être que bénéfique.
Dans une optique de création de contenu, il faut segmenter sa pensée en traitant séparement les sujets à aborder.
Bâclez votre site Web, son contenu, aura très exactement le même effet sur votre référencement. C’est un rapport parfait de proportionnalité !
La création de site Web et le Réferencement …
Une petite entrée en matière pour clarifier certaines choses vient le temps de créer son site web.
Premier cas:
Souvent, il arrive qu’on aille un peu trop vitre pourt créer son site Web et, ceci concerne tant les développeurs que les entrepreneurs (qui créent leur propre site Web). Nouveau design, nouveau concept, on est pressé de le montrer et on le met en ligne … Du coup, le projet se considère comme terminé, on reçoit de beaux commentaires, la vie continue, le quotidien reprend le dessus …
Second cas:
Souvent, aussi, il arrive qu’on soit tanné de travailler sur son site. On a juste envie qu’il soit en ligne. Basta terminé, la job est faite. Du coup, certaines parties du site ne sont pas terminées ou encore, vous n’avez pas de Meta, de titre SEO mais vous vous dites que vous le ferez plus tard… Bref, il est bien mais bon, vous avez autre chose à faire … !
Puis quelques semaines/mois plus tard, alors que pourtant vous avez un “Superbe” site web, vous vous rendez compte que finalement, il ne se passe pas grand chose. Votre rapport Google analytics n’est pas très satisfaisant, peu de trafic !
Dans les deux cas, vous vous tirez une balle dans le pied ! Et vous n’avez aucune idée à quel point elle va faire mal !
Pourquoi ? À cause du temps ! Le temps qui passe …
Google ne s’arrête jamais, il va indexer votre contenu Web (ou tenter de le faire) et ça ne se fait pas en une fois, mais progressivement, petit à petit parce que le web est dense, très dense. Les robots d’indexation doivent d’abord “comprendre” votre contenu, et le correler avec des critères de recherche. Ensuite, commence un jeu d’essais/erreurs (que vous ne voyez pas habituellement parce que le classement de votre site est très éloigné), par rapport à votre trafic, votre emplacement, les recherches correlées, etc …
Votre site commencera donc à se positionner autour de quelques mots-clés. Mais, encore une fois, ce n’est pas immédiat. Cela peut prendre des semaines, en référencement organique, pour qu’un site sorte sur différents critères de recherche (si ceux-ci sont pour autant identifiés sur le site).
Donc, quand vous postposez la “finalisation” de votre site, vous faites en réalité de même avec votre référencement.
Et quand vous déciderez finalement de le terminer, il faudra encore attendre que Google prenne vos changements en considération.
Donc, si vous placez beaucoup d’espoir sur votre site, compte tenu du fait que vous savez qu’il n’est pas terminé, ou incomplet, ou non optimisé avec les standards les plus basiques, c’est peine perdue !
Personnellement, je donne tjs un 3 mois à mes clients pour leur présenter des résultats de référencement organique, c’est à ce moment là qu’on commence à identifier des tendances à la fois de positionnement, mais aussi d’indexation “continue”. Pourquoi continue, parce que à partir du moment ou votre site a trouvé sa “voie”, le référencement “organique” (vivant donc) s’apparente à une boucle: du fait que le site est très exactement positionné pour ce pour quoi il existe (plusieurs combinaisons de mots-clés), il génère du trafic. Et ce trafic, organique (le mot est important) est pour Google, une variable très importante de positionnement. Car plus il en génère, même si au départ, le site n’est pas nécessairement positionné dans le Top 3, plus il constitue une référence pour Google et peut donc à terme devenir prédominant dans plusieurs catégories de recherche et ainsi améliorer de lui-même son positionnement.
C’est une étape qui est très stimulante car, en tant que concepteur Web, c’est à ce moment-là qu’on voit son site Web grandir, “prendre son envol” … Devenir AUTONOME.
Si au passage, vous ajoutez davantage de contenu Web (articles), vous développez des backlinks, etc … tjs dans la même niche, vous confortez Google dans le positionnement et l’importance qu’il a accordé à votre site Web.
Et là, il faut bien compendre une chose. Le référencement organique d’un site web, ce n’est pas juste se positionner sur 1 seul mot-clé mais une multitude, corrélés à votre niche de marché. Pourquoi ? Parce que le monde n’est pas binaire ! On ne recherche pas tous les choses de la même manière, avec les mêmes mots, et surtout nous n’avons pas tous des besoins identiques.
Faire appel à l’empathie pour créer son site web.
Donc, si vous êtes spécialiste dans quelque chose, ce n’est pas uniquement sur votre spécialité que vous devez vous positionner mais aussi sur toutes les causes qui créent l’existence de votre spécialité (ou qui la justifie) ainsi que les conséquences (bienfaits). Pourquoi ? Parce que nous ne sommes pas omniscient, nous ne connaissons pas forcément la solutions à nos problèmes (ce qui justifie que Google soit si populaire). Nous posons des questions à Google (en 2016, plus de 100 millions d’heures de vidéo commençant par “How to” ont été visionnées sur Youtube), nous lui expliquons ce que nous cherchons, ou notre problème, et nous attendons qu’il nous réponde ! Si vous avez pris le temps d’identifier distinctement ces causes et conséquences, vous augmentez de manière exponentielle votre capacité d’être listé, d’apparaître dans les résultats de recherche.
Pour créer son site Web dans les meilleures conditions…
Maintenez votre site Web en mode maintenance tant que vous ne l’avez pas terminé (autrement, le contenu web temporaire de votre site en construction, sera indexé).
Prenez le contrôle de votre indexation via la Console Google pour gérer votre indexation continue, vos erreurs d’exploration, votre sitemap, vos erreurs de données enrichies, etc.
Intégrez des META Descriptions et des titres SEO
Intégrez des balises H1 et H2
Soyez patients !
Prenez le temps de bien faire votre site Web et pensez GOOGLE !
Comment éviter les pénalités de Sur-optimisation de Google tout en améliorant son référencement organique ?
Optimiser son site Web est une nécessité en 2017, du fait de la densification du Web et de l’Accroissement continu des données mais comme dans toute chose, il y a les bonnes pratiques et celles qu’il ne faut jamais (ou jamais plus) utiliser.
Méfiez-vous donc de ce que vous trouvez sur le WEB et demandez toujours conseils à un spécialiste, ça vous évitera bien des désagréments et parfois, même, des situations irrécupérables.
Évitez les générateurs de Backlinks en ligne
C’est une pratique assez commune, qui n’est visible que lorsqu’on examine de près les Backlinks d’un site. En tant d’auditeur SEO, quand un « petit » site Web se trouve en possession de près de 100,000 Backlinks, c’est qu’il y a anguille sous roche.
Quel est l’impact ? L’origine de ces Backlinks. Bien souvent, ils profitent plus à ceux qui vous les donnent plutôt qu’à vous-même. Ensuite, parce qu’ils proviennent souvent de sites Web douteux, très douteux, pour lesquels, en temps normal, vous ne souhaiteriez justement avoir aucune forme de référence. Enfin, parce que Google fait la distinction entre un backlinks organique, cohérent, et un fake… Simplement par la langue du site d’où provient le backlink, son référencement (s’il valorise des mots-clés n’ayant de près ou de loin aucun rapport avec vous), etc.
Et pour ça, Google vous pénalise.
Prenez donc le temps de vous constituer des backlinks de qualité dans votre entourage, auprès de vos clients. Ça peut être long et fastidieux mais c’est un investissement qui peut s’avérer très rentable à terme. Parce que, justement, pour Google, vous deviendrez une référence.
Cacher des mots-clés dans vos pages
Une pratique « courante », il y a quelques années pour tromper Google et imposer des mots-clés aux robots d’indexation. Inutile de dire que de nos jours, c’est une pratique qui est largement pénalisée par Google et surtout, rapidement décelée.
N’utilisez donc pas la même couleur pour l’arrière-plan et les textes de votre site web, ne dissimulez pas vos mots-clés derrière les images ou via des feuilles de style en cascade.
Redondance à l’extrême de mots-clés
Une technique à la base même des fondements du SEO mais qui, depuis longtemps, n’est plus fonctionnel car pénalisée par Google.
Concrètement, cette méthode consiste à répéter des combinaisons de mots-clés « Stricto Sensu » dans un texte, un titre, la META description, le contenu, l’URL et surtout dans les bas de page. Cette sur-abondance est souvent signalée par Yoast, si vous utilisez WordPress, au cas où vous le feriez par erreur. Le secret, dans l’optimisation d’un site, consiste essentiellement dans la cohérence de sa structure et de son contenu.
Utilisée à l’extrême, cette technique peut être vue comme du SPAM et donc sanctionné par Google.
Comment optimiser son site Web (votre contenu) & améliorer votre référencement organique global!
En dehors de la stratégie appliquée sur l’ensemble de son site Web, la production d’articles joue un rôle essentiel pour plusieurs raisons :
D’abord, ils permettent d’ajouter du contenu indexable à votre site Web et on sait tous que la production de contenu est importante. En moyenne, les sites les plus performants comptent plusieurs milliers de mots-clés indexés.
Ensuite, parce que la production de contenu supplémentaire, en lien avec l’offre de service en général, permet de contextualiser l’offre de service et de « greffer » des mots-clés connexes, permettant au site Web de résonner dans sa niche.
Mais ce n’est pas tout.
Produire pour produire n’a pas de sens ! Il est important que ce contenu soit optimisé, de manière à permettre aux robots d’indexation d’en comprendre la signification. Les robots d’indexation comprennent le rôle d’une page en fonction de l’utilisation de balises (et du contenu entre ces balise) ou de la valorisation de certains mots.
Enfin, n’oubliez pas d’indexer votre nouveau contenu dans la Console ! Cela forcera Google à en prendre considération plus rapidement.
1. La Balise H1
Cette balise est importante, probablement la plus importante mais elle est souvent négligée ! Vous devez impérativement intégrer des Balises H1 dans votre site, sans excès toutefois. Ces balises servent souvent à définir soit l’identité d’un site et sa niche de marché (si utilisée en page d’accueil), soit à définir l’essence du contenu de votre page.
Pensez donc à introduire cette balise en haut de votre page d’accueil et de chacune de vos pages en interne (incluant les articles).
3 astuces :
Soyez hiérarchique dans l’organisation de de vos balises. Commencez toujours par la H1
Soyez efficace dans le contenu de ces balises. Allez droit au but. Évitez de trop positionner votre propos et surtout valorisez le mot-clé principal dans la H1
N’utilisez pas plus de 1 balise par page, sauf en page d’accueil, où vous pouvez aller jusqu’à 2, grand maximum.
2. La balise H2, pour définir vos H1
La balise H2 doit servir à créer les différentes sections de votre article, en mentionnant des mots-clés connexes à votre mot-clé principal. Les balises H2 sont aussi importantes que les H1, particulièrement en page d’accueil, pour positionner votre offre de service et les mots-clés associés à l’identité de votre site Web.
Pensez donc à utiliser ces balises avec discernement afin qu’elles vous soient utiles.
À ce titre, et je n’en ferai pas un point particulier ici, si vous avez un titre à mettre de l’avant mais que vous savez pertinemment que son contenu n’est en rien lié à l’essence de votre article, utilisez la balise H3… Une balise “Passe-Partout” qu’on peut utiliser pour valoriser du texte insignifiant d’un point de vue SEO et important au niveau UX !
3. Les titres SEO, un avantage indéniable
Saviez-vous qu’en moyenne, la première page de résultats Google compte 1900 mots ? Qu’est-ce que cela veut dire ? Simplement, que les sites Web ayant le meilleur positionnement sont souvent ceux qui ont valorisé leur titre SEO et META description.
Si vous utilisez WordPress, je vous recommande d’installer Yoast qui vous permettra d’optimiser le contenu de vos pages. Attention toutefois, n’oubliez jamais de considérer Yoast comme un guide d’optimisation et non pas une bible à suivre aveuglément. Yoast vous aide à harmoniser votre page et à en faciliter la lecture par les robots d’indexation.
Le titre SEO joue 2 rôles :
Donner une définition de votre page (titre) pour les moteurs de recherche (un contenu synthétique à afficher)
À optimiser le contenu de votre page car justement, contrairement aux idées reçues, les titres SEO et META descriptions jouent un rôle important dans le référencement organique.
Voilà pourquoi, il est important d’utiliser le titre SEO de manière stratégique. Intégrez le mot-clé principal de votre page, l’offre de service à laquelle correspond ce mot-clé et s’il reste un peu de place, le nom de votre entreprise… Le tout, dans maximum 70 caractères. N’en mettez pas plus, car l’excédent ne sera ni lu, ni utilisé par les moteurs de recherche.
4. La META description, pour positionner votre niche.
La META, en plus de son rôle majeur pour le référencement organique, sert à définir votre mot-clé et à le positionner dans une niche en particulier. Trop souvent, la plupart des gens utilisent la META description en insérant une partie du texte ou une forme de résumé de son contenu. Ça peut être efficace si par chance, vous avez sélectionné du contenu pertinent. Toutefois, la plupart du temps, cela n’aide pas votre page/article pour son positionnement.
Idéalement, vous devez intégrer le mot-clé (ou les) que vous voulez valoriser en particulier. Ensuite, positionner ce mot-clé dans la définition soit de votre site, soit de l’offre de service auquel est relié ce mot-clé. Ensuite, pensez à positionner le nom de votre entreprise OU utilisez un mot-clé de positionnement, comme par exemple, une Ville (Montréal, Qc, …). Ceci est d’autant plus vrai quand il s’agit d’un article associé à une offre de service (SEO Local).
3 Astuces :
Ne produisez pas plus de 160 caractères car l’excédent ne sera ni lu, ni utilisé par les moteurs de recherche.
Soyez concis. Évitez les phrases longues. Utilisez les sigles « |, -, / » pour séparer vos sujets.
Pensez d’abord à Google avant de penser à ce que les gens pourraient penser de votre META Description.
5. Intégrez des images, valorisez la balise ALT
C’est toujours une bonne chose d’intégrer des images dans vos pages et vos articles. Pensez toutefois, à les optimiser au niveau de leur contenu, de leur taille, et dans leur rôle.
Le contenu : tâchez d’être originale dans l’utilisation de vos images. Évitez celles qu’on voit déjà beaucoup trop sur le Web dans d’autres articles. Aussi, intégrez des messages dans celle-ci. Une image vaut mille mots, imaginez si en plus vous en rajoutez quelques-uns …
La taille : une erreur fréquente au niveau des sites Web consiste tout simplement à ne pas se soucier de l’impact qu’elles peuvent avoir sur le rendement de celui-ci. Avez-vous le bon serveur d’hébergement ? Utilisez-vous des PNG au lieu de JPEG ? Avez-vous des images plus lourdes que 1MB ? Ou plus que grandes que 1280Px de large ?
Pensez donc à optimiser vos images avant de les loader sur votre site. Et si vous faites des tests, pensez aussi à supprimer celles qui ne vont pas être utilisées. Elles prennent de la place pour rien.
Petit conseil : pour WordPress, j’aime utiliser EWWW Image Optimizer ou encore Wp Smush pour compresser mes images une fois loadée sur le site. Cela permet de gagner du temps au chargement de la page et, bien sûr, de l’alléger.
Le rôle : trop souvent oubliée, la balise « ALT » ou « Texte alternatif » joue un rôle important pour le référencement d’une image et sa corrélation avec le contenu de votre article. Pensez donc à l’utiliser à y mentionnant le mot-clé que vous aurez utilisé pour votre article/page. Cet exercice est à faire pour chaque image dans votre page/article, incluant celle « mise en avant ».
6. Partagez sur les réseaux sociaux
En plus d’avoir indexé votre nouveau contenu dans la Console Google, il vous faut maintenant le partager sur les réseaux sociaux. Pensez donc à multiplier les occasions de vous faire voir, en utilisant Facebook mais aussi, Google +, Linkedin perso (et votre vitrine d’entreprise), Pinterest (qui génère des backlinks en DoFollow à chaque partage), etc …
Une bonne astuce consiste à automatiser le plus possible la diffusion de vos articles. Pour ce faire, vous pouvez utiliser JetPack, qui vous permet justement de connecter, à partir de votre site Web, tous vos comptes sociaux et en 1 clic, de publier sur l’ensemble de vos comptes.
La production d’une infolettre aussi, mensuelle, peut être bénéfique en gardant informé l’ensemble de vos clients, leads, etc …
Le SEO (Search Engine Optimization), en général, fait aujourd’hui l’objet de nombreuses rumeurs et de croyances quant à son utilité ou son efficacité.
Pourtant, les faits sont là ! Et alors que ses effets sont effectivement mesurables, via Google, quoi de mieux que des chiffres provenant des “Majors” de l’industrie pour dresser un portrait réaliste de la situation en général et du futur à venir…
Dis Google, dis-moi ce que tu sais … !
Saviez-vous que, selon Ascend2, 47 % des spécialistes en marketing digital affirment que le SEO est une de leurs tactiques les plus efficaces, mais 39 % l’identifient aussi comme une des plus difficiles.
Selon eMarketer, seuls 33 % des petites et moyennes entreprises ont des sites web optimisés SEO. Et on parle ici d’une statistique mondiale et aussi, du strict minimum effectivement en matière d’optimisation (comprenez ici une situation où Google a compris ce que vous faites et vous liste postivement selon des mots-clés associés à votre niche de marché).
Les moteurs de recherche (Google).
Alors que la majorité des personnes (et agences), lors de la création d’un site Web, concentre leur énergie sur des éléments à prédominance esthétique (sans pour autant favoriser l’UX, étrange paradoxe purement subjectif), au détriment de son optimisation effective (entendez la clarification de son contenu), selon imForza, 93 % des expériences en ligne commencent avec les moteurs de recherche. Autrement dit, la première expérience que le Web aura avec votre site émanera d’un moteur de recherche, d’où l’importance de penser indexation et capacité d’indexation lors de sa conception. D’ailleurs, selon Andrey Lipattsev, stratégiste en qualité de la recherche chez Google, les liens, le contenu et le RankBrainsont les trois signaux de positionnement les plus importants dans l’algorithme de recherche de Google (Search Engine Land).
Petits bonus, saviez-vous que selon NetMarketShare, Google représente 78 % du trafic de recherche sur desktop, suivi par Bing (8 %), Yahoo (6 %) et Baidu (6 %) et que Google représente plus de 94 % du trafic de recherche sur mobile, suivi par Yahoo (3 %) et Bing (1 %).
Donc, quand vous entendez quelqu’un vous dire que vous devez impérativement diversifier votre indexation, multiplier votre présence sur plusieurs moteurs de recherche (incluant la publicité payante, …), … Théoriquement, il n’a pas tort. Tout investisseeur vous dirait qu’il est crucial de diversifier son portefeuille d’investissement. Dans les faits, c’est TOTALEMENT inutile et il vous faut l’accepter. Google est le plus important moteur de recherche sur le WEB, le plus populaire, et gagne tous les jours, toujours plus de parts de marché. Donc, dans l’optique où vous voulez être vu et qu’on vous trouve, pensez à GOOGLE et vous aurez fait une énorme partie du travail.
GOOGLE n’en a pas fini de vous surprendre !
Il y a une autre tendance qui est en train d’émerger et qui risque d’en surprendre plus d’un ! Selon Search Engine Land, les recherches vocales faites sur Google ont augmenté de 10 % par rapport au volume de recherche global en 2016.
Et toujours selon eux, 50 % de toutes les recherches seront vocales d’ici 2020 (c’est juste dans 3 ans…).
L’aviez-vous vu venir ? Les 5 prochaines années risquent donc de voir apparaître une multitude de nouvelle technologies (et techniques) pour justement offrir des solutions adaptées à cette réalité. Et on ne parle même pas de l’importance, plus forte encore, qu’occupera le SEO dans les prochaines stratégies de référencement. Pourquoi? Parce que le “Medium” (en référence à une phrase emblématique “The medium is the message” de la pensée de Marshall McLuhan, philosophe des medias canadien, que j’ai personnellement adoré lire et étudier) aura totalement changé et la récupération de l’information sera différente, plus synthétique et surtout plus hiérarchisée.
Toutes les projections sont possibles et je ne veux pas me perdre en conjoncture mais, à l’heure actuelle, en tant que “texte” qui s’affiche sur un écran (ordinateur, tablette, …), notre esprit dispose d’une assez grande capacité d’absorption d’information. Même si elle est sélective, et parfois très subjective en dépit du contenu qui est proposé, sur un écran, nous avons la capacité d’intégrer une grande quantité d’information et nous choisissons plus largement, selon nos habitudes, l’information qui convient le plus à notre recherche. Dans le cas d’une distribution vocale de l’information, le temps devient un facteur beaucoup plus important (non pas dans le temps passé à lire l’information mais plutôt le temps à choisir l’information qui va être lue en priorité). Combien de temps faudra – il à une “intelligence” vocale pour lire le contenu d’une page entière de résultats Google (comptant une moyenne de 1900 mots) ?
Parions que la priorité sera mise sur l’information à fort potentiel d’efficacité (donc les premiers résultats) et c’est encore plus vrai au niveau SEO Local !
On peut donc encore s’attendre à de profondes modifications (améliorations) dans la manière dont l’information, en fonction de son référencement, sera présentée par Google (et donc, à une nécessité toujours plus croissante dans les besoins futurs d’optimisation) afin d’offrir le plus précisément possible l’information correspondant à la requête. Ceci étant, la manière dont l’information sera recherchée (ou demandée), sera aussi possiblement différente et probablement plus étoffée, nous sommes plus souvent volubile à l’oral qu’à l’écrit (qui constitue encore de nos jours un obstacle pour une grande partie de la population).
On peut également s’attendre à des requêtes plus riches en mots-clés et donc à des recherches plus ciblées… Un dossier à suivre de près !
Quelques stats supplémentaires.
À titre purement informatif, saviez-vous que, selon Internet Live Stats, Google reçoit plus de 58 000 recherches par seconde tous les jours, ce qui fait près de 2 mille milliards de recherches par an (en croissance continue) et que, selon Search Engine Land, rien que cette année, 100 millions d’heures de contenu « how-to » ont été regardées sur YouTube ?
Et pour ceux qui ne jurent que par les médias sociaux, comme outils de promotion, saviez-vous, toujours selon Search Engine Land, que les moteurs de recherche attirent 10 fois plus de trafic vers les sites e-commerce que les médias sociaux.
Autrement dit, un site web optimisé, avec sa propre boutique en ligne attirera, de manière organique, plus de visiteurs que toutes les promotions et autres campagnes, que vous pourriez mener sur les médias sociaux….
Quid des utilisateurs ?
En dépit des nombreuses recommandations, formations et autres tutoriels à disposition, il est une problématique que nous, tout un chacun, avons du mal à prendre en considération lorsque nous concevons un site Web. Peut-être est ce d’ailleurs symptomatique de notre état d’esprit généralisé. Nous valorisons souvent l’esprit de communauté dans une société, l’échange, le partage, mais souvent, nous en revenons à notre stricte individualité.
Je parle ici de l’empathie, du manque d’empathie sur le Web (à croire que, par défaut, nous avons des tendances sociopathes une fois devant l’écran d’un ordinateur).
Les plus grands succès Web de notre époque ont tous un point commun, en dehors du facteur technologique et accessoirement de l’Effet Grégaire, c’est une prise de conscience de l’environnement dans lequel se situe l’objet (réel ou virtuel) et de son interaction avec celui-ci. On ne parle pas ici de Marketing, qui se veut davantage linéaire, ordonné et caricaturale mais plutôt d’un concept de mise en abyme, et d’une capacité à analyser, tester, modeler, rationnaliser cet environnement pour l’amener à interagir de manière multilatérale avec l’objet en question (Growth Hacking).
Voici justement quelques faits mesurés et avérés qui témoignent de cette réalité:
Selon imForza, 70 % des résultats de recherche cliqués sont organiques, ORGANIQUES (donc pas Adwords, pour ceux qui investissent des fortunes en campagnes publicitaires).
De plus, toujours selon le site, il a été prouvé que plus de 75 % des utilisateurs de moteurs de recherche ne cliquent pas plus loin que la première page (la page 2 n’existe tout simplement pas).
Mais là où ça devient intéressant, et je fais le corollaire avec certaines débats récents qui ont animé la toile sur le positionnent factices de sites Web sur quelques combinaisons (mots-clés) comme “pseudoperformance” d’optimisation, c’est que selon WordStream, 50 % des requêtes de recherche comptent au moins quatre mots, 4 ! Ce qui témoigne d’autant plus de la nécessité, dans un concept d’optimisation de site Web, d’accroître significativement sa capacité d’indexation effective et son effet de résonance, plutôt que de, coûte que coûte, le positionner sur quelques mots-clés.
C’est un accroissement global de l’indexation d’un site qui générera à terme une amélioration de son référencement.
D’ailleurs, selon Earnest, 81 % des cycles de commande B2B débutent avec la recherche web. Donc, si vous êtes une entreprise orientée B2B, comprenez ici le message qui consiste à maximiser vos efforts d’optimisation au niveau Web (GOOGLE), et non dans un enchevêtrement obscure d’initiatives pseudo-stratégiques, combinant Ad Nauseam, l’ensemble des médias sociaux existant sur le Web. Il ne s’agit pas ici de dénigrer les réseaux sociaux, que du contraire ! Il convient de les utiliser pour leur force (service à la clientèle, stratégie de loyauté, référencement par l’indexation de liens en “DOFOLLOW”, …) mais pas de manière exclusive !
Parlons maintenant du contenu, les MOTS !
Une première statistique qui vous mettra directement sur la voie. Saviez-vous que, selon Backlinko, la première page de résultats sur Google contient 1890 mots en moyenne.
De quoi s’agit-il ? En matière d’optimisation, lors de la création de Titres et Meta Descriptions, il est souvent recommandé de les optimiser tant sur leur composition (à des fins de référencement) mais également sur leur longueur (ce qui va de soi, dans un contexte où on cherche à en optimiser le contenu). Respectivement, donc, on cherchera à optimiser son titre SEO jusqu’à 70 caractères et sa Meta Description, jusqu’à 160 caractères (qui sont des stricts maximum vu que, de toute façon, les moteurs de recherche et, arrêtons-nous seulement à Google, n’affichent pas plus que ces quantités respectives dans ses résultats). Compte tenu du fait que Google affiche, par défaut, 10 résultats par page, si on combine 70 et 160 (qui sont les maximums qu’on peut afficher), soit 230 caractères par site affiché, pour 10 sites listés, nous arrivons à 2300 caractères. Si on considère comme acceptable, des titres SEO affichant minimalement 50 caractères et des META description 140 caractères, donc 190 caractères au total, nous arrivons à une moyenne de 1900 mots par page.
Autrement dit, vu qu’il s’agit d’une moyenne relativement haute, on peut dire que les sites bénéficiant en général d’un bon positionnement sur Google, disposent tous de titres SEO et META descriptions relativement longs. Toutefois, si on suit la logique de ce graphique, les sites dont les titres SEO et META description ont été créé à leur capacité maximal, ont tendance à s’afficher en seconde page. Cela doit probablement prendre en considération ceux qui excèdent les maximum, donc ceux qui ont introduit trop de texte, sans rationaliser l’espace autorisé (concrètement, leurs titres SEO et META description comportent des mots-clés mais possiblement dilués dans la quantité de mots). Donc, en résumé, si en faisant une recherche sur Google à propos de votre site, vous voyez en titre SEO le mot “Accueil” et en META Description “Un site d’affaires” et que vous vous demandez encore pourquoi, votre site ne se positionne pas favorablement dans les résultats de recherche, vous avez maintenant un élément de réponse, statistique à l’appui.
Mais il y a plus encore! Une autre statistique intéressante provenant de Dilate, nous apprend que 99 % des sites top 10 (ranking) ont utilisé des META descriptions dans leurs stratégies d’optimisation, et 80 % ont utilisé des balises H1 dans leur contenu.
Il y aurait fort à dire relativement à cette dernière statistique. La META description paraît évidente (même si une grande partie des sites que j’analyse n’en comporte pas : 1 sur 3 pour être précis) mais pensez toujours à intégrer des balises H1 (Max 2) et H2, dans vos pages, idéalement selon un ordre hiérarchique, et plus particulièrement en page d’Accueil ! Les h1 pour définir votre identité et grossièrement, votre niche de marché, les H2, pour définir explicitement votre offre de service. Réservez tous les autres titres aux balises H3 !
Une petite astuce…
Saviez-vous que selon Backlinko, mettre à jour et republier d’anciens posts de blog avec du nouveau contenu et de nouvelles images peut augmenter votre trafic organique jusqu’à 111 %. N’effacez donc pas vos anciennes publications ! Prenez quelques minutes de temps en temps, faites-en la lecture, adaptez-les, apportez du nouveau contenu et republiez ! Une grande partie de votre indexation provient de vos articles de Blog. Parce qu’ils constituent souvent un moyen de contextualiser votre offre de service au travers de contenu connexe. Les effacer, c’est tout simplement accepter le fait de perdre volontairement du référencement.
Une autre statistique que le “domainer” que je suis, apprécie par dessus-tout. Selon Local SEO Guide, les marques qui ont des mots clés forts dans leur nom (incluant donc, le nom de domaine) sont positionnées 1,5 place au-dessus de ceux qui n’ont pas de mot clé dans leur nom.
Autrement dit, le nom de votre marque et celui de votre nom de domaine jouent un rôle fondamentale pour votre référencement. Au moment de choisir, donc, évitez d’être trop créatif ! Allez vers ce qui vous définit. Même si l’impact reste “relatif”, tâchez de mettre toutes les chances de votre côté !
Le contenu – Quelques statistiques
Saviez-vous que, en général, près de 50 % des sites ont des problèmes de contenu dupliqué.
En fait, le Top 5 des problèmes les plus fréquents en SEO OnPage sont: le contenu dupliqué (50 %), les attributs manquants (45 %), les balises dupliquées (35 %), les liens internes cassés (35 %), et les meta descriptions dupliquées (30 %).
Il y aurait plusieurs points à discuter ici mais le plus important, selon moi, c’est la duplication de contenu car de tous, c’est le problème qui peut causer justement le plus de tort à votre site Web. Il y a 2 manières dont le contenu peut-être vu comme dupliqué;
Soit via un problème de redirection 301 au niveau de votre nom de domaine. Donc, concrètement, vous n’avez pas identifié quel était le nom de domaine principal de votre site et donc, même si la version WWW et la version sans les WWW de votre site Web (ex: www.jefaisduseo.com et jefaisduseo.com) s’affichent correctement, elles sont pourtant perçues comme 2 entités distinctes (car en réalité, le WWW est un sous-domaine de votre nom de domaine). Ce qui est vu comme de la duplication de contenu (de site plus exactement) et est lourdement sanctionné par Google.
Soit, vous êtes un mauvais élève et vous avez copié du contenu provenant d’un autre site ! Si ce contenu a d’ores et déjà été indexé par Google, il considérera votre page comme une duplication (car il priorise avant toute chose, le contenu original) et sanctionnera votre site !
Concernant les liens internes, Google déteste les erreurs d’exploration, ou ce qu’on appelle les erreurs 404. Soit des liens de votre site ne menant à … rien. Plus votre site en a, plus vous perdez du référencement ! Tout simplement parce que votre site perd sa crédibilité. Google n’aime pas proposer des Pages en 404 (et donc des sites qui en comportent), parce que fondamentalement, ça va à l’encontre de sa mission première, qui consiste à fournir la réponse la plus adaptée à une requête ! Pensez donc à faire occasionnellement un examen de vos liens, soit par un outil de diagnostique, soit directement dans la Console Google !
Quelques stats en rafale concernant le WEB mobile (et l’importante du responsive).
Selon Reuters, 75 % de l’usage d’Internet sera mobile en 2017, en légère hausse par rapport à 2016.
Selon Social Media Examiner, 62 % des spécialistes en marketing B2B et 51 % des spécialistes en marketing B2C ont optimisé leurs blogs pour le mobile afin d’améliorer le SEO.
Selon Search Engine Land, plus de 50 % des utilisateurs effectuent leurs recherches sur des appareils mobiles.
Selon Search Engine Watch, en 2016, Google a produit 90 % des visites issues de recherche mobile organique. De plus, la part que Google occupe en matière de recherche organique mobile, a augmenté de presque deux points l’année dernière.
Enfin, selon Go-globe, 87 % des propriétaires de Mobile utilisent un moteur de recherche au moins une fois par jour.
Est ce que votre site Web est responsive ? Vous pouvez faire le test ici : https://search.google.com/test/mobile-friendly . Si ce n’est pas le cas, vu la prédominance de l’utilisation du mobile dans les années à venir, vous savez ce que vous avez à faire. Depuis 2015, Google sanctionne toujours plus lourdement les sites Web non responsive et ça risque de s’amplifier avec le temps.
Qu’est-il du SEO local ?
On parle ici, outre l’optimisation effective de votre site pour le positionner dans votre environnement direct, de Google Map, de Google My business, etc…. Comment les utilisez-vous ? Apparaissez-vous sur la Map quand vous faites une recherche locale ?
Voici quelques statistiques:
Selon WordStream, 72 % des consommateurs ayant effectué une recherche locale se sont rendus dans un magasin physique situé dans un rayon de 8 km. Vous l’avez compris, on voit absolument tout et de manière très distinctement correlée, via un cellulaire (et la fonction GPS), entre une recherche et le déplacement effectif de la personne à posteriori.
Selon Go-globe, 18 % des recherches locales sur mobile conduisent à une vente dans la journée et 50 % des recherches locales sur mobile visent des informations de type business telles que l’adresse de l’entreprise recherchée.
Enfin, selon Search Engine Land, 82 % des utilisateurs font appel à un moteur de recherche quand ils recherchent une entreprise locale.
Le SEO dans le monde
Pour conclure, voici quelques stats qui vont très probablement vous étonner ! Et peut-être remettre en question votre vision du monde et de certaines tendances…
Saviez que selon Statista, le Top 5 des TLDs (Top Level Domains) les plus populaires en juin 2016 sont : .com (49,2 %), .ru (5,2 %), .net (4,7 %), .org (4,5 %), .de (3 %).
Évitez donc de vous empresser à acquérir l’une de ces nouvelles extensions (GTLDs: .pro, .city, .top, .xyz, …). Même si elles peuvent paraitre effectivement attractives, l’énorme majorité de la population ne les perçoit pas de la même manière que les TLDs traditionnels ! Il faudra encore probablement quelques années avant que ceux-ci ne commencent effectivement à occuper plus sérieusement le devant de la scène. De plus, il n’a pas été prouvé qu’ils affectaient positivement le référencement (en dépit de toutes les spéculations sur le sujet). Certains joueurs majeurs, au niveau Web, ont certes franchis le cap, mais d’autres en sont revenus. À bon entendeur …
Selon Hootsuite, le Top 3 des pays avec le meilleur taux d’accès à l’Internet en 2017 sont : les Émirats arabes unis (99 %), l’Islande (98 %), la Norvège (97 %). Et, toujours selon le site, 50 % du trafic web dans le monde entier est réalisé sur mobile, 45% sur desktop et 5% sur tablette.
Selon Statista, le Top 5 des pays avec la vitesse de connexion Internet la plus élevée dans le monde est : la Corée du sud – 26.3, la Chine (Hong Kong) – 20.1, la Norvège – 20, la Suède – 19.7 et la Suisse – 18.4.
En enfin, selon Internet World Stats, le Top 5 des langues utilisés sur Internet sont l’anglais (948.6 M utilisateurs), le chinois (751.9 M), l’espagnol (277.1 M), l’arabe (168.4 M) et le portugais (154.5 M).
Ha, une petite dernière pour la route, saviez-vous que le site web le plus traduit au monde (780 langues et dialectes) est celui des Témoins de Jéhovah (jw.org), suivi par Wikipédia (287 langues). (Pangeanic)
De nombreuses entreprises investissent massivement pour réussir sur Google. De nos jours, être visible est une nécessité incontournable ! Souvent, les publicités Adwords sont choisies car elles permettent un positionnement favorable quasi instantané, mais temporaire. Le seul problème, c’est qu’une fois la campagne terminée, le site retrouve sa position initiale dans les résultats de recherche de Google.
Cela dit, qu’en est-il de votre vrai référencement, celui qu’on appelle « organique » ? Google Analytics vous donne parfois quelques indications sur les mots-clés utilisés par vos visiteurs pour accéder à votre site web, mais ces informations restent limitées, et le fameux « not provided » peut être très frustrant !
Finalement, vous savez que votre site « répond » à certains mots-clés, mais dans l’absolu, quelle est sa véritable position dans les résultats de recherche ? Vous ne pouvez pas toujours vous fier à votre navigateur à cause de sa « cache ». Faites l’exercice ! Prenez un mot-clé pour lequel votre site apparaît en première ou deuxième page, et essayez de le chercher avec Google Chrome, puis avec Internet Explorer. Vous constaterez probablement des différences notables dans les résultats. C’est normal, car votre navigateur s’adapte à vos habitudes de recherche. Si vous utilisez souvent certains mots-clés et cliquez régulièrement sur les mêmes liens, il les présentera en priorité. En réalité, vous n’avez donc pas une vision claire de la manière dont votre site est listé pour un utilisateur lambda. Je veux savoir…
Connaissez-vous vraiment les principaux mots-clés, disons le Top 10, qui interagissent avec votre site et pour lesquels il apparaît dans les résultats de recherche ? C’est ce que j’appelle la “photo” positive de votre référencement. Vous pensez probablement que oui, car ils doivent être liés à vos produits ou services. Pourtant, le résultat pourrait vous surprendre ! Votre site peut être mal référencé ou mal catégorisé, ce qui fait que Google le liste pour des requêtes qui n’ont rien à voir avec ce que vous vendez. Cela peut être troublant, mais c’est une situation que j’ai rencontrée de nombreuses fois avec mes clients. Je veux savoir…
Preuve à l’appui : des mots-clés pour lesquels votre site est classé par Google sans contexte pertinent avec votre niche de marché.
Et il y a plus encore… Si nous pouvons faire cet exercice pour votre site, nous pouvons également le faire pour ceux de vos concurrents. Et rien ne vaut un exemple concret. Cette demande est fréquente, car elle permet, en plus d’une stratégie SEO efficace, de gagner du référencement indirect. Qu’est-ce que cela signifie ? Normalement, lorsque vous travaillez sur la stratégie SEO de votre site, vous vous concentrez sur des mots-clés liés à votre marché, vos produits ou services. Vous combinez vos mots-clés avec ceux générant un certain volume de recherche, via des outils comme Google Keywords Planner. De cette façon, vous assurez votre présence dans les principaux courants de recherche.
À cela, vous ajoutez une contextualisation stratégique de votre offre à travers des articles ou des pages spécifiques qui expliquent concrètement comment et dans quelles situations vos produits ou services s’appliquent. Cette étape est essentielle car elle lie vos mots-clés spécifiques à des termes plus génériques.
Je sens que je vous ai peut-être un peu perdu, alors laissez-moi clarifier…
Les mots-clés permettent à votre site de répondre à une requête sur un moteur de recherche. Nous avons souvent tendance à utiliser des termes très spécifiques, liés à notre offre, sans penser que ce jargon n’est pas toujours connu de tous. En revanche, quand un utilisateur fait une recherche sur Google, il utilise souvent des termes familiers pour décrire une problématique ou une situation, en espérant obtenir des réponses appropriées.
Il est rare que l’on nomme directement la solution à notre problème, sauf si on sait déjà ce que l’on veut.
Si vous vous limitez à des mots-clés techniques ou spécifiques à votre domaine, vous risquez de passer à côté de ceux qui ne savent pas encore que votre produit ou service répond à leur besoin. C’est la même chose pour les termes comme « expert, professionnel, le meilleur » qui, bien que souvent utilisés, peuvent parfois nuire à la visibilité des mots-clés qui définissent réellement votre expertise. Enfin, sachez qu’il ne suffit pas de répéter que vous êtes “le meilleur” pour que cela impacte votre référencement.
Revenons à l’exemple… Une fois que vous avez passé ces étapes, il en reste une que je trouve particulièrement efficace : analyser ce qui se passe chez vos concurrents. Lors d’un de mes récents contrats, un client réalisait que son marché était très compétitif, avec peu d’opportunités de se démarquer rapidement en SEO. Adwords n’était pas non plus une option à cause du coût élevé des mots-clés, mais il avait pour mission de produire de nombreux articles liés à ses services.
Et c’est là que cela devient intéressant…
Pourquoi réinventer la roue ? Suivez les tendances, allez vers ce qui fonctionne. Faire des recherches précises avec Google Keywords Planner peut être difficile. Alors, allons voir quels sujets génèrent du trafic chez vos concurrents. Nous identifions les mots-clés tapés par les internautes, ceux qui permettent à vos concurrents d’apparaître dans les résultats de recherche. Ces mots-clés sont souvent des sujets connexes à votre niche, dépendant d’un contexte ou d’une géolocalisation, mais qui génèrent du trafic. De plus, nous pouvons évaluer la compétition autour de ces mots-clés.
Vous obtenez ainsi des mots-clés connexes à votre marché, que vous n’auriez jamais envisagés, qui génèrent du trafic et sont parfois peu concurrentiels. Vous pouvez alors les utiliser dans un article sur votre site pour capter un référencement indirect. En effet, les utilisateurs emploient des mots-clés familiers pour leurs recherches, et les intégrer à votre stratégie SEO complémentaire pourrait attirer du trafic supplémentaire et améliorer votre position dans les résultats de recherche de Google.
Quel est l’avantage ? Ces visiteurs découvriront votre article et, potentiellement, le reste de votre site. Cela pourra générer du trafic supplémentaire et du partage sur les réseaux sociaux. Je veux savoir…
Le choix est simple.
Vous pouvez vous limiter aux mots-clés génériques/specifics fournis par les outils standards et attendre que votre site grimpe dans la liste des résultats Google. Ou bien, vous combinez cette stratégie avec du référencement indirect pour générer un autre type de trafic, et ainsi améliorer votre positionnement global grâce à un afflux accru de trafic naturel.
Si vous êtes intéressé par ces solutions, n’hésitez pas à me contacter à [email protected]