Ce qu'il faut pour optimiser la visibilité de la recherche organique de votre marque
Publié: 2015-01-13Quand le SEO est-il devenu si compliqué ?
Il semble que ce n'est qu'hier qu'une toute nouvelle entreprise pouvait lancer un site, intégrer des mots-clés en gras et en italique dans chaque page, proposer quelques articles à l'emporte-pièce sur des plateformes de blog gratuites pour des backlinks instantanés et regarder le trafic de recherche organique commencer à arriver À l'époque où le référencement était aussi simple, le propriétaire moyen d'un site pouvait lire quatre heures d'articles de blog sur le sujet et se sentir raisonnablement équipé pour faire lui-même un travail décent. En conséquence, l'avantage qu'elle pouvait s'attendre à retirer de confier son référencement à une agence ou à un consultant professionnel relevait davantage d'une différence de degré que d'une sorte.
Ensuite, nous avons commencé à entendre parler d'un tas de nouvelles mises à jour d'algorithmes Google nommées d'après des animaux qui rendaient ces anciennes tactiques inefficaces. À peu près à la même époque, nous avons également commencé à entendre parler de Schema.org et des extraits enrichis, du Knowledge Graph, de la "recherche sémantique" et de la "recherche d'entités", de l'impact SEO du marketing des médias sociaux et de la façon dont le contenu était roi... soudainement , et apparemment tout d'un coup, le référencement n'était plus simple du tout.
Quel tableau d'ensemble est dessiné par la convergence de tous ces petits changements ? Essentiellement, c'est ceci : le référencement est devenu plus compliqué – et, franchement, plus difficile – parce qu'il a été forcé de devenir une entreprise plus honnête. Faire ce qui est bien est toujours plus difficile que faire ce qui est facile.
À partir de 2011 et jusqu'à aujourd'hui, Google a considérablement renforcé ses directives de qualité pour le contenu du site et les backlinks, mené des sondages humains pour améliorer sa compréhension de ce qui distingue une bonne page Web d'une mauvaise, enrichi l'apparence et la substance de son pages de résultats de recherche, et investi massivement dans la conservation d'une base de données massive et toujours croissante appelée Knowledge Vault qui a considérablement augmenté la puissance de son algorithme pour comprendre le sens. En travaillant sur tous ces axes de recherche à la fois, ils ont non seulement forcé l'ensemble de la pratique du référencement à se conformer à des attentes plus récentes et plus élevées - claquant ainsi la porte aux astuces traditionnelles du métier - mais ont également considérablement élargi la gamme de stratégies et tactiques qui composent la pratique du SEO, ce qui, pour continuer la métaphore, revient à ouvrir des fenêtres.
Le résultat pour les chercheurs de toutes ces rénovations de Google était évident ; vous avez probablement remarqué à cette époque que l'expérience de recherche s'améliorait dans tous les domaines. Les pages indésirables ont commencé à être déclassées, les raffinements des requêtes ont commencé à avoir moins d'importance, plus d'informations de valeur ont commencé à apparaître directement sur votre page de résultats de recherche et vous ont fait économiser un clic… en bref, vous avez commencé à obtenir de meilleures réponses à vos questions et à les obtenir plus rapidement.
Mais le résultat pour les propriétaires de sites est qu'un bon référencement est sans doute aujourd'hui un travail plus important et plus compliqué que jamais. À ce stade, le référencement comprend tellement de tâches (dont un grand pourcentage doit être effectué de manière continue) que l'embauche d'un professionnel peut sembler être le seul moyen d'être sûr que vous suivez même tout ce qui est exigé de vous. , sans parler de tout exécuter avec succès. La seule stratégie vraiment infaillible est maintenant la stratégie complète, celle où vous avancez simultanément sur toutes les avenues imaginables. Mais avec des avenues aussi nombreuses et Google redessinant encore la carte plusieurs fois par an, par où commencer ?
Permettez-moi de commencer par plaider, en toute transparence, en faveur de l'embauche d'un professionnel. Je révèle joyeusement que je suis l'un de ces professionnels du référencement, et je dis "joyeusement" parce que je pense que ce truc est bien et que le référencement est des mondes plus intéressants dans le paysage de recherche actuel qu'il ne l'a jamais été auparavant. Auparavant, nous avions l'impression d'essayer simplement de tromper une machine qui était manifestement plus stupide que nous. Maintenant, on a l'impression d'avoir des échanges honnêtes et francs avec une machine dont l'intelligence (au moins en termes pratiques et axés sur les tâches) rattrape rapidement la nôtre, et nous l'enseignons et en apprenons au fur et à mesure. . Mais conformément à ce qui précède, il y a tellement de choses à faire pour un bon référencement ces jours-ci que déléguer quelqu'un pour le faire - ou du moins une partie de celui-ci - à plus ou moins plein temps est, à mon avis, le meilleur marche à suivre.
Mais disons que vous n'avez pas le budget pour embaucher une agence ou un consultant à temps plein, ou que vous ne voulez pas autoriser l'accès aux données de votre site à quiconque au-delà de vos murs, ou que l'esprit de bricolage est profondément ancré en vous et que vous vous sentez juste comme le faire soi-même et apprendre quelque chose au fur et à mesure. Que faut-il exactement de nos jours pour optimiser votre marque pour la recherche organique ? Décomposons-le en écrous et boulons.
Les facteurs sur la page
Une liste de considérations SEO sur la page va naturellement commencer par l'optimisation du contenu, ce qui en soi n'est pas si difficile. Il a l'avantage supplémentaire de relever entièrement de la compétence d'un écrivain, ce qui signifie que vous pourriez faire la plupart du travail vous-même et n'auriez pas besoin de consulter votre développeur Web jusqu'au moment de le mettre en ligne.
En un mot, l'optimisation du contenu concerne principalement la façon dont vous recherchez, sélectionnez et placez finalement vos mots clés. L'essence de cette tâche consiste à déterminer les requêtes de recherche potentielles qui correspondent le mieux à votre public cible et à convaincre Google de la pertinence de votre site par rapport à ces mots clés, page par page. Consultez cet eBook utile pour un aperçu tactique complet des meilleures pratiques d'optimisation de contenu.
Les facteurs restants sur la page (ou, plus largement, « sur site ») sont tous beaucoup plus scientifiques que artistiques, et beaucoup nécessitent des connaissances spécialisées. Ce sont les tâches qui composent ce que l'on appelle généralement le «référencement technique». Passons en revue quelques-uns des plus significatifs.
Contenu dupliqué
Le premier objectif de tout programme de référencement technique consiste à sécuriser les pages de votre site contre le risque de duplication sur votre site Web. Le danger de la duplication de pages est simple : si une page de votre site est accessible à plus d'une URL, alors les différentes URL circuleront sur le web indépendamment et acquerront des liens indépendamment. Cela produit deux résultats négatifs. Tout d'abord, l'équité du lien que la page acquiert sera répartie entre les différentes URL auxquelles elle est accessible, ce qui signifie que la page ne pourra pas obtenir un crédit complet dans la recherche de sa valeur. Deuxièmement, chacune de ses multiples URL sera indexée par les moteurs de recherche individuellement, ce qui signifie que la même page sera forcée de se faire concurrence pour les classements sur les mêmes requêtes de recherche.
Scénario : la même page (page A) existe sur trois URL différentes
- La page A a reçu 100 liens provenant de pages externes uniques et de haute qualité, mais ces 100 liens ont été répartis entre les trois versions (notez à quel point les changements sont minimes… une barre oblique, une lettre majuscule… des erreurs faciles à faire)
- La page B existe sur une seule URL et a reçu 60 liens provenant de pages externes uniques et de haute qualité
Les moteurs de recherche considèrent la page B comme ayant le profil de lien supérieur.

Vous pouvez mieux vous protéger contre la duplication accidentelle en écrivant des instructions dans votre fichier .htaccess forçant toutes les URL à se résoudre dans un seul format (par exemple, toutes en minuscules, et toutes avec ou sans barre oblique finale, et toutes avec ou sans le préfixe WWW), et en vous assurant que vous n'avez pas laissé votre site de développement rester en ligne dans votre environnement intermédiaire après son lancement. De plus, si votre site dessert plus d'un pays et/ou propose du contenu dans plusieurs langues, une catégorie supplémentaire de considérations SEO multilingues/multirégionales entre en jeu, ce qui influencera la manière dont vous choisissez de structurer vos URL et exigera également que vous utilisez des balises "hreflang" pour aider Google à comprendre quand deux pages sont des traductions adaptées à la région l'une de l'autre plutôt que des doublons.
Accessibilité des moteurs de recherche
Certaines fonctionnalités d'un site Web ne servent à rien en dehors du cadre du référencement, mais elles sont essentielles pour fournir aux robots des moteurs de recherche un moyen de s'orienter, ainsi que des instructions concernant la valeur de chaque page pour l'audience de recherche organique. À vrai dire, une liste de toutes ces fonctionnalités actuellement connues serait très longue, mais les deux plus critiques sont :
- un sitemap XML dynamique - une liste codée XML propre et précise de chaque URL sur le domaine, contenant les horodatages de la mise à jour la plus récente de chaque page et un score de "priorité" désigné par le webmaster indiquant l'importance relative de cette page pour le site, et
- un fichier robots.txt - un simple fichier texte qui, s'il est correctement formaté, spécifie les pages interdites aux robots des moteurs de recherche (pages d'administration ou pages derrière le paywall, généralement), et indique également l'emplacement du sitemap XML.
À tout le moins, vous voudrez vous assurer que votre site est armé de ces deux documents. De plus, si l'accès administrateur au site est partagé par un grand nombre de personnes différentes, alors une partie de votre travail, en tant que webmaster et responsable SEO du site, sera de vérifier périodiquement le bon fonctionnement de ces fichiers, pour être certain que personne d'autre n'y a accidentellement apporté des modifications susceptibles de perturber la visibilité de recherche du site.

Vitesse des pages
Ma note ci-dessus concernant le sondage humain effectué par Google a sa conséquence la plus directe et la plus spécifique dans le domaine de la vitesse des pages. Cela fait déjà près de cinq ans que Google est devenu tellement convaincu de la valeur d'une page rapide pour une expérience utilisateur positive qu'il a non seulement fait de la vitesse de la page un facteur de classement, mais l'a annoncé publiquement. Google nomme si rarement explicitement un facteur de classement que nous, dans la communauté SEO, n'avons d'autre choix que d'écouter avec la plus grande attention quand ils le font. Ne vous y trompez pas : vous devez maximiser la vitesse de chargement de votre page dans l'intérêt de la visibilité de votre recherche organique.
Empreinte de code
Non seulement cela confère un avantage SEO pour que vos pages se chargent rapidement pour vos utilisateurs, mais cela confère également l'avantage de garder votre empreinte de code aussi petite que possible d'une page à l'autre, pour le bien des robots. Les robots d'exploration recherchent le contenu sémantique lorsqu'ils analysent vos pages, et plus le rapport entre le contenu et le balisage est faible sur une page donnée, moins ils sont susceptibles de considérer la page comme substantielle. Gardez le code aussi fin que possible en minimisant le style en ligne et en gardant autant que possible votre CSS et votre JavaScript externes à la page, et si jamais vous sentez que vous devez utiliser ces éléments intégrés, différez leur chargement ou poussez-les à se charger de manière asynchrone dans la mesure du possible, afin qu'ils ne s'interposent pas entre un robot d'exploration et le contenu réel de la page. Ces choix d'allègement du code présentent souvent l'avantage supplémentaire d'augmenter également la vitesse de chargement des pages.
Ce n'est vraiment que la pointe de l'iceberg SEO sur la page, et ce n'est même pas la partie effrayante. La partie effrayante est que le référencement sur la page n'est plus que jamais le type de référencement le plus important. Cela ne veut pas dire qu'il n'est pas indispensable - vous ne faites tout simplement pas le référencement correctement si vous ne maximisez pas la capacité de votre site à exploiter l'autorité qu'il a gagnée et à l'appliquer aux mots-clés qu'il a choisis pour orienter son contenu. - mais qu'en est-il du travail nécessaire pour gagner cette autorité en premier lieu ? C'est le domaine du référencement hors page, dans lequel il est beaucoup plus difficile d'effectuer des changements, pour toutes les raisons suivantes :
- cela dépend de choses hors de votre contrôle direct (plus particulièrement, les actions d'autres sites) ;
- les facteurs qui le composent croissent en nombre et en diversité tout le temps, et ne semblent jamais diminuer ;
- cela n'est jamais « fait » et exige une constance dans les efforts de surveillance, de diffusion et de production de nouveaux contenus ;
- la production créative qu'elle exige signifie que pour le faire correctement, l'équipe de référencement d'une entreprise doit être rejointe à la hanche avec ses équipes de marketing produit, de conception, de publicité et de relations publiques, au minimum.
Les facteurs hors page
Les activités individuelles qui pourraient être considérées comme relevant du référencement hors page sont trop nombreuses pour avoir jamais l'espoir d'être répertoriées, donc ce que je vais faire à la place est de décrire l'objectif général du référencement hors page aussi complètement que je peut. Cet objectif peut être exprimé en une seule phrase :
Renforcement de l'autorité
Non, pas de "création de liens". Ce terme trahit une vision dépassée du référencement, d'une époque où l'évaluation par les moteurs de recherche de la qualité d'une page Web dépendait entièrement du nombre de backlinks qu'elle avait gagnés. Aujourd'hui, les moteurs de recherche sont non seulement plus stricts que jamais sur la qualité des liens, mais ils tiennent également compte d'une série de facteurs extérieurs au graphique des liens pour évaluer la valeur d'une page donnée (ou sa fiabilité, ou « son autorité »). Votre travail consiste à suivre ces facteurs et à les exécuter : tous, tout le temps.
Les moteurs de recherche avaient une bonne raison d'accorder un tel poids aux backlinks, comme ils l'ont fait depuis l'aube de l'algorithme PageRank jusqu'à très récemment : parce que pendant tout ce temps, il n'y avait rien d'autre sur quoi continuer. Jusqu'au début des années 2000 environ, si vous aimiez vraiment une page Web et que vous vouliez en parler aux gens sur le Web lui-même, votre seule ligne de conduite était de mentionner la page sur votre site Web et de créer un lien vers celle-ci. Si vous n'aviez pas de site Web, vous pouviez soit décider qu'il valait la peine d'en créer un juste pour informer les gens de cette page que vous avez aimée, soit vous pouvez simplement décider d'en parler aux gens par le biais d'un mot à l'ancienne. bouche, ce que 99% des gens faisaient à l'époque. Ensuite, une profusion de nouvelles plates-formes de blogs simples et conviviales au début des années 2000 a considérablement réduit la barrière à l'entrée du Web, démocratisant ainsi la conversation sur la qualité du site.
Mais une autre révolution, plus importante, a suivi celle-ci quelques années plus tard : l'essor des réseaux sociaux. C'est ainsi que les gens expriment désormais un sentiment positif pour une page Web : en passant une demi-seconde à lancer un lien vers celle-ci sur Twitter, ou en lui donnant un "J'aime" sur Facebook, ou (certes, plus rarement) un +1 sur Google+. Les algorithmes des moteurs de recherche ont suivi ces changements, et cela a commencé à apparaître notamment au moment du lancement de Google+ à l'été 2011, lorsqu'il est devenu clair que les +1 sur Google+ conduisaient directement à une plus grande visibilité dans la recherche personnalisée. Certaines voix de la communauté SEO ont supposé que le véritable objectif de Google+, depuis le début, était peut-être de collecter une vaste mine de données personnelles pouvant être utilisées pour améliorer les résultats de recherche.
Peu de temps après, l'algorithme Google Penguin d'avril 2012 (l'un de ceux sur le thème des animaux auxquels j'ai fait allusion auparavant) est arrivé, avec pour résultat qu'une partie positivement énorme des liens sur le Web a été dévaluée du jour au lendemain, et les sites qui avaient été du côté destination de ces liens ont été déclassés, souvent sévèrement. Il s'agissait d'un effort proactif de la part de Google : ils ont décidé de faire la guerre aux fermes de liens, aux systèmes d'échange de liens et à tous les autres moyens trop faciles d'obtenir des backlinks qui permettaient aux sites de mauvaise qualité d'acheter leur chemin vers le haut de la recherche. pages de résultats. Ainsi, tout à coup, tous les liens n'ont pas été créés égaux. Google était soudainement meilleur que jamais pour distinguer un bon lien d'un mauvais et récompensait activement le premier tout en punissant le second. La qualité des liens a commencé à compter autant que la quantité.
En conséquence, là où nous avions l'habitude d'avoir une tâche simple appelée "link-building" - essayer d'obtenir autant de liens que possible pour pointer vers votre page, par crochet ou par escroc - nous avons maintenant "authority-building", une liste à multiples facettes de des tâches qui convergent pour inspirer confiance, de la part des utilisateurs et par extension des moteurs de recherche, dans la capacité de votre page à parler avec autorité sur le sujet de son choix. Ce que cela exige maintenant des professionnels du référencement, c'est que nous ne travaillions pas pour construire, mais pour attirer des liens entrants de haute qualité et des recommandations de médias sociaux.
Et mon oh mon Dieu, ce n'est pas tout. Le travail de renforcement de l'autorité commence par l'attraction de liens, mais comprend également :
- la sécurisation des opportunités de publication de contenu pertinent et substantiel sur des sites tiers appréciés (« publication d'invités ») ;
- surveiller vos médias gagnés pour maximiser le buzz en ligne que vous pouvez en tirer (y compris en y ajoutant des liens grâce à une sensibilisation honnête);
- créer des communautés en ligne actives et fidèles où votre marque est ouvertement discutée dans un contexte d'actualité plus large par de vrais êtres humains.
Ces tâches sont vraiment sans fin : lorsque vous n'êtes pas activement engagé dans l'une d'entre elles, vous poursuivez les pistes qui donneront lieu à la suivante. Cela semble être un travail à temps plein en soi. Considérer ces mesures de renforcement de l'autorité en plus du travail sur la page énuméré ci-dessus brosse un tableau du référencement comme une ligne de travail terriblement complexe, rapide et ardue, ce qui est exactement la façon dont je le vois. Si vous voulez prendre en main le référencement de votre site, vous devez être conscient de l'ampleur de ce que le référencement complet exige d'une marque dans le paysage actuel et être prêt à établir des priorités en fonction des limites de votre temps. Alternativement, l'embauche d'une agence ou d'un consultant professionnel vous assurera d'avoir un expert (et probablement un passionné) dédié à la cause de votre visibilité de recherche organique à plein temps.
