2017
27/Fév

Les algorithmes de Google pour les nuls

Vu de l’extérieur et si on écoute tout ce qui se dit sur le référencement naturel ou SEO, les algorithmes de Google peuvent sembler très complexes. Ils le sont à n’en pas douter et représentent plusieurs millions de lignes de code. Ils font aussi partie des secrets les mieux gardés sur terre. Néanmoins, leurs principes généraux sont assez simples, et pour bien référencer son site Internet, il suffit de comprendre ces principes généraux sans se fourvoyer dans une expertise inutile. Voici, les 3 principes des algorithmes de Google expliqués pour les nuls.

1. Comprendre le sens d’une page et la qualité de son contenu

La première chose que Google fait quand il crawle le web et découvre une nouvelle page ou des modifications sur une page, c’est d’essayer de comprendre de quoi elle parle. A quelle question elle répond.

Il analyse le contenu sémantique de la page, la longueur du texte mais aussi les informations de mise en page associées : titre, sous-titre, texte en gras, intro, description, etc. pour essayer d’en extraire le sens et apprécier la qualité de la réponse.

Au fil du temps son analyse s’affine et il comprend de mieux en mieux ce que veut dire la page. Je parle bien d’une page et non d’un bout de page. Les analyses de Google sont page par page, et il s’agit donc de n’aborder qu’une question à la fois.

Ainsi, effectivement pour bien référencer une page, il faut d’abord décider à quelle question elle doit répondre et pas seulement sur quel mot clé elle doit être trouvée. C’est plus la question que le mot clé qui compte, quitte à utiliser 2 mots clés différents sur la même page dans le cas de synonymes. Ainsi, en prenant cet article pour exemple, la question à laquelle je souhaite répondre est bien “Comment fonctionnent les algorithmes de Google” qui pourra, si cet article se référence bien, ressortir sur les mots clés :

  • algorithme Google
  • fonctionnement algorithme Google
  • Google pour les nuls
  • comprendre algorithme Google
  • etc.

Au-delà de ce premier travail consistant à deviner la question (qui pourra être fait dans le cadre d’un atelier éditorial Inbound Marketing), il faudra rédiger la meilleure réponse possible à la question choisie. Une réponse complète, contextualisée, permettant de traiter intégralement le sujet sans se satisfaire d’une réponse par oui ou non.

2. Classer les pages de qualité en fonction de l’autorité de la source

Une fois que Google a identifié le sens de la page et la qualité de son contenu, il doit définir où présenter cette page dans les résultats de recherche par rapport à toutes les autres pages traitant du même sujet avec une réponse de qualité. Pour cela, il analyse l’autorité de la source. A savoir sa légitimité quant au sujet en question.

A titre d’exemple, un article de bonne qualité rédigé par la NASA sur l’espace précédera toujours un article traitant du même sujet rédigé par un autre auteur. Tout simplement parce que, sur le sujet de l’espace, la NASA est incontestablement la source la plus reconnue. A contrario, sur un sujet comme le marketing en France, 1min30 aurait un peu plus de chances de passer devant la NASA parce que, même si nous sommes beaucoup moins mondialement connus que la NASA, nous sommes un peu plus légitimes sur le sujet.

Comment Google évalue cette légitimité ? Au début de l’histoire de Google, ce qui a fait sa fortune a été l’idée de faire cette évaluation automatiquement en comptabilisant les chances pour un surfeur qui suit aléatoirement les liens sur une page de se retrouver sur une page après un certain nombre de clics. En somme, plus il y avait de liens vers une page, plus il y avait de chances que cette page soit pertinente, donc plus elle était classée en tête des résultats. Cette idée s’inspirait du milieu scientifique dans lequel plus un article est pertinent plus il est cité par les autres articles en tant que référence sur le sujet.

Il faut savoir qu’à la même époque, Yahoo classait les articles avec des équipes qui lisaient les articles, les catégorisaient par thématique et évaluaient manuellement leur pertinence. Ce qui était naturellement peu adapté et pas assez exhaustif par rapport à la croissance exponentielle d’Internet.

Aujourd’hui, Google a beaucoup complété ses algorithmes d’évaluation de l’autorité en prenant en compte de multiples facteurs en plus des liens comme le temps que les Internautes passent sur vos pages, les partages issus des réseaux sociaux, la notoriété de la marque ou de l’auteur de l’article, etc.

Pour être bien classé, il faut donc faire en sorte que l’on parle de vous. Que vos articles et contenus soient repris et échangés. Que d’autres sites ou auteurs référents dans votre domaine fassent des liens vers votre site, vos contenus. Que vous soyez directement cherché dans le moteur de recherche Google en étant associé à des expressions ou des mots clés, etc.

Il faut donc faire du marketing (de l’Inbound Marketing même), c’est-à-dire faire la promotion de votre marque, de vos offres et de vos contenus. Tout simplement. A ce titre, je vous invite à redécouvrir notre infographie animée sur le PESO model qui illustre toutes les composantes mix marketing web permettant de construire son autorité.

3. Pénaliser les petits malins qui souhaiteraient tromper Google et ses algorithmes

Facile à dire, mais il a longtemps été plus efficace et rapide de chercher à tromper Google en faisant du référencement sauvage (ou black hat).

Concernant la partie compréhension, il suffisait d’utiliser plusieurs fois les mots clés visés dans une page et dans les balises de description avec un beau taux de répétition, pour être envisagé comme une page pertinente sur le sujet.

Il suffisait aussi de multiplier les liens entrants pour être considérés comme une source d’autorité et remonter dans les résultats de Google.

Ainsi de nombreux référenceurs, que je respecte, ont gagné beaucoup d’argent en déjouant les algorithmes de Google et en faisant monter leur page ou les pages de leur client aux premières positions de Google sur des mots clés générateurs de trafic et de revenus. Certains paient aujourd’hui l’impôt sur la fortune et n’ont plus beaucoup de soucis à se faire.

Pour Google, ces référenceurs constituaient néanmoins une menace :

  • Menace sur la qualité des résultats de recherche. Les sites bien référencés de mauvaise qualité pouvant être perçus par les internautes comme du spam.
  • Menace aussi sur sa source principale de revenus à savoir “les mots clés sponsorisés” car il était plus rentable pour un annonceur de payer un référenceur que Google pour être premier.

Pour contrer cette menace, Google a mis en action une famille d’algorithmes dont la fonction principale n’était plus de comprendre une page ou de mesurer l’autorité de sa source, mais de pénaliser les sites sur-optimisés ayant soit trop de mots clés, des pages qui ne veulent rien dire, trop de liens entrants, des durées de visite trop courtes, etc. Parmi ces algorithmes, deux sont devenus célébres aux doux noms d’animaux:

  • Panda pour contrer la sur-optimisation des contenus,
  • Pingouin pour contrer la sur-optimisation des liens entrants.

Depuis leur présence, le travail des référenceurs est de plus en plus difficile et se rapproche de plus en plus d’un vrai travail de marketing ou d’Inbound Marketing. Voir à ce sujet un article que j’avais écrit en 2013, le SEO est mort, vive l’Inbound Marketing.

 

Si cet article vous a plu, nous vous invitons à découvrir notre agence SEO et à télécharger notre livre blanc « Placez le Search Engine Marketing au cœur de votre Stratégie d’Acquisition »

Gabriel Dabi-Schwebel

Posté par

Ingénieur de formation j’ai commencé ma carrière dans le conseil en télécom et en média. J’ai aus

Gabriel Dabi-Schwebel

Contact SEO :

Gabriel Dabi-Schwebel

gds@1min30.com
06 73 55 17 36





Commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.

Dépassez les objectifs de votre investissement HubSpot !
Rejoignez notre communauté et donnez-vous les moyens de réussir