2014
14/Oct

Google Panda (algorithme)

Définition

Google Panda est un algorithme influant sur le classement des sites web dans les pages de résultats du moteur de recherche Google. A ce titre, il peut être considéré comme un filtre. Son objectif est de pénaliser les sites dont le contenu est jugé de mauvaise qualité (low-quality sites) ou dont le contenu est pauvre (thin sites).

Google Panda veille

Google Panda veille… © sapto7 – Fotolia.com

Chronologie

Le filtre Google Panda a été introduit en Février 2011, puis généralisé à partir d’Avril de la même année sur les sites anglophones. Il arrive en France le 11 août 2011. En Septembre 2014, la 27ème version du filtre a été déployée aux États-Unis (il s’agit de la version 4.1).

Google Panda : une étape de la lutte contre le spam

Panda est une réponse de Google à de nombreuses dérives apparues au cours des années 2000 dans le domaine du référencement naturel. De nombreux « spécialistes SEO » cherchaient à influencer le classement des pages de résultats (ranking) en utilisant des techniques assimilées à du spam : scraping, plagiat, rédaction automatisée ou textes sur-optimisés pour les moteurs de recherche.L’objectif des sites « spammy » (c’est-à-dire utilisant le spam pour ranker) était de générer un maximum de trafic dans le seul but de produire des revenus publicitaires. Google Panda s’attache donc à identifier ces sites et à les déclasser.

Comment Panda évalue-t-il la qualité des sites ?

Personne n’est dans le secret des algorithmes de Google, mais on peut raisonnablement penser que Google s’appuie sur des techniques assimilables à de l’analyse sémantique latente pour juger de la qualité des contenus. L’emploi de ces technologies a marqué un tournant dans le monde du référencement : on parle désormais de « marketing de contenu » pour créer des sites performants en référencement naturel. Les façons de faire d’autrefois, qui consistaient à « bricoler », pour leurrer les moteurs de recherche, tendent à disparaitre puisque devenues bien souvent inefficaces, voire contre-productives.Google a donc atteint son but avec Panda : inciter les webmasters à créer des contenus de qualité pour les êtres humains, même si, bien sûr, cet algorithme a des failles, qui sont comblées régulièrement lors de ses mises à jour.

Qu’est-ce qu’un site pauvre ou de mauvaise qualité ?

Google énonce en 23 points les critères permettant de déterminer si un site est jugé pauvre ou de mauvaise qualité.Parmi eux, on trouve des critères objectifs. Par exemple :Le site comporte-t-il des articles dupliqués ou redondants sur un sujet similaire avec de faibles variations dans les mots-clefs utilisés ?Il s’agit d’un grand classique du spam SEO. Le principe : on rédige une page bien faite, optimisée pour un mot-clef. Comme on souhaite aussi être présent sur tous les synonymes de ce mot, on reprend l’article en remplaçant le mot-clef initial par ces synonymes.Notons d’ailleurs que cette technique est de toutes les façons obsolète avec l’avènement de l’analyse sémantique latente.Cet article comporte-t-il des fautes d’orthographe, stylistiques ou factuelles ? Traduction : les sites sont-ils rédigés par des êtres humains qui ont été à l’école ? Panda va ici effectuer la correction de votre copie, à la manière d’une maîtresse d’école. Vous étiez bon en dictée et en rédaction ? Tant mieux, vous avez donc un avenir dans le web. Sinon, faites un effort.Les articles fournissent-ils des informations originales, des rapports originaux, une analyse originale ou des recherches originales ?On cherche ici à favoriser les sites qui ne se contentent pas de produire du contenu, même retravaillé manuellement, à partir d’un ensemble de sources existantes, mais bien ceux qui sont réalisés par les créateurs de contenus originaux.Dans quelle mesure et à quelle fréquence un contrôle de la qualité est-elle effectuée sur le site ?Ce critère est un peu mystérieux. On peut penser que Panda va ici s’intéresser à la fréquence de mise à jour des articles et à la nature de ces mises jour. Une mise à jour qui corrige une faute d’orthographe peut ainsi être considérée comme un signe d’un contrôle de qualité.D’autres critères sont plus subjectifs, et leur mise en œuvre est laissée à l’appréciation des webmaters. Citons par exemple :

  • Croiriez-vous les informations présentées dans cet article ?
  • Cet article est-il réellement écrit par un expert ou un passionné ? (ndlr : cf l’épisode de l’authorship)
  • Donneriez-vous vos informations de carte bleue à ce site ?

Pour aller plus loin, nous vous invitons à découvrir notre agence SEO et à télécharger notre livre blanc « Placez le Search Engine Marketing au cœur de votre Stratégie d’Acquisition »

Gabriel Dabi-Schwebel

Posté par

Ingénieur de formation j’ai commencé ma carrière dans le conseil en télécom et en média. J’ai aus

Gabriel Dabi-Schwebel

Contact SEO :

Gabriel Dabi-Schwebel

gds@1min30.com
06 73 55 17 36





Commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.

Dépassez les objectifs de votre investissement HubSpot !
Rejoignez notre communauté et donnez-vous les moyens de réussir