24 juillet 2012

Google Penguin : l'empereur est en marche et pénalise les site sur-optimisés

À travers son nouvel algorithme de contrôle et d’évaluation...nom de code “Penguin”...Google vise à sanctionner les pratiques de sur-optimisation des sites web pour son moteur de recherche.


“Qui veut voyager loin ménage sa monture”. Voilà un alexandrin auquel Google semblerait être de plus en plus attaché eu égard à la mise à jour de son sacro-saint algorithme, développé entre autres pour lutter contre l’utilisation massive et abusive de mots clés dans une page web. En effet, Google Penguin parcourt l’immensité de l’index depuis sa sortie le 24 avril dernier, et tend à infliger de sérieuses pénalités aux sites Internet conçus dans une logique de spamdexing (technique d’optimisation du référencement irrespectueuse des consignes d’usage des moteurs de recherche).        

En bon relayeur de la version Panda, pour qui le contenu dupliqué de pages en pages était l’un des éléments principaux à combattre, Google Penguin semble agir selon de nouveaux critères d’appréciation. L’une des nouveautés réside dans le fait que le manchot serait capable d’évaluer et de dévaluer une page unique, sans s’attaquer automatiquement au site dans son intégralité. Ainsi, si l’une des pages d’un site fait fi des codes de bonne conduite imposés, elle pourra être sanctionnée par le moteur sans pour autant entraîner la dégradation de tout le site. D’autre part, ce Penguin de Google tend à montrer des dents plus aiguisées face au spamdexing lorsqu’il s’agit d’éléments extérieurs au site (critères off-site ou off-page, comme les liens issus d’autres sites) plutôt qu’en interne sur des éléments “on-site” (les textes de contenu par exemple)...bien que la synergie de ces deux aspects soit à prendre en compte comme facteur de qualité d’un site web. En revanche, côté fréquence des analyses, la donne reste inchangée : le contrôle de Penguin s’effectue de façon mensuelle - inutile donc de s’inquiéter si les corrections apportées ne sont pas immédiatement efficaces en termes de positionnement.

Voici un bref aperçu des pratiques on-site et off-site à éviter, puisque sanctionnées par le nouvel algorithme :

Éléments internes au site (on-site)
Éléments externes au site (off-site)

  • Sur-optimisation des titres (balise title) : trop de mots clés/d’expressions clés dans un titre, d’avantage conçu pour le moteur de recherche que pour l’intérêt même de l’internaute

  • Multiplication des backlinks avec le même texte de lien (anchor text) : lorsque les liens issus des sites B,C,D,E pointent vers le site A avec des mots clés répétés, identiques à la requête principale de la page de destination (A)

  • Répétition permanente de mots clés identiques dans les différents titres (balise h1, h2...)

  • Incohérence de thématique entre la page des backlinks et leur page de destination : par exemple lorsqu’un lien censé pointer vers un site agricole se trouve sur un site dédié à la danse classique...Google pénalise l’illogisme

  • “Content Keyword Stuffing” (ou bourrage de mots clés dans le contenu) : densité trop importante des termes clés dans les textes du site (présentation de la société, activités...)

  • Sur-utilisation des sites de communiqués de presse : s’ils peuvent autant permettre de diffuser des contenus qualitatifs que d’autres surchargés de mots clés, ils sont trop souvent utilisés comme un pied de nez fait à l’algorithme de Google. Cependant, la sanction n’est pas automatique si le site ou le texte même du communiqué sont de bonne qualité.

  • Incohérence des textes : cela peut par exemple provenir de l’approximation d’un spinning (méthode pour différencier des textes dupliqués avec l’utilisation automatique de synonymes)

  • Présence trop importante de backlinks issus de sites dont les contenus sont rédigés dans une autre langue que celle de la page vers laquelle ils conduisent

  • Omniprésence de bannières publicitaires sur une page (notamment au dessus de la ligne de flottaison)

  • Achat de liens trop fréquent (même s’il reste à définir le moyen par lequel Google affirme qu’un backlink a été acheté)

  • Nombre trop important de liens sortants pointant vers des sites de basse qualité, impopulaires (notion de Page Rank)

  • Utilisation d’un réseau de liens trop visible, entre plusieurs sites qui appartiennent au même propriétaire

  • Utilisation répétée d’ancres de liens identiques (“anchor text” ou texte du lien) pour pointer d’une page à une autre, à l’intérieur du site (de la page d’accueil à la page “société” par exemple)

  • Inscriptions multiples sur des annuaires de mauvaise qualité
“Natural Content is King”
“Quality connection is Queen”
En définitive, les aspects on-page considérés par la version de Penguin sont sensiblement similaires à ceux auxquels s’attachait Google Panda dans l’analyse des sites. Mais comme on le voit dans le tableau, les éléments off-page ont pris de l’envergure et gagné en influence sur l’appréciation d’un site web. C’est en quoi la combinaison de ces deux critères, dans le respect des exigences du moteur de recherche, déterminera la qualité (aux yeux de Google) et le bon positionnement d’un site Internet dans les pages de résultats (au gré de Google). L’accent semble donc être placé sur le confort de navigation de l’internaute et sur la pertinence réelle de la réponse (un site de qualité) à sa question (une requête simple).

Aucun commentaire:

Enregistrer un commentaire