nouvelle version du filtre Penguin sortie fin septembre 2016 est pleine de promesses. Faisons le point.
Qu’est ce qu’une mise à jour majeure chez Google ?
Afin de fournir aux internautes le meilleur classement possible et lutter contre les pratiques abusives de certains référenceurs, Google met constamment à jour son algorithme de recherche.Plus qu’une mise à jour…
Parfois, il ne s’agit que d’évolutions mineures telles que la meilleure prise en compte de la vitesse d’un site, le fait qu’il soit en https ou encore qu’il soit compatible mobile. Les référenceurs considèrent qu’il y a environ deux cent critères de classement pris en compte par Google, dont l’importance est constamment réajustée. Ces modifications sont généralement marginales et elles n’entraînent pas de “choc” dans le classement des sites. Si un site n’est pas très bon sur un critère, le fait qu’il soit correct sur d’autres critères limite généralement les dégâts. De plus, les évolutions sont graduelles : un critère peu important ne devient pas du jour au lendemain le critère phare qu’il faut absolument optimiser. Et inversement.… c’est une autre façon de concevoir le référencement !
D’autres mises à jour des critères de classement, plus rares, sont considérées comme des évolutions majeures car elles modifient significativement le fonctionnement du moteur de recherche et peuvent avoir un impact important sur le classement de certains sites. Imaginez que du jour au lendemain votre trafic issu de Google soit divisé par 3 (voire plus) et vous aurez une bonne idée de l’impact que peut avoir une mise à jour Google sur le e-business.Les mises à jour majeures sont plus ou moins visibles.
Il y a celles qui sont majeures sur le papier mais dont on ne voit pas les effets immédiatement.
C’est le cas par exemple des mises à jour Hummingbird (Colibri, lancé en 2013) et plus récemment de Rankbrain (2016) dont l’objectif est de mieux comprendre l’intention de la recherche de l’internaute et lui proposer le meilleur résultat possible. Ce type de mises à jour se base sur des techniques d’analyse du langage naturel, de la sémantique, du machine learning (etc.). C’est un beau travail scientifique qui permet à Google d’améliorer constamment la finesse de ses résultats, on peut même y voir des prémices d’intelligence artificielle, mais rien qui n’empêche un référenceur de dormir ! Cette optimisation algorithmique se fait au fil de l’eau, sans heurts, et les référenceurs ont le temps de s’approprier les nouvelles opportunités / contraintes de classement qu’elle entraîne.Il y a les filtres de qualité dont on voit les effets rapidement (si on est pénalisé).
Google ne cherche pas uniquement à améliorer la pertinence des résultats qu’il propose, il met aussi en place des filtres et des pénalités contre les sites qui tentent de l’abuser par un travail de référencement excessif. Et quand Google frappe, ça peut être assez conséquent ! Il est maître en son domaine et n’hésitera pas à envoyez un site web en 10 ème page des résultats. En complément de vérifications effectuées par les membres de son équipe qualité, Google lutte contre les sites ayant un contenu trop pauvre et les mauvaises pratiques SEO à l’aide d’outils automatisés. On parle de filtres algorithmiques. Deux de ces filtres sont particulièrement connus des spécialistes SEO : les pénalités Panda et Pingouin. Panda : filtre pénalisant les sites dont le contenu est jugé de mauvaise qualité. Pingouin : filtre pénalisant les sites ayant des liens entrants de mauvaise qualité. Un site web bien géré, accompagné par un expert en référencement digne de ce nom ne devrait jamais subir ce type de filtre. Mais l’expérience montre que les bonnes pratiques ne sont pas toujours suivies par certains “professionnels”.Plus rapide, plus intelligent : le filtre Pingouin 4 est plein de promesses !
Un filtre en temps réel
Avant cette version de Penguin, les mises à jour du filtre se faisaient ponctuellement. Google faisait tourner ses serveurs, calculait quels étaient les bons et les mauvais liens pointant vers les sites web et en sortait une liste de sites devant subir une pénalité ou méritant d’en sortir. Du jour au lendemain, les sites pénalisés voyaient leur trafic SEO s’effondrer et cette mise à jour était faite, au mieux, quelques fois dans l’année. Le problème de ces mises à jour par à-coups était double :- si on n’était pas expert en référencement naturel, il y avait des risques que l’on croit faire du bon travail (on fait des liens et le classement du site s’améliore) alors que ce n’était pas le cas. La désillusion n’en était que plus grande quand venait la mise à jour du filtre…
- un site subissant une pénalité algorithmique devait attendre la prochaine mise à jour du filtre pour en sortir. Quelques jours / semaines pour enlever les liens problématiques et des mois à attendre la mise à jour…