Nouvel algorithme plus pertinent pour google : les SEO doivent-ils craindre les foudres divines?

Pour les SEO et leur travail de référencement, ce nouvel algorithme est -il à craindre? Et si oui, dans quelle mesure? Vous avez un site et vous avez entendu parler de ce nouvel algorithme?

Suivez cet article qui pourra vous être utile.

Par ici ou là commence à fleurir des articles sur ce nouvel algorithme qui est censé donner des résultats plus pertinents à nos requêtes google .

Qu’est ce qui change dans l’algorithme google?

C’est dit hier soir sur le blog officiel de google, l’algorithme va changer une énième fois! Celui-ci apporte des changements à nos requêtes à hauteur de 11%. Il est simplement stipulé que certains sites vont perdre des places et d’autres en prendre.

La question qui me vient à l’esprit, c’est : Est-ce que mes sites vont être impactés par ce nouvel algorithme? Avant de répondre à cette question, google nous prévient : il faut que notre site ait un contexte original (en gros je m’attribue pas le contenu du voisin!). Il faut effectuer des recherches, analyses et avoir un contenu de haute qualité pour que nos sites soient mis en valeur par google.

D’un côté je me dis, bon effectivement, lorsque j’effectue une recherche, tomber sur un « money site » c’est pas top. D’un autre côté, il va falloir avoir de sacrés qualités rédactionnelles et les personnes non qualifiées mais qui veulent s’exprimer seront perdues dans les SERP…

En gros, j’avance que l’avenir appartient aux SEO et aux professionnels de la rédaction. Dommage pour les petits sites de qualité mais sans grand contenu qui n’auront que les miettes…

Toutefois, c’est la dur lois de la nature…. passons…

Il est aussi question de « link building » avec les fermes de liens en ligne de mire. Sur la twittosphère, j’ai entendu par ci par là certains qui stipulaient « pfff mon c.. » ça ne sera pas au point leur système, il faut qu’il compte sur leur plugin de google pour que les gens blacklistent des sites (Personal blocklist chrome extension) et que ça revienne vers google. L’algorithme seul n’en est pas capable!

Google est en train de nous dire que cet outil leur permet juste de comparer ce que blackliste les gens et le fonctionnement de leur algorithme et ils sont surpris de voir que celui-ci est efficace.

Je doute sur ce point mais on ne le saurait jamais! Ça se saurait si google était transparent à 100%.

J’attends de voir ça lorsque cela va arriver en Europe car pour le moment beaucoup d’entre nous se demande vraiment quel va être son efficacité.

Quel est impact sur le travail des SEO et les rédacteurs?

L’impact sur notre travail de référencement me paraît clair. Il nous faudra faire plus de contenu et réaliser une thèse original et unique pour que notre article soit bien vu. Evidemment, j’exagère le trait mais le travail rédactionnel devra être de qualité. Les mot clés que l’ont vise devront être utilisé avec parcimonie et des variantes.

Certains et je m’inclue dedans devront retourner voir leur manuel de français pour développer un sujet : thèse antithèse synthèse … et tout autre plan pour un argumentaire propre.

Cela dit leur article ne donne aucunes indications sur le Rich média: vidéo, images … On est tous passé sur des blogs qui ont un article avec une vidéo et 10 lignes de rédactions tout en étant bien référencé. Vont-ils être pénalisés?

Ces sites pullulent pour nous divertir mais je dirai que ceux qui n’auront pas de soucis à se faire ont depuis déjà quelques années suivis des règles pour leur rédaction:

  • avoir un contenu unique et original,
  • rester dans un sujet assez précis : high tech, humour…
  • écrire quelques lignes voir un article avec leur vidéo ou images,
  • jouer avec leurs mots clés et déclinaison sans trop en faire,
  • quelques échanges de liens entre différents sites qui sont sur la même thématique,
  • faire un maillage vertical et horizontale de leur site,
  • surfer sur l’inédit et le thème tendance du mois
Bref, les sites de rich médias qui respectent 50% de ces quelques règles (dont la première obligatoire) ont toutes les chances de ne pas être impactés par ce nouvel algorithme de google.

Que doit-on considérer comme fermes de contenu?

Attention c’est miné!

Je comprends le terme « ferme de liens » comme par exemple un splog ou des digg-like, communiqués de presse et annuaires avec du contenu dupliqué et des commentaires spammé. Bref, bien crado et qui donne pas envie d’y rester mais pour certains c’est un paradis pour spammer et envoyer du contenu à peine spinné et bourré de liens: les poubelles du net en gros.

Le passage hors du champs de mine :

Je veux faire un travail de link building propre, quels sont les moyens de le faire?

  • Travailler sur des annuaires de qualité qui exige une description unique et qui vérifie que cela est respecté dans le temps.
  • Les communiqués de presse qui respectent cette même politique.
  • Avoir votre lien dans un article d’un autre site sur la même thématique
  • restez naturel!

Les limites de ce prochain algorithme.

Doit-on fuir les digg-like?

Remplis de contenus rédactionnels, les digg-like le sont! Mais le contenu provient des utilisateurs et il n’y a pas forcément de vérification du duplicate content (surtout avec les système pligg).

Le principe tient aux votes des utilisateurs pour promouvoir un article mais dans quelle mesure un digglike peut-il traîner des casseroles (contenu dupliqué, commentaires spammés)?

Si celui-ci tient dans les résultats de requête et qu’il a du « contenu sale », ça sera toujours une opportunité pour certains d’y mettre des liens vers leur site…

Google fera-t-il la différence sur tout le site des liens sortant de qualité et ceux qui sont issue du contenu dupliqué?

L’algorithme sera-t-il capable de gérer le grey hat dans le link building?

Pour ma part je crois que ceux qui utilisent de temps à autres des moyens plus optimisé que le white hat ne craignent rien si :

  • Je n’ai pas trempé les mains dans LFE pour faire progresser mon site.
  • Je n’ai pas spammé des blogs avec des commentaires à la con tout en mettant une ancre qui collent pas avec la thématique (bon et encore faut y aller à la barbare).
  • Je n’envoie jamais le même contenu lorsque je communique sur un article ou un site.

Bon après je ne pense pas que ceux qui sont allés de temps en temps à l’encontre de ces quelques règles (genre 5 à 10% de leur stratégie) ne se feront pas obligatoirement dégager des SERP…

N’oublions pas le vieux précepte :  »Ne pas mettre les oeufs dans un même panier » pour faire connaître son site est primordial!

On peut donc à mon humble avis gagner du temps sans pour autant se faire niq… sanctionner pour son site. Il suffit de rester naturel (ou d’être propre sur soi) et tout se passera bien.

4 Comments

  1. Daniel Roch dit:

    Très bon article, qui rappelle bien le devoir de chacun de produire un bon contenu avec de bons liens provenant de sources diverses.

    Quant aux Digglike, je continue de penser qu’ils ont un rôle important à jouer, même après cette mise à jour. Normalement, un digglike demande une description. C’est donc à chacun de rédiger une description unique comme on le ferait pour un article à nous, un annuaire ou un guest blogging.

  2. Johanna dit:

    Google applique une stratégie de communication bien rodée et s’inspire de l’Art de la Guerre de Sun Tzu: il va punir quelques gros sites en guise d’exemple.

    Cela ressemble plutôt à un aveu de faiblesse corroboré par l’incitation à la « délation » via Chrome !

    Mais les SEO sont bien souvent en avance sur l’algo du moteur de recherche de la firme de Mountain View.

  3. Specialty Chemicals dit:

    Merci, article très intéressant. A propos de retourner son manuel de français : il faut écrire « il faut que notre site ait un contexte original » et non « il faut que notre site est un contexte original »

  4. Abysse dit:

    Hum des éléments additionels sont à ajouter comme le taux de rebond, temps passé sur un site, pogosticking, moyenne d’affichage et de clic ….

    Mais merci pour cet article qui fixe bien ce nouveau contexte de G Panda !