Ce billet ne se veut pas technique, c’est juste un retour d’expérience, expérience qui s’étale maintenant sur 13 ans.
Petite précision, quand j’utilise le terme « référencement », c’est dans le sens oldschool de « positionement naturel dans les moteurs de recherche (surtout Google) ».
Aujourd’hui, nos leaders d’opinion définissent les 3 pilliers du référencement comme suit :
1) E-reputation (réseaux sociaux avec Facebook puis Twitter en pôle position)
2) Linking (PR, échange de liens, articles, soumission, farmlinks…)
3) Optimisation du site (contenu, arborescence, nombre et structure des pages).
La question que je veux poser dans cet article, c’est quand on a X heures de travail à consacrer au réf (ou X€ de budget, le principe est le même), quelle doit être la repartition de nos actions parmi ces 3 axes ?
La réponse tient en l’analyse du ratio entre le temps consacré et l’efficacité du résultat obtenu (en terme de positions naturelles, toujours).
Mais également : quelle est leur efficacité à « l’instant T » comme 1 an plus tard ?
Et enfin : quel effort d’entretien doit être fourni en continu et quel est celui à fournir de temps en temps ?
En bref, si je passe 1 heure à faire de l’E-reputation, 1 heure à faire du linking ou 1 heure à faire du contenu, quelle heure m’aura été le plus profitable à court comme à long terme ?
Trustrank et scoring, théorie perso.
Je n’ai pas la science infuse, ce que vous allez lire n’est que le résultat de mes déductions perso.
Le scoring d’un site peut être défini comme sa « note de pertinence globale ». Selon la concurrence, le scoring à atteindre pour être positionné est plus ou moins elevé. Simple… ou pas !
En effet, comme le scoring n’a pas de limite, il suffirait donc à un référenceur de booster son score jusqu’à obtenir la 1ère position. Un peu trop facile !
Afin de préserver une certaine stabilité de résultats (et se premunir des spammeurs), quelque soit le score du site, Google met des filtres avant de prendre en compte ce scoring dans sa totalité.
Un exemple pour être plus clair.
Un site tout neuf est mis en ligne, l’optimisation interne du site est mega top, avec du contenu unique qui relègue wikipedia à une bande d’amateurs (ce qu’ils sont d’ailleurs :p).
Son scoring lui permet d’obtenir la 1ère position sur les requêtes visées.
Très bien, mais il est tout neuf et donc pour l’instant Google ne sait pas à quoi s’en tenir. Ca peut être un super site de passionné, comme un site de bidouilleur PHP qui repompe et spin comme un porc.
Dans le doute, Google va prendre 10% de son scoring seulement pour évaluer son positionnement.
Au fur et à mesure que le temps passe, il va lever progressivement sa limite à 15%, 20% etc. Mais le temps qui passe n’est pas le seul facteur, il est possible (et nécessaire) d’accélerer le processus. Pour cela des liens provenant des réseaux sociaux (axe 1) comme d’autres sites (axe 2) vont être fortement utiles.
Ce n’est pas le splog qui est repris sur Twitter, ce n’est pas le MFA de base qui buzz sur Facebook. Ce n’est pas la moulinette à spam qui fait le tour des bloggeurs (meuh si vont me dire les BlackHats et leurs milliers de splogs à construction pyramidale et leur myriades de faux comptes FB et twitter, mais je vais y venir).
Pour en revenir à l’interrogation du début : quelle est l’action la plus rentable à court et long terme ? La réponse peut prendre la forme suivante :
La pertinence d’un site est son contenu, c’est sa principale source de scoring.
Mais la prise en compte de ce score est conditionné par des facteurs externes (réseaux sociaux et backlinks).
Donc, si j’ai 100 heures à consacrer au référencement, le plus rentable est d’en consacrer 60 au contenu, car c’est la source même du scoring, et 20 pour les reseaux sociaux et 20 pour le linking qui sont là pour sa bonne prise en compte.
« Ben oui mais » me sortira le vétéran du réf qui a découvert la profession par l’usage de logiciels « LFE like », juste en bombardant de liens je te positionne ce que tu veux (d’ailleurs le google bombing est la preuve la plus flagrante que seuls les liens peuvent suffire).
« Ben oui mais non », ô confrère car il faut prendre en compte ceci :
Qu’est ce qui dans le temps perd de sa valeur ?
- Contenu => quasi pas de perte (on met de côté les thématiques d’actualité). Le contenu s’aditionne, mais ne se dégrade pas.
- Linking => forte perte de la transmission de PR dans le temps. Résultat, effort à fournir de manière constante (dans le but de positionner s’entend). De plus, vue l’engouement des spammeurs pour les linking artificiel, Google oriente tous ses efforts de chasse aux méchants vers la pondération des liens, liens qui ne sont pas sous votre contrôle direct dans le meilleur cas de figure (liens naturels), alors que vous aurez toujours la maîtrise de votre contenu.
- Réseaux sociaux => liens en nofollow, retransmission du jus zéro MAIS : aide à l’indexation (délais entre un post sur un profil FB de quelques centaines d’amis et le passage de Googlebot sur la page, à peu près 15 secondes).
La bonne tactique (par rapport aux efforts fournis / résultats) est donc :
- Avoir un petit écho FB (et éventuellement Twitter, mais FB est plus efficace) pour faciliter l’indexation des pages.
- Avoir le linking suffisant pour obtenir la levée des facteurs bridant la prise en compte de l’intégralité du scoring : quelques liens suffisent (classique : quelques annuaires, quelques blogguers, quelques échanges de liens). Le but n’est pas en effet de positionner par le lien, juste de monter le trustrank du site (qui est par défaut de 0).
- Consacrer la majorité de son temps à la rédaction de contenu afin d’offrir une belle arborescence pertinente. Le contenu est la matière première des moteurs, et la source de la longue traine (qui represente normalement pour un site même bien référencé sur des mots clés majeurs 60% du trafic). Le contenu est perin, il se capitalise facilement sur la durée.
Voilà en substance, il y a matière à dire et à débat je n’en doute pas. Ce sera peut être à developper pour un autre article.
Et le 4ème axe d’optimisation dans tout ça ?
On en parle un peu, pas assez en tout cas, surtout si l’on considère les choses sous l’angle « effort/efficacité » ! Il s’agit de l’hébergement du site.
En effet, comme Google l’a annoncé cette année, il prend en compte aujourd’hui le temps de chargement des pages. Est ce que cela suffit à être en top position ?
Certainement pas.
Mais la montée du scoring pour chaque milliseconde de gagnée n’est pas négligeable et en terme de temps consacré, c’est peanuts (faut juste trouver le bon hébergeur).
D’ailleurs, comme c’est mon blog et que je suis chez moi, je vais me fendre d’une pub éhontée (mais méritée).
Il existe en effet pas mal de procédés pour améliorer le temps d’affichage, mais cela dépasse le rôle de l’hébergeur lambda, et à ce niveau je n’ai pas trouvé moins cher pour ce genre de savoir faire que chez DAG. Un article peut être consulté sur le site consacré à leur approche de cette problématique ici : Ameliorer les performances d affichage de vos pages Web.
Possible que je me fende d’un article sur « comment créer de faux profils FB avec quelques centaines de vrais personnes en amis en quelques heures ».
Que sera sera.
Bonne bourre !
Jeffer
6 Comments, Comment or Ping
Il est tellement difficile d’atteindre les 1eres positions sur des mots clés avec une concurrence moyenne qu’il faut prendre en compte toutes les amléiorations possible. S’il faut compresser un fichier CSS, on le fera. Même si seul cette action ne changera rien, plusieurs petites actions de ce genre peut faire gagner quelques places.
Bien sur ces petites techniques sont loin d’être aussi efficace que du netlinking et bien sur le contenu (que Google a du mal à comprendre d’ailleurs…)
décembre 11th, 2012
Globalement d’accord avec tout ce qui a été dit.
En creusant un peu, je pense que l’on peut trouver d’autres axes. Le branding par exemple, même s’il est très proche de l’e-reputation, peut s’avérer très bénéfique pour le ref nat et sa pérennisation. L’association du branding et du choix du nom de domaine est devenu très important.
pour l’hébergement… ouaip ce n’est pas faux, mais je m’attendais à mieux comme 4eme axe ^^ La rapidité des pages et leur optimisation ne dépend pas que de l’hébergement, loin de là. Sinon, petite astuce : prendre un service CDN juste à côté d’un datacenter de Google
Pour finir, y’a pas une petite coquille dans cette phrase
Réseaux sociaux => liens en dofollow, retransmission du jus zéro MAIS…
décembre 11th, 2012
Bizarre, j’aurais pas dit que les réseaux sociaux étaient le premier pilier.
décembre 12th, 2012
Htitip : merci pour la coquille, j’ai corrigé
Bien vu le coup du CDN !
Pour la rapidité des pages : oui ça ne dépend pas que de l’hébergement, mais une fois le code optimisé, il reste une sérieuse marge de progression coté serveur/gestion de bdd !
Pour le branding : clair, si l’internaute ajoute la marque à sa requête, c’est à priori la 1ere position assurée.
Dredd : bah c’est simple, fait un test : optimise peu ton site, trouve peu de liens et link toi avec des milliers d’amis/followers. Niveau postionnement naturel y aura même pas un spasme !
Car cet article traite avant tout de référencement naturel
En terme de rapidité d’indexation par contre, c’est très efficace.
décembre 12th, 2012
Article très intéressant. Il est clair que la seule action que l’on maîtrise véritablement finalement c’est écrire sur notre site. Si on écrit du contenu unique de manière régulière, il n’y a pas de raison d’être pénalisé par Google. Alors que pour le netlinking finalement, on ne sait pas réellement où cela mène.
Ce sont de toutes façons de bons compléments.
décembre 18th, 2012