La morale dans le référencement


Ce qui me fait fuir les forums de référencement connus, ce sont les grandes gueules « anti triche ».
On pourrait résumer leur argumentation comme suit : « un référenceur qui ne respecte par la charte de Google n’est pas professionnel car il condamne ses client à se faire blacklister à plus ou moins long terme« .
Amen…dans leurs fantasmes, la réalité comme l’énoncé du problème est tout autre.

 

Il y a des pratiques autorisées par les moteurs de recherche, et d’autres qui ne le sont pas.
Violer un interdit énoncé par un moteur expose le site à un blacklistage.
OK, jusque là tout le monde suit.

 

La justification de cette manière de faire plutôt drastique est que c’est le prix à payer pour le confort de l’internaute.
Le glissement de sens vient de là, et c’est de cette confusion que va naître le débat complètement stérile entre whitehat et blackhat.

 

En effet, dans un monde idéal un site devrait pouvoir bénéficier d’une visibilité sur les moteurs qui soit en adéquation avec sa pertinence. S’il est d’excellente qualité il se trouve en première page de résultats, si il est médiocre il est relégué au loin.

 

Ce n’est pas comme cela que ça se passe, que ce soit à cause de facteurs bloquants qu’ignore le webmaster de bonne foi, comme de galaxies de sites médiocres mis en place par des spammeurs, avec comme principaux contenus de l’affiliation et des publicités (pratique tout à fait faisable en respectant la charte des moteurs d’ailleurs, la notion de confort de l’internaute est décidemment toute relative).

 

Bref les moteurs de recherche ont de nombreuses lacunes, lacunes qu’il faut combler.

 

Faire preuve d’éthique, et satisfaire l’internaute, c’est avant tout positionner un site qui apporte une pertinence en adéquation avec le positionnement obtenu.
Cette évidence est très peu dite dans les boîtes de référencement car cela revient à admettre qu’il faudrait sélectionner ses clients en fonction de la qualité de leur site web. Hors déjà en France il est interdit à un prestataire de service de refuser une prestation (bien que l’ajout de clauses prohibitives au contrat peut concrètement aboutir au même résultat), mais surtout rares sont ceux qui peuvent se permettre de refuser un client !

 

Pour un site médiocre, toutes les techniques whitehat de référencement utilisées pour le positionner ne seront pas éthiques vis à vis de l’internaute, car cela restera un site médiocre.
Un site excellent, même s’il est positionné à coup de pages satellites, restera un site excellent qui satisfera l’internaute.

 

La morale n’est donc pas dans les moyens mis en oeuvre pour que l’internaute parvienne sur le site, mais s’il sera satisfait de l’avoir trouvé ou pas, Point Final.

 

 

Le blacklistage.

 

Il y a un prix un payer à gruger un moteur, c’est le risque de blacklistage (en 9 ans de métier, je n’ai jamais eu un site de blacklisté ceci dit).
Il y a un prix à payer à ne pas le gruger, c’est de faire des pages moins lisibles pour les internautes.

 

En effet, les moteurs n’ont aucun sens de l’esthétique et leur technologie les limite dans la compréhension de tout ce qui est élément visuel en général.
Par contre un texte en début de code aura tendance à être mieux pondéré que celui en milieu de code, ce qui obéit à une logique de traitement d’information, mais pas forcement à l’ergonomie la plus propice à l’oeil humain.

 

Ainsi dès qu’un marché est un peu concurrentiel, le référenceur se doit d’optimiser un maximum les pages du site, et cela revient dans la plus part des cas à faire des pages moches.

 

Il faut donc choisir son camp :
- S’adresser à l’internaute et aux moteurs en même temps, avec le prix à payer de respecter des contraintes dont l’humain n’a que faire.
- Différencier les deux, ce qui permet au webmaster de faire ses pages pour l’internaute uniquement sans se préoccuper de ce que les moteurs réussiront à en interpréter ou non.

 

La première impression que donne le site web du client est déterminante quand à l’évaluation de son degré de professionnalisme. Avoir du trafic c’est bien, avoir un excellent ROI c’est primordial.

 

La profession de référenceur a été créée initialement pour soulager le webmaster de contraintes qui n’ont que peu de rapports avec le ROI ou tout simplement la lisibilité du site pour l’internaute.

 

Ne pas maîtriser l’approche qui rend le travail du référenceur invisible à l’internaute, c’est obliger le site client à prendre en compte des critères d’ergonomie qui ne sont pas, au sens propre du terme, des critères humains.
Entre ROI et risque de blacklistage il faut choisir (dans un secteur très concurrentiel s’entend).

 

Comment ne pas se faire blacklister?

 

Le mieux pour cela est que personne ne se doute qu’il y a eu optimisation pour les moteurs.
Le cloaking est à ce titre extrêmement confortable : il n’y a pas de redirection car c’est la page naturelle du site qui est affichée, le code source est clean puisque les éléments d’optimisation ne sont disponibles qu’aux moteurs.

 

La meilleure protection que puisse apporter un référenceur à son client est de faire un travail suffisamment subtil pour que l’idée même que des techniques d’optimisations aient été appliquées ne soit pas envisagée.

 

Seulement voilà, le cloaking nécessite une vraie veille sur les IP des moteurs, comme faire un travail subtil nécessite du savoir-faire, de l’expérience et de la jugeotte.

 

On est bien loin des pontifes « contenu + échange de lien = I win ».
J’y reviendrai dans un autre billet, mais en gros cette formule si elle peut s’appliquer à un webmaster qui s’occupe de son site à plein temps toute l’année, ne s’applique pas chez un référenceur professionnel qui positionne des dizaines de sites chaque année sur des thématiques éclectiques.
1) Il faut que son travail dure dans le temps sans qu’il ait besoin d’y revenir (donc pour le rafraîchissement du contenu c’est mort)
2) Il ignore l’échange de liens car dépendre d’inconnus censés lui donner des liens pour positionner ses clients, c’est une situation tout à fait intenable professionnellement (et surtout dégotter des liens, c’est très consommateur de temps, donc peu rentable).

 

Alors les discours « un vrai pro ne triche pas », je vous le renvoie dans la gueule messieurs les moralistes : vous n’êtes que des amateurs qui se contentent de fantasmer une profession.


12 Comments, Comment or Ping

  1. Yup, de plus certains types de cloaking ‘techniques » sont en fait permis ou du moins tolérés par les moteurs, sans tomber dans des pratiques de gorets ou de spammeurs ! Certains sites à forte notoriété et bon trustrank ne s’en privent pas d’ailleurs.
    AMHA (je suis et veux rester un Amateur) le cloaking serait par ex. particulièrement adapté aux landing pages où l’on cherchera à réduire tout contenu superflu pour maximiser le taux de conversion, mais là la frontière est étroite … et il est souvent + confortable d’énoncer « un vrai pro ne triche pas  » comme tu dis …

    septembre 22nd, 2008

  2. encore excellent :-)

    une remarque, la vente de prestation n’est bien sur pas obligatoire, c’est la vente de produits qui ne peut etre refusé mais seulement à un particulier, ce n’est plus le cas depuis quelques années pour les pros.

    septembre 22nd, 2008

  3. Un post qui va surement en faire réagir quelques uns… Les partisans du « fais ce que je dis, pas se que je fais… » notamment. Impatient de lire les réactions des SEO Jedïs !

    septembre 23rd, 2008

  4. referenceurdulundi

    Oscar : en effet le cloaking est un moyen très souple pour ameliorer le taux de conversion des landing page. Une autre application soft est d’offrir en 1er choix la version linguistique du site correspondant au pays d’origine du visiteur, suivant de quelle version de google il arrive par exemple (la geolocalisation de l’IP a un peu trop de points faibles à mon goût, même si les utilisateurs d’AOL deviennent rares ;).
    Dommage que ce genre de sujet ne puisse être abordé sur WRI & Co sans se faire troller direct !

    Aseed : moi aussi j’ai hate de voir kkes grandes gueules qui consacrent 25% de leurs posts sur les forums à precher une pseudo morale venir ici défendre leur point de vue.
    Certains ne sont pas au courant de l’existence de ce blog (normal) mais d’autres n’ont tout simplement pas le cran de venir s’exprimer ici. C’est sur qu’à force de se la jouer leader d’opinion au milieu d’un troupeau de noobies ils ont perdu l’habitude d’avoir du répondant en face.

    Salemioche : J’ignorais cette différence entre presta de services et de biens ! Merci pour l’info :)

    Sinon Apocalx s’est decidé à faire un petit post sur le même sujet mais selon un angle plus économique Lundi prochain, cool :)

    septembre 23rd, 2008

  5. Jojo

    « En effet, dans un monde idéal un site devrait pouvoir bénéficier d’une visibilité sur les moteurs qui soit en adéquation avec sa pertinence. S’il est d’excellente qualité il se trouve en première page de résultats, si il est médiocre il est relégué au loin.. »

    Pour info c’est un peu comme ça que ça se passe, il me semble que les moteurs pénalisent depuis belle lurette les sites médiocres. Ils se basent sur le taux de clique dans les pages de résultats de recherche, et sur le nombre de pages qui sont ensuite visitées au cours de la navigation sur le site, suivant ce clique dans la page de résultat. (Grâce à leurs merveilleuses « barres »). Un site quitté dés la première page visitée et ce très rapidement, n’aide pas un moteur à le considérer comme de qualité. Même si bien évidement c’est loin d’être le seul critère pris en compte.

    « Ainsi dès qu’un marché est un peu concurrentiel, le référenceur se doit d’optimiser un maximum les pages du site, et cela revient dans la plus part des cas à faire des pages moches. »

    A mon avis, il faut éviter de tomber dans la « sur-optimisation » qui n’est pas spécialement bien vue par les moteurs. Par ailleurs, la maitrise des CSS permet de faire des pages correctes du point de vue de l’esthétique et de l’ergonomie. Et du coup permet de jouer sur les deux tableaux : optimisation pour les moteurs et ergonomie / design sans avoir à faire trop de compromis.

    septembre 23rd, 2008

  6. referenceurdulundi

    Jojo : ce serait « comme ça que ca se passe », la profession de référenceur n’existerait pas :)

    Bon pour te rendre justice tu dis « c’est UN PEU comme ca que ca se passe », précaution oratoire bienvenue car énonçant une règle en laissant la place aux exceptions car tu sais qu’elles existent.
    Tu ne réalises sans doute pas que ces exceptions sont tellement nombreuses que ta règle n’est pas valable dans les faits. Déjà il peut y avoir 10 résultats pertinents dans la 1ere page de google, certes, mais s’il existe plus de 10 sites pertinents il se passe quoi? De plus si les sites de spam n’arrivaient pas à se positionner, penses tu que les spammeurs continueraient à spammer à perte?

    Concrètement si tu étudies des centaines voire des milliers de requêtes (c’est à dire que tu références de très nombreux sites pendant des années) tu réaliseras que ce que tu dis est conforté par les « on dit » des forums de referencement mais que ca ne reste qu’un mème qui ne se vérifie pas dans la réalité.

    Quant aux metadatas accumulés via le tracking de l’internaute (entre autres) ce sont des données « de masse » qui ne s’appliquent efficacement que sur les requêtes « de masse ».
    De plus Google n’est pas assez naïf pour ignorer qu’un internaute qui va régulièrement sur un site l’a en signet ou tape directement les 1eres lettres du ndd pour le faire s’afficher via l’historique du browser (pas de trafic moteur donc indétectable) et que la grande majorité n’a tout simplement pas la googlebarre dans son browser.

    « A mon avis, il faut éviter de tomber dans la “sur-optimisation” qui n’est pas spécialement bien vue par les moteurs. Par ailleurs, la maitrise des CSS permet de faire des pages correctes du point de vue de l’esthétique et de l’ergonomie. »

    Tu parles de « sur optimisation » alors que dans un secteur très concurrentiel il faut atteindre un scoring très élevé, il n’y pas le choix, tout simplement.
    Atteindre un scoring très elevé afin de positionner un site de manière efficace dans un secteur très concurrentiel, c’est suffisament compliqué pour ne pas y ajouter la contrainte esthétique (on peut baisser le scoring de ses pages en tablant sur l’indice de popularité c’est vrai, mais ce n’est pas une solution viable professionnellement, j’y reviendrai).

    Enfin peut être que pour toi l’utilisation du CSS est le must de l’ergonomie, mais le webmaster devrait rester libre de ses choix en ce domaine, est-ce que faire une navigation en flash ou du texte image signifie que le site n’est pas pertinent pour l’internaute?

    septembre 23rd, 2008

  7. Jojo

    Juste pour info, je suis référenceur ;) Et je n’ai pas appris grand chose sur les forums auxquels tu penses.

    Pour rebondir sur le sujet du spam », comment a ton avis est t’il détecté par les moteurs ? Ils utilisent, entre autre, les bases issues du tracking du comportement des internautes suite à un clique sur un lien d’une SERP. Un site qui ne dépasse pas une PV par visite est considéré comme douteux. Ce sites arrivent certes à se positionner, mais pendant combien de temps ??

    Même si tout le monde n’a pas la Google barre (ou autre) il y en a suffisamment pour créer des panels représentatifs. Les moteurs sont au courant des sites très visités par les internautes et qui font bcp de PV , que ce soit depuis une SERP ou pas. Et évidement ils les considèrent comme des sites d’intérêt. Même si une fois de plus ce n’est pas le seul critère.

    Je redis ce que j’ai déjà dis concernant la sur optimisation : elle est néfaste. Dans un secteur concurrentiel elle n’apporte pas grand chose. Les liens et leur qualité sont beaucoup plus importants.

    Moi je considère qu’il est important de jouer sur le tableau de l’esthétique parce que le ROI est souvent meilleur qu’avec des pages moches, et le taux de rebond inférieur. Images et flash peuvent être utilisées sans pb, ils ne me posent aucun soucis.

    septembre 24th, 2008

  8. referenceurdulundi

    Erf cher collegue, tu vas un peu vite en besogne et je m’en explique.

    Déjà quand tu parles de sur-optimisation néfaste, c’est d’une sur-optimisation qui se prend une OOP dans la gueule (et pour se prendre une OOP avec du keyword stuffing faut le vouloir, de fait ce genre de pénalité provient dans la plus part des cas d’une sur-optimisation de porc liée à un linking abusivement maladroit ou excessif, raison de plus pour considerer le linking comme un terrain glissant) alors que moi je parle de travail subtil (un fort scoring n’empeche pas d’être delicat vois-tu ;)
    Bref tu me parles de sur optimisation, pas moi, ca ne peut tourner qu’au dialogue de sourd.

    Ensuite quand je parle d’environnement concurrentiel, c’est d’un environnement où ton site bien optimisé et bien linké fait face à des dizaines d’autres sites bien optimisés et bien linkés.
    Tu penses que l’optimisation est moins importante que le linking comme bcp, ce qui me conforte dans l’idée qu’il faudra en effet que je fasse un billet sur « le 1er et principal piège que google à mis dans les roues de la profession », l’échange de liens (rho c’est pas bien de s’autociter)

    Ensuite tu inverses cause et effet. Non les moteurs ne repèrent pas les sites visités pour les placer en bonnes positions, se sont les sites bien placés qui sont visités car bien positionnés.
    Que se passe-t-il quand le nombre de bons sites méritant d’être visités sont plus nombreux qu’une premiere page de resultats peut offrir ? Dans un environnement concurrentiel ca arrive tout le temps ! Et de nouveaux acteurs (qui n’ont pas forcement la qualité des anciens à leur début, mais qui l’obtiendront si on leur laisse leur chance) arrivent tous les mois !
    Attention donc : un bon site non classé n’étant pas vu, tu n’en connais pas l’existence et donc tu en conclues que le moteur fait « naturellement » un bon boulot.

    Attention également à ne pas te laisser aveugler par l’analyse comportementale comme filtre anti spam (la meilleure méthode anti spam qu’a developpé google est l’analyse des liens – et oui encore une fois – et l’inflation des pages générées => ca mène à la sandbox. Pour le blacklistage c’est par dénonciation uniquement).

    Exemple-tout-con :

    Un internaute clique sur un résultat puis revient sur la page de résultats de base, clique quelques autres résultats puis finalement reformule sa requête.

    1) En fait son 1er résultat était le bon, il a trouvé l’essentiel de ce qu’il voulait savoir. Cela ne l’empêche pas de voir ailleurs, par curiosité ou pour confirmer (après tout le surf est gratuit, pourquoi s’en priver)? Maintenant qu’il en a appris plus il peut orienter sa requête de manière plus précise ou sur des éléments dont il ignorait l’existence auparavant.

    2) En fait il n’a pas trouvé ce qu’il voulait, il ère de sites en sites jusqu’à renoncer et reformuler sa requête en pestant contre les spammeurs ou l’incapacité du moteur à lui retourner de bons résultats.

    Ces 2 cas de figures arrivent tous les jours à énormement de monde, alors oui les metadatas comportementaux influent, mais seulement pour l’élaboration de profils de masse et certaines familles de requêtes (sur les différents types de requêtes je posterai un billet)

    D’ailleurs des tests ont été fait par des Americains (désolé, j’ai la flemme de retrouver ma source si une bonne âme passe par là, Turillo ? ^^) pour voir justement si 2 profils comportementaux types pouvaient influencer les resultats.
    Le 1er groupe avait pour charge de cliquer sur le resultat A, attendre kkes temps puis surfer sur le site sans revenir une fois sur la 1ère page de résultats du moteur. Le second devait cliquer sur le resultat B, puis revenir tout de suite après et cliquer sur un autre résultat.

    Le test a été effectué par kkes centaines de personnes (oui la flemme aussi de retrouver le chiffre exact), sur des mots qui n’existaient pas afin de ne pas avoir d’influence exterieure. A la fin du test aucun changement de position n’a été constaté dans un sens ou dans l’autre.
    Dommage pour les Indiens, un nouveau marché aurait pu s’ouvrir : celui du fake internaute :)

    « Moi je considère qu’il est important de jouer sur le tableau de l’esthétique parce que le ROI est souvent meilleur qu’avec des pages moches, et le taux de rebond inférieur. »
    Nous sommes bien d’accord, c’est d’ailleurs mon argument de base en faveur d’une optimisation invisible aux internautes et qui n’influent pas sur les choix esthetiques des webmasters.

    septembre 25th, 2008

  9. Xibo

    Très bon point de vu je trouve, et qui montre bien qu’on peut chercher à (sur) optimiser un site tout en pensant aux internautes en 1er lieu !

    Le risque quand même à terme, c’est que GG étant de plus en plus informé sur le comportement des internautes grâce aux millions de toolbar et autres outils, risque de prendre de + en + en compte le comportement des visiteurs.

    Les techniques de cloacking qui contiennent des pages entières de liens qui ne sont alors jamais cliqués risque d’alerter assez facilement le moteur sur la qualité de ces fameux liens.

    Vous en pensez quoi ?

    octobre 22nd, 2008

  10. referenceurdulundi

    C’est en effet une très bonne remarque :)

    2 procédés peuvent être mis en oeuvre pour faire face à ce risque.

    1) Coller à l’arborescence du site. Il ne s’agit pas alors de faire des pages en pur cloaking, mais d’insérer les éléments optimisés en cloaking dans les pages existantes.
    Idéal pour les gros sites.

    2) Mettre les liens menant vers les pages cloakées en visible, ainsi ils seront cliqués. Après tout la beauté du cloaking est de maîtriser parfaitement ce qu’on veut faire voir à l’internaute : celui-ci clique sur le lien et c’est une page naturelle du site (et en rapport avec le sujet de préférence ;) qui s’affiche, que demande le peuple ?

    Les 2 sont efficaces, mais ne sont pas applicables dans le cas de milliers de pages cloakées pour un site avec 4 pages officielles, bien sur :)

    Jeffer

    octobre 22nd, 2008

  11. je ne pourrais jamais proposer du cloaking a mes clients, c’est un petit jeu bien trop risque. C’est plus qu’ « un travail subtil du savoir-faire, de l’expérience et de la jugeotte » qu’il faut, c’est carrement un sixieme sens !!! comment connaitre a l’avance les ips que google va utiliser pour parcourir votre site ? comment reconnaitre a coup sur l’identite de google ? un header ne prouve rien…

    août 9th, 2009