Vacances


La dreamteam part en vacances.

 

Nous espérons que vous avez apprécié la mise en bouche et que vous êtes maintenant en appétit, car l’année prochaine va être saignante !

 

Bonne fêtes à tous :)

 

Jeffer, ApocalX, Easyguy, Refmond

 

PS : on vous épargne la récap’ des « grands moments 2008″ ainsi que les « prévisions du futur 2009″, cadeau !



Google, entre sens des affaires et bac à sable


Avant-propos: Ce billet est une tentative de vulgarisation de la fameuse Sandbox de Google.

 

Il y a déja pas mal de temps, Google a introduit dans son moteur une évolution de son algorithme de positionnement qui fut appelée Sandbox (en bon français, Bac à sable).



A la recherche des Adwords perdus


Google AdwordsQue de mystères dans ce titre qui génère peut-être beaucoup d’interrogations, mais il faut bien un titre attractif :)

 

Etant un référenceur pur et dur, j’ai du, par souci de découverte et d’élargissement de mes connaissances, m’exercer aux Google Adwords. Je me suis occupé pendant 2 ou 3 années d’un grand compte, où les dépenses étaient assez conséquentes. A cette période, je me suis aperçu de quelques incohérences que je souhaite vous faire partager à travers ce site où l’on peut s’exprimer librement et franchement !

 

Souvenir d’une période de polémique sur les CTR de Google

Au mois de janvier 2008 le Journal du Net mettait en ligne un mini-dossier dont le titre assez fort était : Google entre-t-il en récession ?
Le titre de la 1ère page était assez surprenante : Les liens sponsorisés en récession ?
Petit rappel des dires ce cette période :
La récession des liens sponsorisés est-elle pour autant à craindre ? Pas nécessairement, car la baisse du nombre de clics sur les publicités affichées par Google ne signale pas de facto une désaffection ou une perte de confiance de la part des internautes : depuis plus d’un an, Google est engagé dans une guerre à la fraude au clic afin de calmer l’inquiétude grandissante des annonceurs américains, et dont l’augmentation avait tendance à entacher quelque peu l’efficacité de son programme de liens. La baisse constatée des clics pourrait n’être que le résultat des actions engagées par le moteur pour assainir sa plate-forme AdWords.
Evolution du nombre de clics des liens sponsorisés

 

Pas mal de bruits avaient couru sur la toile à ce sujet, si vous n’en n’avez plus le souvenir retournez donc voir ce dossier :)

 

Ci-contre le graphique sur Journal du Net qui montrait la baisse du nombre de clics sur des liens sponsorisés

 

ZdNet publiait également quelques jours après : L’efficacité du taux de clic de Google en question :
« En janvier dernier, le CTR de Google a baissé de 7 % par rapport au mois de décembre 2007 et de 0,3 % sur un an, estime le cabinet d’études. » 

 

Maintenant, venons en au fait…

 

Tour de magie, hallucination Googlesque ou manipulation maline ?

Lorsque je gérais minuteusement les campagnes de mon grand compte, je faisais des suivis toutes les semaines, afin d’avoir des bilans personnalisés pour mon projet. 

Mais un jour, mes rapports ne correspondaient plus à ce que je relevais dans l’interface Adwords.
En effet, les totaux du mois apparaissant sur l’interface Adwords en ligne étaient plus élevés…
Dans l’onglet « Rapport » de Google, je me rappelle avoir re-générer un rapport avec les mêmes paramètres et les mêmes dates que la semaine précédente. J’avais donc 2 rapports « identiques » dans mon onglet. Et quelle fut ma surprise de voir des différences entre les résultats ! Les nombres de clics étaient bel et bien différents… comme par enchantement.. Je n’avais jamais vu cela

 

J’avais cherché s’il y avait des échos sur le Web et je n’avais à cette époque trouvé aucune « réclamation » ou interrogation…

 

Pour résumer, à cette période, je me retrouvais donc avec des clics ajoutés de façon inexplicable (puisqu’il me fallut remonter à quasiment un mois en arrière). Google avait ajouté aux différentes campagnes entre 5 et 10 clics par ci, par là, chaque semaine…

 

Les nombres de clics avaient donc augmenté, ce qui impliquait également : augmentation des dépenses (si l’on multiplie par le nombre de comptes Adwords existants, cela peut faire un petit pactole…)… et augmentation du CTR… Juste pendant la période des actualités sur la baisse du nombre de clics des liens sponsorisés Google… Pure coïncidence ?

 

J’avais contacté l’équipe Adwords qui m’avait dit qu’ils allaient faire parvenir mon interrogation à leurs équipes « techniques », mais je n’ai jamais eu de réponse…

 

Etant donné que nous ne pouvons savoir comment sont comptabilisés les nombres de clics et toutes les statistiques des liens sponsorisés, j’en suis arrivé à me demander si Google ne se faisait pas de l’argent sur le dos des utilisateurs Adwords… Alors que penser de cette situation ?

 

Google ne serait-il pas prêt à tout pour augmenter ses bénéfices…

(ceci est une capture d’un lien sponsorisé trouvé hier…)

 

Refmond



Gérer un jeune site


S’occuper d’un site qui démarre – que ce soit pour son compte ou celui d’un client – est en général une période assez frustrante. Autant la nouveauté du site même apporte fraîcheur et enthousiasme, autant il ne s’y passe pas grand chose !
Il existe néanmoins des moyens pour rendre les 2 premiers mois de la mise en ligne particulièrement intéressants. De plus ils ont le mérite d’éviter au site des chienlits comme la sandbox ou les annuaires cannibales.

 

Selon que le site soit un projet perso ou celui d’un client on ne dispose bien sûr pas des même moyens : l’extrême souplesse du 1er cas peut être remplacé dans le second par un contenu de qualité bonus car rédigé par le client (pour peu qu’on ait eu la ténacité pour le pousser au c..).

 

Suivant le contexte, tout n’est pas possible en même temps.

 

 

Le tout début.

Face aux (dizaines de?) milliers de nouveaux noms de domaines créés chaque jour, Google se doit d’instaurer une sorte de « sandbox automatique ». Impossible pour la stabilité de ses résultats de positionner un nom de domaine qui a 2 jours d’existence. C’est pourquoi l’achat du nom de domaine doit se faire le plus tôt possible, même si il est laissé en friche pendant des mois. Quand la version sera en ligne elle pourra alors obtenir des positions dans les jours qui suivent.
Google étant un colosse idiot, ça semble marcher même si le site est vide de chez vide. Cependant, une simple page « bientôt… » expliquant le pourquoi du site n’est pas un gros effort. Une proposition d’inscription pour être prévenu de son ouverture est aussi un plus. Enfin il ne faut pas se leurrer, son trafic sera proche du zéro absolu (après tout c’est encore une coquille vide).

 

 

Création d’un perso.

Les débuts du site vont être sociaux. Partant de là il faut se constituer une image sociale la plus efficace possible en terme de relation publique orientée linking/prosélytisme.

 

La création d’un personnage qui va représenter votre site est un plus.

 

Demandez à votre client la création d’un mail nom.prenom@siteclient.tld (il n’y a rien de moins sexy que referencement@siteclient.tld). Ce sera le « lieu d’existence » de votre perso imaginaire.
Ce mail servira pour la soumission auprès des annuaires et pour les demandes directes d’échanges de liens.

 

Selon la thématique, la taille et le professionnalisme du site, il va falloir imaginer une personne qui soit crédible et séduisante.
Les exemples synthétiques qui suivent vaudront mieux que de longs discours. Synthétiques car on peut pousser les choses aussi loin qu’on le désire. A ce titre faire ou avoir fait du JdR est d’une grande aide pour étoffer un personnage !
Mais pour recentrer, il est bien sûr inutile de se demander à quelle heure il sort son chien et s’il dort du coté droit ou gauche du lit. Sa perception des NTIC et son usage par contre devraient être particulièrement réfléchis. N’hésitez pas à penser en terme de caricature pour cadrer le personnage. Apres tout nous raisonnons tous en termes plus ou moins caricaturaux, jouer sur la caricature permet à votre interlocuteur d’être sur un terrain qu’il pense familier, ce qui est rassurant.

 

Exemples « d’archétypes »

 

- le vieux jeu enthousiaste (prénom classique, nom aux consonances du terroir).

 

Crédible pour certaines PME, sites d’informations, d’entraides communautaires, etc.
Dans la quarantaine, assez largué, mais près à faire des efforts car très enthousiaste à propos des NTIC et des perspectives offertes de communication avec autrui. Formulation des phrases légèrement surannée (mais pas trop), on sent que quand il écrit, c’est avant tout pour le plaisir de s’adresser à la personne plus que pour la démarche même. Bref, la force de ce profil est de tout baser sur l’humain, sa faiblesse est d’éveiller des soupçons s’il commence à parler PR et échanges de liens triangulaires…

 

- Le professionnel disponible (prénom génération X, nom assez court).

 

Sites e-commerce, authorities, prestation de service, etc.
Autour de la trentaine il est compétent et toujours très clair dans la formulation de ses démarches. Il est réactif et répond dans l’heure les jours ouvrables. Nécessite un travail de veille préalable pour en assurer la crédibilité. Sa réactivité et son ton donnent l’impression qu’il s’occupe vraiment de son interlocuteur.

 

- La chaude bombasse (prénom jeune génération, nom à consonance italienne)

 

Evénementiel, festif, e-commerce « idées cadeaux », etc.
Un peu plus de 20 ans, tutoiement spontané, anecdotes « 3615 mylife » et totale noobitude vis à vis des NTIC (mais peut être compensé par « on me demande de… »). il s’agit de camper the hot girl selon le mâle de base. Très efficace ! Cependant si votre interlocuteur est une femme il est quasi certain que se soit un bide ;)

 

 

- le 2.0
J’ai tourné vieux con avec le 2.0 : ça me gonfle. Il me semble avoir jadis fait un profil facebook, que j’ai aussitôt oublié.
J’ai tout à fait conscience des nombreux avantages qu’on peut obtenir à étoffer son perso avec les profils des réseaux sociaux.
Mais ce sera juste sans moi (et c’est pas bien).

 

 

- Les blogs, phase 1

Créez une page « coup de coeur » like et faites de l’info pub sur les blogueurs notoires que vous avez repéré (il existe des méthodes pour trouver les bons blogs, mais ça va tourner au roman il faut savoir dire stop). Un article élogieux, un beau lien en dur…
Les blogueurs passent leur journée à rafraîchir leur page de stats et vous verront fatalement apparaître dans leurs référents. Surtout il ne faut pas leur mettre la pression sinon c’est mort. A eux de relayer l’existence de votre site ou non.

 

 

- Gérer la taille du site.

Un site qui vient de sortir et qui dispose de trop de pages d’un coup et vous êtes bon pour le bac à sable. Face à une grosse base de données mieux vaut la distiller pendant les 2 premiers mois. Perso j’y vais à la hache : pour un gros catalogue de produits par exemple, une partie de ce dernier est placée dans un répertoire protégé par un robots.txt, puis déplacée à sa vraie place au fur et à mesure.

 

 

- La pub dans les MFA

Personne n’aime les MFA, sauf leur propriétaire ^^
N’affichez aucune pub au début. Un site sans pub, c’est un signal fort que c’est un passionné ou un professionnel (selon la thématique du site) derrière ! De toute façon une vraie rentabilité demande un vrai trafic, alors la perte financière est négligeable.

 

 

- Les blogs, phase 2

 

Il est temps de sortir votre marionnette.
Le top est d’avoir une monnaie d’échange : code promo, échange de liens triangulaires… le tout est d’avoir un lien sans retour avec l’ancre qui va bien. La très grande majorité des blogueurs n’ont jamais connu la douce flatterie de recevoir des « cadeaux » juste pour mettre un lien sur leur blog, c’est donc en général très facile de leur demander la lune.
Si il n’y pas de monnaie d’échange, il va falloir faire connaissance avec le blogueur via ses commentaires. L’approche se doit d’être douce, inutile au départ d’indiquer son site dans le champ prevu pour. La relation de confiance dépend intimement de la crédibilité du personnage et de la qualité des interventions (travail de veille nécessaire).

 

 

- L’échange de liens avec d’autres sites

Il s’agit ici d’instaurer un dialogue avec un webmaster, il sera donc impossible de lui en demander trop. Néanmoins l’enjeu reste le même : obtenir un lien sans retour (ou alors il faudra tricher un peu).
Quand on a rien à proposer, les archétypes 1 et 3 sont assez efficaces. La démarche est sensiblement identique : il s’agit d’un noob qui demande conseille, transporté qu’il est par l’enthousiasme foudroyant que lui inspire le site cible. Il s’agit de flatter l’ego, de demander humblement à « celui qui sait » de précieux tips (et non un lien, du moins pas encore) dont la nature dépendra bien sûr du site. Dans le meilleur des cas de figure, si celui-ci est suffisamment flatté il peut proposer spontanément un lien pour aider.
Néanmoins mieux vaut ne pas trop compter dessus. Une fois la glace brisée, il faut porter le coup de grâce sous forme d’une infopub spontanée rédigée sur son site. L’astuce est de le faire sur une page interdite à l’indexation par un robots.txt (afin que le code de la page reste innocent). La noobitude affichée du personnage et la fraîcheur du site expliqueront pour le webmaster l’absence de PR de la page. Ca plus la petite campagne de lèche récente auront raison de plus d’un coeur dur comme pierre pour obtenir le lien en retour bien juteux.

 

 

- Les forums

Poster un lien vers son site avec un account ayant 1 message au compteur est une grave erreur. Il faut intervenir régulièrement et de manière pertinente pendant plusieurs semaines avant de lâcher l’url de son site. Cela nécessite donc un travail sérieux de veille et un bon rédactionnel. Néanmoins c’est un travail payant, qui peut générer des liens naturellement (je ne parle pas de la signature du profil) par le bouche à oreille et est une source de trafic qui se relèvera constante (les threads de forums se positionnent très bien sur certains types de requêtes).

 

 

- Soumission aux annuaires.

Il existe très peu d’annuaires qui apportent réellement quelque chose en terme juice link. La plus part sont des pièges. Mieux vaut choisir les annuaires récents car ils sont plus réactifs et accessibles. Une description optimisée n’est pas nécessaire, le seul objectif est l’ancre du lien. En fait une description non optimisée permet de ne pas trop booster le scoring sémantique de l’annuaire (on ne veut pas le voir positionner à la place de son propre site) et à un coté rafraîchissant pour un éditeur confronté à des centaines de sites plus ou moins spammies tous les jours.

 

Nous allons mettre en place bientôt un annuaire basé sur un concept original afin de relancer l’intérêt de ce genre de hubs. J’en reparlerai bientôt ;)

 

En attendant vous devriez pouvoir vous passer de soumettre votre site à la grande majorité des annuaires (certains restent incontournables). En effet via les différentes démarches que vous avez effectués le profil de votre linking devrait supporter aisément leur absence : votre site est sorti, les 1ers relais sur cette sortie ont été les blogs et les forums, puis quelques sites thématiques. Cela obéit à une logique naturelle que des soumissions auto comme des liens footers à droite à gauche ne peuvent égaler.

 

Le délais de 2 mois est à mon sens le délais normale de la « sandbox automatique » (c’est à dire qui se déclenche sans alertes mais juste en se basant sur la date de création du nom de domaine ou du changement de propriétaire). Cela peut être moins en fonction des buzz bien sûr, mais c’est volontairement que je ne parle ni des buzz ni des communiqués de presse. Il s’agit ici de parler de sites de clients « normaux » ou de MFA bien foutus, sans plus.

 

 

A Lundi prochain, avec un nouveau contributeur qui va nous apporter un éclairage assez détonnant sur l’envers du décors des Adwords !

 

Jeffer



Génération de contenu


Les référenceurs ont très vite compris que le contenu était un aspect essentiel pour élargir sa visibilité sur les moteurs de recherche et donc augmenter le trafic d’un site web.

Même si cela peut paraître relativement évident, il est encore (trop) fréquent de voir des sites sans contenu concret sur la toile.

Et il est vrai que la création d »un contenu original et de qualité n’est pas toujours facile et peut demander un temps important.

Mais il existe des outils de plus en plus efficaces pour générer du contenu de manière automatisée.

Nous allons, dans cet article, examiner un de ces outils …



Petite anecdote du jour sur Google


L’autre jour, j’ai eu la surprise de recevoir un email de la part de Google, me disant qu’une des pages de mon annuaire affichait des annonces Google Adsenses alors que son contenu était réservé aux adultes. Effectivement, c’était la catégorie « Affiliation adulte », et j’avais oublié d’exclure les Adsenses de cette page.

Google, dans sa grande bonté, me donnait 48 heures pour remettre les choses en ordre, ce que je n’ai bien sûr pas tardé à faire. Ils sont tout de même assez sympas, ils auraient pu se contenter de fermer mon compte vu que je n’avais pas respecté les clauses du contrat.

Je pensais que cet email m’était envoyé par un robot, mais j’ai tout de même tenté ma chance en leur répondant que j’avais corrigé le tir, et en leur demandant des précisions sur les mots clés qu’ils jugeaient tendancieux, information assez importante qui aurait pu me servir pour d’autres sites. Après tout, ça ne coutait rien d’essayer.

Quelle n’a pas été ma surprise de recevoir rapidement une réponse personnalisée! Mais quelle réponse!

Nous ne sommes pas en mesure de fournir des informations sur le « filtrage par mot clé » ou le « filtrage du contenu », mais vous pouvez effectuer des recherches à ce sujet sur Google.

Google m’a donc répondu qu’il ne pouvait pas me donner la réponse, mais que je pouvais tout de même essayer de chercher… dans Google! Merci Google!

ApocalX



Résumé des épisodes précedents


Cette semaine je voulais vous parler du mythe « Le strict respect du W3C boost le référencement » mais finalement non.
Déjà c’est un peu éculé, n’importe qui avec un peu de bouteille sait ou se doute que c’est faux. Un référenceur pro W3C aura-t-il le courage de rédiger un commentaire un minimum argumenté pour prétendre le contraire?

 

Mais ce n’est pas la raison principale de mon renoncement : il est simplement temps que je vous dise où on veut en venir.

 

Vous avez été en effet confrontés sur ce blog à plusieurs affirmations qui sont toutes le reflet d’un point de vue unique. Il faut maintenant le cristalliser.

 

Ces affirmations sont :

 

Historique des moteurs de recherche.

 

- Google est un idiot savant, qui fait des efforts titanesques pour sembler moins con avec des moyens démesurés.
Pour certains secteurs ca va, pour d’autres c’est catastrophique, dans l’ensemble ça a tendance a pas mal formater un média (le site web) qui n’était à la base destiné qu’à la satisfaction de l’internaute.

 

Content Is King

 

- Sa capacité de compréhension textuelle est un celle d’un freak mécanique. Ce n’est pas voulu. Les googleboys font de leur mieux.
De fait, tant que ce ne sera pas une IA altruiste, impartiale et extrêmement intelligente qui nous servira de moteur de recherche, leurs algos ne seront que des rustines. Essayer de « faire comprendre » un texte par un programme, ça revient a vouloir couper un arbre avec un canif : vous pourrez entailler l’écorce, mais la partie tendre sera trop dense pour vous dévoiler son coeur.
L’ennui c’est que ces rustines – de part les enjeux de plus en plus importants qu’il y a derrière le trafic drainé par le grand G – sont aujourd’hui les gendarmes du coin de la route.
Conséquence, nos sites tendent à une uniformisation qui facilite le traitement de l’information pour Google.
Certes, on peut conjuguer traitement efficace de l’information et esthétisme. Cependant force est de constater qu’à ce niveau on commence sérieusement à tourner en rond !

 

Un site qui ferait des choix esthétiques mettant en vrac la compréhension googlienne, ne pourrait-il avoir la prétention de nous délivrer de l’information pertinente ?

 

Il suffit de voir l’impact de certains buzz autours de sites originaux pour comprendre à quel point nous sommes en manque d’esthétisme, ou simplement de concepts présentés de manière moins formatée.

 

Aujourd’hui, si un webmaster se dit « au diable tout ca » et se lâche pour se faire plaisir et surtout faire plaisir au seul interlocuteur qu’il devrait avoir à l’esprit – son visiteur – il ne pourra faire l’économie d’un partenaire : le référenceur, celui qui va mâchouiller l’information jusqu’à en faire une bouillie suffisamment digeste pour que google trouve de quoi rassasier sa faim de « pertinence ».

 

Si vous faites confiances aux algos qui sont censés tirer du sens de votre texte, c’est que vous êtes fous.

 

Le piège du linking

 

- Google dispose par contre d’une bonne capacité d’analyse des réseaux sociaux appliqués aux sites web.
Sur la compréhension de la vie d’un site en tant que parti d’un réseau, en effet c’est du tangible : des modèles mathématiques assez rigoureux ont pu être développés, des tendances et des cycles définis.

 

Google s’y accroche de toutes ses forces, et il a raison.
Mais ca ne suffit pas. Trouver la pertinence par le social ok, mais dans certaines circonstances seulement !

 

Depuis quelques temps, des signes font penser que cette analyse sociale est en train de se déplacer du site à l’internaute.

 

Pourtant, même en connaissant l’intégralité de ce que tout le monde fait derrière son écran, même en collectant des statistiques comprenant des chiffres si énormes et des sources si variées qu’on touche au quasi-divin, ce qui aura été capté de vous et de moi n’arriverait même pas un faire un personnage de roman crédible.
Il faut juste espérer qu’ils ne sont pas assez allumés au googleplex pour parier sur le contraire !

 

La morale dans le référencement

 

- Gruger Google n’est pas immoral.
La pertinence selon Google, c’est une vision déformée et caricaturale de la pertinence.
Bel effort certes, mais insuffisant, trop réducteur et surtout de plus en plus pesant. Le référencement c’est justement l’art de rectifier le tir.
Avoir du respect pour l’outil, c’est faire en sorte qu’il fonctionne au mieux.

 

Si débat sur la moralité il doit y avoir dans le milieu du référencement, il se situe au niveau du site !

 

La raison d’être de ce blog est une réaction envers les dérives provoquées par les discours marketing bien pensant qu’on nous assène depuis quelques années dans le milieu du référencement. Il est temps de voir les choses sous un angle différent.

 

Etre référenceur, c’est affranchir les sites des barrières mécaniques imposées par les moteurs de recherche.
Ce blog est là pour proposer une doctrine fondée sur le pragmatisme, un pragmatisme qui rendrait de nouveau possible l’exubérance et la créativité que nous avons connu lors de la Bulle. Oui il est encore possible de dire aujourd’hui : « si votre site correspond a des normes esthétiques google-compatibles très bien… mais si votre site est hors normes tant mieux : cette différence contribuera certainement à son succès vis-à-vis des internautes. Quant aux moteurs, on en fait notre affaire ! »

 

A lundi prochain :)

 

Jeffer



Le piège du linking


Google est le moteur de recherche cible de la profession car outre son hégémonie, ce qui marche sur Google est en général aussi efficace sur les autres moteurs (alors que la réciproque n’est pas vraie).
Ainsi le St Graal du référenceur est d’obtenir une appréciation lucide du fonctionnement des moteurs de recherche en général, et de Google en particulier.

 

Google a toujours volontiers communiqué sur son fonctionnement, avec comme fer de lance le concept du PageRank.
Le PR, qui se veut une grille de notation de la popularité d’un site, est un concept parfaitement accessible à tout webmaster. En jouant le jeu du PR, les webmasters ont eu de fait à disposition un levier assez efficace pour s’assurer d’une visibilité raisonnable sur Google.
D’un point de vue de politique marketing, c’etait une idée géniale. Alors que les autres moteurs de recherche ne communiquaient absolument pas sur leurs critères de pondération, restant par la même plus ou moins incontrôlables pour le webmaster lambda, Google donnait un outil de maîtrise à qui voulait bien s’en donner la peine avec l’échange de liens (linking).

 

Si l’on part du principe que Google veut garder la maîtrise de ses résultats, il faut ne pas trop se laisser influencer par ses déclarations même si elles semblent être confirmées à première vue. Dans les indices que Google laisse à disposition des webmasters, il y a de nombreuses fausses pistes.

 

Le linking en est une.

 

En effet le linking mène le webmaster sur le terrain où Google est le plus fort : celui de l’analyse des réseaux de sites. Il lui cache par contre son gros point faible : la compréhension véritable du contenu textuel (compréhension qui ne pourra vraiment être aboutie que le jour où une IA sera mise au point de toute façon).

 

L’échange de liens est une activité sans fin qui peut occuper un webmaster tous les jours ouvrables de l’année. Des résultats peuvent être obtenus sans doute, mais optimiser un linking est beaucoup plus risqué qu’optimiser une page web.

 

- Si google ne comprend pas le texte, il peut par contre aisément définir la thématique générale d’un site. Un lien hors contexte est plus facilement détectable qu’un texte optimisé fait à l’arrache.
- L’étude d’une plage IP lui permet de réaliser quand il s’agit d’une même galaxie de sites si elle est hébergée sur le même serveur, ce qui oblige à ventiler sa galaxie à droite à gauche, créant un coût supplémentaire.
- Tous les services d’échanges de liens automatiques sont grillés depuis longtemps, et sont même pénalisant pour le site : une pénalité qui est faite sans dénonciation d’un concurrent envieux mais automatisée, à la différence d’une optimisation textuelle abusive.
- Vous pointez vers un site lors d’un échange de bons procédés bien foutus suivant une configuration triangulaire (votre site A pointe vers B qui pointe vers C qui pointe vers A) histoire d »éviter la pénalité de liens réciproques (moins bien pondérés car probablement révélateurs d’un accord tacite). Mais vous ne contrôlez pas la réputation de B et C. Si jamais ils s’attirent une « mauvaise réputation » de la part de Google, vous risquez d’en subir l’influence sans n’avoir rien vu venir.
- Risque de Sandbox pour les jeunes sites : trop de liens trop vite et vous avez le droit d’aller jouer dans le bac à sable pour kkes mois minimum

 

- Enfin, le plus important est pour la fin : pour peu que le site qui vous lie ait une notoriété googlelienne suffisamment importante par rapport à votre site, c’est lui qui apparaîtra à votre place sur vos mots clés principaux. Ce risque est décuplé si gentiment vous lui avez donné un titre et une description optimisés, comme avec l’incroyablement culotté Annuaire Webrankinfo (j’ai mis un nofollow ;).
En fait ce procédé est tellement juteux pour leurs propriétaires que l’immonde dicodunet va afficher votre site (et même ses pages en profondeur, puisqu’il repose en partie sur le fractal spam) sans vous demander votre avis.

 

Ce sont des annuaires cannibales.

 

Donc on résume :

 

- Aucune maîtrise sur les sites qui vous lient
- Activité très consommatrice en temps (temps qui serait bcp plus rentable à crée du contenu optimisé par exemple)
- et à l’issue incertaine
- Risque de cannibalisation non négligeable, en particulier pour les jeunes sites (et dans une politique orientée linking, ceux sont justement eux qui ont le plus besoin de popularité puisqu’ils partent de zéro…ce qui les rend d’autant plus vulnérables !)
- Si abus il doit y avoir, Google les détectera bcp plus facilement si c’est dans le cadre du linking que du contenu textuel.

 

Alors oui, le linking est une activité complémentaire, je ne dis pas qu’il faut s’en passer.
Personnellement, le linking ne représente que 10% de mon activité. Si ce n’est pas votre cas, alors soit vous n’avez pas les connaissances pour consacrer votre énergie à autre chose, soit vous perdez votre temps.

 

Ne pas miser sur le linking pour positionner un site, c’est s’obliger à trouver des méthodes d’optimisation qui conduisent à l’autonomie. Mieux, les changements d’algo (ou plutôt les changements de la valeur accordée aux différents critères d’évaluation de pertinence) de Google étant bcp plus importants dans l’évaluation du lien que l’évaluation textuelle, vous offrirez à votre site une remarquable stabilité de positionnement. De plus vous en garderez l’entière maîtrise.

 

Je lis souvent que le référencement d’un site est un métier à plein temps…Plait-il ?
Un référenceur qui s’occupe de 25 sites par an (échelle basse) s’occuperait toute l’année de chacun d’entre eux ?
Ce genre d’absurdité est révélateur d’un « référenceur » qui s’est fait piégé par l’illusion du « linking l’arme absolue », car en effet une politique de linking, c’est un marathon sans fin.

 

Bien sûr, on pourra objecter qu’un site avec une forte popularité entretiendra celle-ci naturellement : les liens appellent les liens. C’est négliger qu’un site visible sur Google sur des requêtes à fort trafic collectera cette popularité tout aussi naturellement.

 

Jeffer



Le Pagerank c’est tabou


Si vous faîtes partie de ce grand petit monde qu’est celui du référencement, vous avez surement du entendre ne serait-ce qu’une fois la phrase « Ce site a un bon Pagerank » ou sa déclinaison négative.
On peut l’avoir sortie à un client, ou à un collègue, voir même à son chien dans certains moments de profonde solitude (fonctionne aussi avec un chat ou un hamster).

 

Cependant, les bons référenceurs le savent, le PageRank n’est plus un facteur de positionnement pour Google. Il y a belle lurette que le grand G a déclaré que le Pagerank étant trop « bluffable » par les petits malins du net, celui-ci ne pouvait plus entrer en ligne de compte pour le positionnement d’un site.

 

Mais alors, pourquoi en parle t’on encore?

 

Hypothèse numéro 1: Retour vers le futur
Le Pagerank a été une petite révolution en soit: Une petite barre verte, graduée de 0 à 10, donnant un score à un site selon sa popularité. C’est simple à comprendre, alors qu’il y a un algorithme très savant derrière.
Quand le pagerank est sorti, on l’a tous gobé, et on l’a tellement utilisé que c’est devenu une habitude, même de nos jours.

 

Hypothèse numéro 2: Parce que le client est nul en référencement
Comme expliqué succinctement dans l’hypothèse numéro 1, le Pagerank est à première vue très simple à comprendre. Alors comment expliquer plus facilement à votre client qui n’y connait rien en référencement que c’est justement à cause de son mauvais Pagerank qu’il est mal positionné? C’est plus que tentant, non? En plus il peut le constater lui-même dans sa propre barre d’outils Google

 

Hypothèse numéro 3: Et si le Pagerank n’était pas si inutile que ça?
On nous dit que le Pagerank n’est plus utilisé pour positionner un site. Mais le Pagerank ne découle t’il pas d’une analyse poussée des liens qui pointent vers une page. Or la popularité a encore son mot à dire dans le positionnement d’un site. Le Pagerank ne serait donc pas la cause, mais la conséquence, un rejeton qui reflèterait indirectement la popularité, et qui en deviendrait donc un indicateur relativement pertinent.

 

Hypothèse numéro 4: La Google Touch
Le Pagerank est un argument commercial et une marque de fabrique de Google. En effet, à part quelques newbies et ceux qui ne savent pas ce qu’est Internet, vous ne pouvez qu’associer le Pagerank à Google. Ca lui appartient, et c’est une marque déposée. Aucune nouvelle barre d’outils Google ne sort sans sa petite barre verte de Pagerank, et à l’inverse, on est obligé d’avoir la barre Google pour avoir le Pagerank. Ceci dit, on peut se demander ou est le Pagerank dans le navigateur Google Chrome… Un oubli?

 

Hypothèse numéro 5: Tout a un Pagerank
Depuis quelques temps, il y a une mode sur Internet qui consiste à noter tout et n’importe quoi: votre établissement scolaire, vos profs, votre entreprise, votre médecin, votre garagiste… Eh oui, on donne des notes à tout, et le Pagerank, bien que créé avant ces nouveaux services, est dans l’air du temps. Alors notons!!! Un reférenceur geek pourrait même dire un jour: « On mange bien dans cette pizzeria, elle a un bon Pagerank », ou encore « cette fille a un bon Pagerank ». Et peut-être parlerons-nous un jour de Pagerank au même titre que Frigidaire ou Mobylette qui ont été en leur temps des marques… Pagerank, bientôt dans le petit Robert?

 

Hypothèse numéro 6: Et si le pagerank servait toujours? (Attention, un peu de technique…)
On sait que Google est très à cheval sur tout ce qui est économies d’énergies. Ils ont avoué il y a peu de temps fabriquer leurs datacenters pour être beaucoup plus économes en énergie qu’un datacenter classique, notamment au niveau refroidissement (à mort la clim!).
Alors on peut se demander pourquoi le Pagerank existe encore, car il faut une énorme puissance de calcul pour le traiter. En effet, le principe du calcul du Pagerank est en gros une pondération des Pageranks de toutes les pages qui lient la vôtre, Pageranks eux-mêmes calculés de la même façon… etc… Il faut donc que Google fasse ce calcul pour toutes les pages de son index (et Google sait qu’il y en à beaucoup). Mais une fois le Pagerank calculé une première fois pour toutes les pages, il faut que Google recommence le calcul en tenant compte des Pagerank qui n’avaient pas été calculés entièrement au premier passage, puisqu’il faut avoir déja les Pagerank de tous les liens pour calculer celui d’une page. Google répête donc un certain nombre de fois cette opération sur tout son index, jusqu’à ce que les scores des Pagerank finissent par rester stables. Ce n’est pas très simple à comprendre, mais ça pourrait se résumer à : De la poule ou de l’oeuf, qui était là le premier? Le Pagerank est un monstre qui se mord la queue! :-)
on peut donc légitimement se demander pourquoi Google se donne encore tant de mal pour un indice qu’il n’exploiterait pas.

 

Hypothese numéro 7: Il y a des référenceurs qui croient encore que le pagerank est un facteur de positionnement…
Encore cette semaine je suis tombé sur le billet d’un blog ou l’amalgame entre popularité et Pagerank était joyeusement fait, l’un étant synonyme de l’autre pour son auteur. Au delà de ça, il y a ceux qui croient dur comme fer que le Pagerank est encore réellement utilisé pour positionner un site. Suite à notre précédente hypothèse, ont peut effectivement se demander si ils n’auraient pas raison…

 

Hypothèse numéro 8: Larry Page aime qu’on parle de lui (et on est même pas au courant)
Beaucoup pensent que le Pagerank est comme son nom l’indique le « rang » d’une « page ». Mais que nenni! Le mot Pagerank provient du nom d’un des co-fondateur de Google, Larry Page. C’est dans son cerveau qu’a germé cette idée de Pagerank. Sans le savoir, nous pensons donc souvent à lui, et je suis sûr qu’il adore ça. ;-)

 

Ce ne sont que 8 hypothèses parmi d’autres. Mais vous aussi, vous pouvez jouer à notre grand concours où il n’y a rien à gagner en énonçant vos propres hypothèses dans les commentaires ci-dessous. Alors, pourquoi parle t’on encore du Pagerank?

 

ApocalX



Content Is King


Bon je passe toute l’argumentation qui prône un contenu de qualité, déjà parce que c’est tellement vrai qu’il n’y a pas matière à débat, mais surtout parce que c’est un poncif qu’on peut trouver sur tout forum ou blog dédié au référencement.

 

C’est en fait ce point que j’aimerai évoquer aujourd’hui.

 

En effet j’aimerai qu’on m’explique comment un référenceur qui s’occupe de kkes dizaines de sites chaque année rédige du contenu de qualité dans des dizaines de domaines différents où il n’est pas expert.

 

Certes, le référenceur peut être de bons voire de très bons conseils pour la communication rédactionnelle d’un site. Apres tout pour obtenir de bons backlinks thématisés rien ne vaut un bon contenu qui peut être cité par des sites à fort PR.

 

Que les blogs ou forums dédiés au référencement nous fassent des laius sans fin sur les vertus du contenu, soit, ils s’adressent à des webmasters dont c’est la principale activité quotidienne. Content is king, + titre & H1 is king + good links is king = l’intégralité des conseils que « les pros de référencement » prodiguent à longueur de threads et de billets depuis des années !

 

C’est quand ces bloggeurs et posteurs prétendent s’adresser à des référenceurs que là je tic.

 

N’en déplaise à nos leaders d’opinion, qui spam comme des creuvures avec la main gauche tandis que la main droite nous mime les vertus de l’intégrité vis à vis des moteurs de recherche, le référencement est l’art et la manière de manipuler le moteur à tous les coups.
Pour ce faire, il faut comprendre les notions de pertinence imposées par les concepteurs d’algorithmes.
Une fois cette « pertinence » cadrée, il faut forcer un tout petit plus la dose que le voisin pour lui passer devant.

 

L’ennui, c’est que face à des sites bien optimisés, ce petit plus peut produire des pages moches (cf La morale dans le référencement, partie blaklistage). Puisque cette optimisation est dédiée aux moteurs et non aux visiteurs, alors autant la cacher !

 

Le référencement historique, c’est l’art de répondre aux attentes des concepteurs d’algorithmes des moteurs sans altérer l’ergonomie propre au site et sans réduire le confort de l’internaute. Bref concevoir une optimisation qui sait se faire oublier.

 

L’ennui, puisque depuis kkes années les leaders d’opinion ont jeté le bébé avec l’eau du bain en assimilant « caché » et « arnaque à l’internaute » (ce qui est une fumisterie, voir encore une fois « La morale dans le référencement« ), ce n’est plus possible pour un référenceur « sérieux » de prodiguer son savoir faire (voir même de proposer des prestations) qui consiste à faire le distinguo entre visiteurs et moteurs : la page devra satisfaire les 2, et tant pis pour le webmaster qui veut se lâcher !

 

C’est finalement un des éléments qui m’a poussé à faire ce blog : dire haut et fort qu’il existe une alternative à la vision dominante et aseptisée de la profession.

 

Jeffer