Content Is King


Bon je passe toute l’argumentation qui prône un contenu de qualité, déjà parce que c’est tellement vrai qu’il n’y a pas matière à débat, mais surtout parce que c’est un poncif qu’on peut trouver sur tout forum ou blog dédié au référencement.

 

C’est en fait ce point que j’aimerai évoquer aujourd’hui.

 

En effet j’aimerai qu’on m’explique comment un référenceur qui s’occupe de kkes dizaines de sites chaque année rédige du contenu de qualité dans des dizaines de domaines différents où il n’est pas expert.

 

Certes, le référenceur peut être de bons voire de très bons conseils pour la communication rédactionnelle d’un site. Apres tout pour obtenir de bons backlinks thématisés rien ne vaut un bon contenu qui peut être cité par des sites à fort PR.

 

Que les blogs ou forums dédiés au référencement nous fassent des laius sans fin sur les vertus du contenu, soit, ils s’adressent à des webmasters dont c’est la principale activité quotidienne. Content is king, + titre & H1 is king + good links is king = l’intégralité des conseils que « les pros de référencement » prodiguent à longueur de threads et de billets depuis des années !

 

C’est quand ces bloggeurs et posteurs prétendent s’adresser à des référenceurs que là je tic.

 

N’en déplaise à nos leaders d’opinion, qui spam comme des creuvures avec la main gauche tandis que la main droite nous mime les vertus de l’intégrité vis à vis des moteurs de recherche, le référencement est l’art et la manière de manipuler le moteur à tous les coups.
Pour ce faire, il faut comprendre les notions de pertinence imposées par les concepteurs d’algorithmes.
Une fois cette « pertinence » cadrée, il faut forcer un tout petit plus la dose que le voisin pour lui passer devant.

 

L’ennui, c’est que face à des sites bien optimisés, ce petit plus peut produire des pages moches (cf La morale dans le référencement, partie blaklistage). Puisque cette optimisation est dédiée aux moteurs et non aux visiteurs, alors autant la cacher !

 

Le référencement historique, c’est l’art de répondre aux attentes des concepteurs d’algorithmes des moteurs sans altérer l’ergonomie propre au site et sans réduire le confort de l’internaute. Bref concevoir une optimisation qui sait se faire oublier.

 

L’ennui, puisque depuis kkes années les leaders d’opinion ont jeté le bébé avec l’eau du bain en assimilant « caché » et « arnaque à l’internaute » (ce qui est une fumisterie, voir encore une fois « La morale dans le référencement« ), ce n’est plus possible pour un référenceur « sérieux » de prodiguer son savoir faire (voir même de proposer des prestations) qui consiste à faire le distinguo entre visiteurs et moteurs : la page devra satisfaire les 2, et tant pis pour le webmaster qui veut se lâcher !

 

C’est finalement un des éléments qui m’a poussé à faire ce blog : dire haut et fort qu’il existe une alternative à la vision dominante et aseptisée de la profession.

 

Jeffer



Requêtes et algorithmes


Les moteurs utilisent de façon systematique les metadatas (non ce n’est pas que des metadatas du <HEAD> dont je parle, cf Historique des moteurs de recherche« ) pour compenser leurs faiblesses en analyse de texte.

 

Cependant les metadatas seuls ne suffisent pas à déterminer ce qu’est un résultat pertinent pour l’internaute (notion de pertinence qui de plus change d’un utilisateur à l’autre). C’est pourquoi les moteurs créent sans cesse de nouveaux filtres afin de diminuer la masse d’informations à traiter au pire, et pour mettre certains résultats en valeur au mieux.

 

A ce titre la formulation de la requête elle même donne lieu à une catégorisation qui va déclencher une pondération plus forte de certains critères et en atténuer d’autres.

 

Les requêtes des internautes peuvent être divisées en 5 grandes familles de requêtes.

 

- Navigationnelles : l’internaute connait déjà le nom de domaine qu’il veut atteindre, mais au lieu de la taper directement dans la barre d’adresse, il le tape dans la box du moteur. Les requêtes navigationnelles représentent entre 20 et 25% des recherches effectuées par les internautes, ceci explique sans doute pourquoi le nom de domaine reste un critère très bien pondéré par Google (le sitelink n’est qu’un symptôme d’une requête navigationnelle, n’en deplaise aux chasseurs de trustrank).

 

- Informationnelles : le but est de trouver un panel de sites répondant à un thème plus ou moins large. Ce sont les requêtes les plus courantes, celles où les ORs vont tenter de mixer dans leurs résultats sites Authorities et Hubs (et de fait c’est la niche la plus souvent exploitée par les référenceurs).

 

- Transactionnelles : l’internaute cherche à acheter, l’analyse plain text s’oriente sur les catalogues, la popularité est très bien pondérée.

 

- Solutionnelles : il s’agit d’une réponse à une question précise, la popularité est mise de coté au profit du plain text (et les forums ont souvent la vedette).

 

- Evenementielles (ou QDF pour « Query Deserve Freshness ») : alors que google a tendance à privilégier les « pages qui ont fait leur preuve », s’il arrive à déterminer que la requête concerne un sujet d’actualité il indiquera dans ses résultats des pages très fraîchement mises à jour, comme des articles de blogs ou tirés de GoogleNews.

 

En fonction du type d’expressions clés que l’on veut positionner, on peut orienter le profil de son site pour correspondre à la famille de requête correspondante.

Certes, la famille « informationnelle » est là plus fréquente et n’est pas détaillée ici. Déjà parce que se sont des requêtes qui contraignent le moteur à la diversité, ensuite parce que je ne fais pas ce blog pour donner des recettes « clés en main » ;)

 

La formulation de la requête est néanmoins une piste rarement évoquée dans les forums connus (et de leurs leaders d’opinion, malgré leurs milliers de posts au compteur), elle a pourtant tout à fait sa place dans les critères à prendre en compte lors de l’optimisation d’un site.

 

Enfin, elle ne peut être ignorée quand, pour comprendre le fonctionnement d’un moteur, on se base sur quelques expressions tests : ces expressions ne sont pas neutres ! Si a cela on rajoute le classement par thématique et les variations de pondération des différents critères qui en découle, voici qui relative nombre de tests…

 

A Lundi prochain :)

 

Jeffer



Pourquoi le blackhat a encore sa place dans le référencement


Pour ma première bafouille sur ce blog, je vais vous parler d’un sujet qui fache, qui alimentera surement la polémique dans les commentaires, et qui, comme le précédent billet de Jeffer, ne sera surement pas repris par les sites d’actus sur le référencement, à savoir le blackhat et l’éthique dans le référencement.

 

Beaucoup de personnes dans le métier prônent une façon de référencer les sites Internet qui serait parfaite dans le pays des bisounours: le référencement éthique. Pour eux, le respect des règles imposées par les moteurs de recherche (pour simplifier on dira Google) est LA condition sine qua none d’un référencement efficace.

 

Mais nous sommes dans le monde réel.

 

Le référencement whitehat peut fonctionner très bien dans 2 cas:
 - Un site déja très connu, très populaire, une référence en la matière, bref, un grand compte.
 - Si la problématique du référencement à été intégrée dès la conception du site, si le site a été construit pour être bien référencé.

 

Mais comme tout le monde ne s’appelle pas Chrésus et que tous les webdesigner ne sont pas d’excellents référenceurs, la majorité des sites ne sont pas facilement optimisables. C’est là que le blackhat intervient.

 

Le référencement blackhat, le référencement du pauvre?

 

Oui peut-être. Le blackhat, c’est en effet le côté obscure, qui parait attrayant, simple et rapide a acquérir. Et c’est le cas. Pourquoi s’embêter à modifier 200 pages d’un site, si on peut avoir le même résultat avec quelques pages satellites ou un cloaking vite fait?

 

Or, le vieil adage « Le temps c’est de l’argent » n’a jamais été autant d’actualité.

  
Et si on y réfléchi un peu, la définition même du référencement d’un site en vue de bien le positionner est de vouloir passer devant les autres sites. Et quand on mélange ça a un soupçon de capitalisme, à savoir que mieux sera positionné mon site, plus d’argent je gagnerais, l’éthique en prend un sacré coup.

 

Vous me direz, « oui, mais d’un point de vue communication, ça fait toujours bien de montrer l’exemple ». Ah! Le paraitre! Cultiver l’image… Oui c’est important, mais il ne faut pas la surévaluer. Quand le tanker d’une société pétrolière vient polluer une plage (ai-je besoin de citer des noms ?), les gens se révoltent sur le coup, mais oublient vite… Et en fin de compte on continue à acheter notre essence chez eux. Quand une société qui génère d’énormes bénéfice annonce plusieurs milliers de licenciements, on peut être outré, mais on continue a acheter leurs produits… Non, le pretexte de l’image n’est pas valable, d’autant plus que le SEO blackhat n’est compris que par un petit nombre d’initié, pas par l’internaute moyen.

 

Sur Internet c’est pareil.

 

« Oui mais c’est Google qui fixe les règle, si vous ne les respectez pas, vous vous ferez blacklister » me direz-vous.

 

Le bon référenceur, c’est justement celui qui ne se fait pas avoir. Et même si vous vous faites prendre en utilisant des techniques blackhat, est-ce si grave que ça? Il vous suffira de nettoyer votre site, de montrer patte blanche à Monseigneur Google, et on est reparti comme en 40, on peut recommencer en utilisant des techniques peut-être un peu plus discrètes… Et même si on parle de vous en disant que vous ne respectez pas les règles, qui s’en souci? 2 semaines plus tard, on en parlera plus. L’être humain à la mémoire courte…

 

On peut encore trouver de nombreuses comparaisons avec le monde réel. A notre époque on commence réellement à ses soucier de l’écologie, mais combien de gros industriels viennent se vanter que leur emballage est 100% recyclable? Ca serait pourtant un bon exemple à donner a tout le monde. Mais voila, ça coute plus cher, donc ce n’est pas une priorité. En référencement c’est pareil, vous pourrez payer des prestations éthiques plus chères qu’une prestation blackhat pour les mêmes résultats, voir de meilleurs en blackhat car plus aggressif… Au moins avec le référencement, on ne pollue pas la planète. ;-)

 

Je vois tout de suite les esprits chagrins me contredire… « Oui mais c’est Internet que vous polluez ».

 

Pas vraiment.

 

En effet, il est totalement absurde de positionner un site sur des expressions qui n’ont aucun rapport avec celui-ci. Je ne crois pas qu’il faille expliquer pourquoi, ça tombe sous le sens, car vous n’obtiendriez qu’une augmentation de traffic de visiteurs non ciblés qui ne feront rien sur votre site si ce n’est gonfler artificiellement les statistiques, utiliser votre bande passante, et ne rien acheter.

 

En revanche, quelquesoit le technique que vous utilisez pour positionner un site (blackhat or whitehat), si vous choisissez les bons mots, vous attirerez un public de qualité. Mais si vous optez pour une technique blackhat, ce sera plus simple, plus rapide, peut-être plus performant et donc moins couteux.

 

L’éthique ne dépendrait donc pas de la technique utilisée, mais de ce qu’on en fait. Ne confondez jamais le fond et la forme… Et à choisir, je préfère respecter mon prochain plutôt qu’un moteur de recherche, pas vous?

 

ApocalX



La morale dans le référencement


Ce qui me fait fuir les forums de référencement connus, ce sont les grandes gueules « anti triche ».
On pourrait résumer leur argumentation comme suit : « un référenceur qui ne respecte par la charte de Google n’est pas professionnel car il condamne ses client à se faire blacklister à plus ou moins long terme« .
Amen…dans leurs fantasmes, la réalité comme l’énoncé du problème est tout autre.

 

Il y a des pratiques autorisées par les moteurs de recherche, et d’autres qui ne le sont pas.
Violer un interdit énoncé par un moteur expose le site à un blacklistage.
OK, jusque là tout le monde suit.

 

La justification de cette manière de faire plutôt drastique est que c’est le prix à payer pour le confort de l’internaute.
Le glissement de sens vient de là, et c’est de cette confusion que va naître le débat complètement stérile entre whitehat et blackhat.

 

En effet, dans un monde idéal un site devrait pouvoir bénéficier d’une visibilité sur les moteurs qui soit en adéquation avec sa pertinence. S’il est d’excellente qualité il se trouve en première page de résultats, si il est médiocre il est relégué au loin.

 

Ce n’est pas comme cela que ça se passe, que ce soit à cause de facteurs bloquants qu’ignore le webmaster de bonne foi, comme de galaxies de sites médiocres mis en place par des spammeurs, avec comme principaux contenus de l’affiliation et des publicités (pratique tout à fait faisable en respectant la charte des moteurs d’ailleurs, la notion de confort de l’internaute est décidemment toute relative).

 

Bref les moteurs de recherche ont de nombreuses lacunes, lacunes qu’il faut combler.

 

Faire preuve d’éthique, et satisfaire l’internaute, c’est avant tout positionner un site qui apporte une pertinence en adéquation avec le positionnement obtenu.
Cette évidence est très peu dite dans les boîtes de référencement car cela revient à admettre qu’il faudrait sélectionner ses clients en fonction de la qualité de leur site web. Hors déjà en France il est interdit à un prestataire de service de refuser une prestation (bien que l’ajout de clauses prohibitives au contrat peut concrètement aboutir au même résultat), mais surtout rares sont ceux qui peuvent se permettre de refuser un client !

 

Pour un site médiocre, toutes les techniques whitehat de référencement utilisées pour le positionner ne seront pas éthiques vis à vis de l’internaute, car cela restera un site médiocre.
Un site excellent, même s’il est positionné à coup de pages satellites, restera un site excellent qui satisfera l’internaute.

 

La morale n’est donc pas dans les moyens mis en oeuvre pour que l’internaute parvienne sur le site, mais s’il sera satisfait de l’avoir trouvé ou pas, Point Final.

 

 

Le blacklistage.

 

Il y a un prix un payer à gruger un moteur, c’est le risque de blacklistage (en 9 ans de métier, je n’ai jamais eu un site de blacklisté ceci dit).
Il y a un prix à payer à ne pas le gruger, c’est de faire des pages moins lisibles pour les internautes.

 

En effet, les moteurs n’ont aucun sens de l’esthétique et leur technologie les limite dans la compréhension de tout ce qui est élément visuel en général.
Par contre un texte en début de code aura tendance à être mieux pondéré que celui en milieu de code, ce qui obéit à une logique de traitement d’information, mais pas forcement à l’ergonomie la plus propice à l’oeil humain.

 

Ainsi dès qu’un marché est un peu concurrentiel, le référenceur se doit d’optimiser un maximum les pages du site, et cela revient dans la plus part des cas à faire des pages moches.

 

Il faut donc choisir son camp :
- S’adresser à l’internaute et aux moteurs en même temps, avec le prix à payer de respecter des contraintes dont l’humain n’a que faire.
- Différencier les deux, ce qui permet au webmaster de faire ses pages pour l’internaute uniquement sans se préoccuper de ce que les moteurs réussiront à en interpréter ou non.

 

La première impression que donne le site web du client est déterminante quand à l’évaluation de son degré de professionnalisme. Avoir du trafic c’est bien, avoir un excellent ROI c’est primordial.

 

La profession de référenceur a été créée initialement pour soulager le webmaster de contraintes qui n’ont que peu de rapports avec le ROI ou tout simplement la lisibilité du site pour l’internaute.

 

Ne pas maîtriser l’approche qui rend le travail du référenceur invisible à l’internaute, c’est obliger le site client à prendre en compte des critères d’ergonomie qui ne sont pas, au sens propre du terme, des critères humains.
Entre ROI et risque de blacklistage il faut choisir (dans un secteur très concurrentiel s’entend).

 

Comment ne pas se faire blacklister?

 

Le mieux pour cela est que personne ne se doute qu’il y a eu optimisation pour les moteurs.
Le cloaking est à ce titre extrêmement confortable : il n’y a pas de redirection car c’est la page naturelle du site qui est affichée, le code source est clean puisque les éléments d’optimisation ne sont disponibles qu’aux moteurs.

 

La meilleure protection que puisse apporter un référenceur à son client est de faire un travail suffisamment subtil pour que l’idée même que des techniques d’optimisations aient été appliquées ne soit pas envisagée.

 

Seulement voilà, le cloaking nécessite une vraie veille sur les IP des moteurs, comme faire un travail subtil nécessite du savoir-faire, de l’expérience et de la jugeotte.

 

On est bien loin des pontifes « contenu + échange de lien = I win ».
J’y reviendrai dans un autre billet, mais en gros cette formule si elle peut s’appliquer à un webmaster qui s’occupe de son site à plein temps toute l’année, ne s’applique pas chez un référenceur professionnel qui positionne des dizaines de sites chaque année sur des thématiques éclectiques.
1) Il faut que son travail dure dans le temps sans qu’il ait besoin d’y revenir (donc pour le rafraîchissement du contenu c’est mort)
2) Il ignore l’échange de liens car dépendre d’inconnus censés lui donner des liens pour positionner ses clients, c’est une situation tout à fait intenable professionnellement (et surtout dégotter des liens, c’est très consommateur de temps, donc peu rentable).

 

Alors les discours « un vrai pro ne triche pas », je vous le renvoie dans la gueule messieurs les moralistes : vous n’êtes que des amateurs qui se contentent de fantasmer une profession.



Historique des moteurs de recherche


Rapide historique de l’évolution des moteurs de recherche pour expliquer pourquoi le capital de Google doit peser plus lourd que celui de Wal-Mart, Coca-Cola ou IBM.

 

Les 1ers moteurs de recherches ont été conçus dans le milieu des années 80 afin de traiter les informations numériques en Intranet (intranets militaires, bibliothécaires, universitaires puis privés).

 

Etonnament, la qualité de l’analyse plain text d’un document n’a que peu évolué depuis, car déjà à cette époque ces moteurs étaient équipés de nombreuses options avancées (recherche dans le titre d’un document, recherche entre guillemets, etc.).

 

De fait, les principaux changements entre alors et maintenant sont plutôt axés sur…l’utilisateur.

 

En effet, à leur début, il semblait normal pour tout le monde d’être formé au maniement d’un moteur de recherche. L’élaboration de celui-ci étant une chose complexe il semblait logique que son maniement le soit aussi.
Et justement, plus une requête est formulée de manière précise, plus le moteur est guidé naturellement vers des résultats pertinents : une requête d’un ou deux mots le laisse dans le flou, alors qu’une requête exploitant toutes les syntaxes avancées lui permet d’établir des filtres qui vont restreindre ses choix en terme de résultats pertinents.

 

Il faut avouer cependant que même à l’époque, et malgré ce contexte, les utilisateurs avaient déjà tendance à taper le moins de caractères possibles. Pour tout dire, bien que la qualification nécessaire pour utiliser un moteur de recherche était à l’aune de critères professionnels, si on les avait laissé faire le taux d’utilisation des syntaxes avancées de recherche auraient peut être été presque aussi bas qu’aujourd’hui (c’est à dire 0,5% des utilisateurs).

 

Cette tendance fut confirmée quand les 1ers moteurs de recherche sortirent des Intranets pour explorer et commencer à indexer le Web dans le début des années 90.
En Intranet, même si la masse d’informations à traiter pouvait être conséquente, elle était sans commune mesure avec les perspectives qu’ouvrait Internet. Et surtout, les utilisateurs devenant plus hétéroclites, les sacro saintes méthodologies à appliquer pour la recherche d’informations via un moteur de recherche furent de moins en moins suivies.

 

Une information est nommée data. Devant la multiplication exponentielle de ces datas apparut rapidement la nécessité de les classer et les catégoriser, ou en d’autres termes, de produire de l’information sur l’information : le metadata.

 

Hors – et c’était encore plus vrai à l’époque – l’élaboration de metadatas est horriblement coûteuse et, à cause de la nature par définition volatile de l’information, est un travail sans fin.
Fin 90s, les outils de recherche pensèrent se tirer d’affaire en élaborant des metadatas (meta description, meta keywords…) qui seraient remplis par l’auteur lui-même.
Le système marcha bien jusqu’à ce qu’un nouvel enjeu fasse son apparition : être bien positionné en 1ère page de résultats d’un moteur était devenu une source importante de trafic pour l’éditeur de contenu.

 

La chute d’Altavista fin 90 est tout à fait révélatrice de cette évolution.
Altavista disposait d’une syntaxe avancée si poussée que même Google n’ose pas la proposer à ses utilisateurs (comme le * à la fin d’un mot qui permettait de chercher simultanément pour l’exemple de « métaphor* » : « métaphore », « métaphores », « métaphorique », « métaphoriquement »… certes il est possible de mettre un * dans une recherche de google mais seulement dans une expression entre guillemets).
Mais Altavista pondérait aussi de manière extrêmement importante (et donc particulièrement naïve) les balises meta description et meta keyword. Ainsi, des sites ne contenant pas de manière visible les mots clés recherchés apparurent rapidement très bien positionnés dans ses pages de résultats.
Parallèlement à ce marasme arrivait un nouveau moteur qui allait utiliser un metadata inédit : « l’indice de popularité » d’une page web, aka le fameux Page Rank.

 

L’appétit de Google envers les metadatas ne s’est jamais démenti, au contraire.
Devant une utilisation destinée à un grand public qui tape en moyenne une requête composées de 2 mots clés, et surtout devant un succès si croissant que sa marque devint un verbe officiellement reconnu de la langue courante (en 2006, et malgré l’opposition acharnée de Google lui-même), Google s’est trouvé aspiré dans la même spirale infernale que le fut feu Altavista : étant la porte d’entrée incontournable que franchissent les internautes pour accéder à un site Web, les éditeurs de sites allaient tout faire pour bénéficier de la meilleure visibilité googlelienne possible.
Dans ce cadre, il était bien sûr hors de question de confier l’élaboration de metadatas aux seuls soins des producteurs de contenus, que les coûts soient faramineux ou non, et ils le furent.

 

Un exemple d’acquisition d’un metadata coûteux fut certainement en 2005, quand Google devint registrar (achetant les droits pour les extensions en .biz, .com, .info, .name, .net, .org et .pro.). Ce ne fut pourtant pas pour vendre des noms de domaines qu’il fit cette acquisition, mais juste pour obtenir un accès illimité aux API whois (qui sont limités à quelques centaines de requêtes par jour pour l’utilisateur lambda). Google acquis ainsi en un coup la connaissance des dates d’expiration des noms de domaines, de leur changement de propriétaires, de l’adresse de leur hébergeur, de la localisation géographique de ce dernier comme de celle du propriétaire, etc.).

 

On peut trouver curieux l’abondance d’outils GRATUITS élaborés par Google et qui ne semblent n’avoir aucun rapport avec les fonctions d’un moteur de recherche : google chrome, google analytics, gmail, googledoc etc… Cela l’est moins quand on considère la foule de metadatas obtenus GRATUITEMENT par le moteur de recherche sur les internautes eux-mêmes comme sur les sites qu’ils fréquentent.

 

Google dispose aujourd’hui d’une hégémonie sur l’information qui pourrait être terrifiante si nous n’avions pas leur fameuse baseline « don’t be evil » assenée suffisamment régulièrement pour nous rassurer. Et globalement, ils semblent s’y tenir (sauf en Chine). Néanmoins Google reste une société privée cotée en bourse, et nul ne sait quand ses fondateurs historiques n’auront plus les moyens d’influer sur les actionnaires.

 

Pourtant, cette masse d’informations sur l’information est la condition sin equa non de la pertinence du moteur. C’est en tout cas la principale arme qu’il leur reste face à la légitime (ou non) exigence de chaque webmaster de bénéficier de la meilleure visibilité possible. Cette pression s’est bien sur accrue par des enjeux financiers devenus énormes (en 2003, l’immonde franao.com qui, à l’aide de la base de données du non moins immonde Espotting (qui s’est racheté une crédibilité en changeant de nom pour Miva) trustait des centaines de milliers de résultats sur Google, et rapportait plus de 150k € par mois à son propriétaire).

 

Voici pourquoi les soit-disant « spécialistes reconnus des moteurs de recherche » qui se demandent régulièrement « si Google n’est pas en train de perdre de vue sa véritable vocation en se diversifiant trop », ne sont platement que des spécialistes de la promotion de leur propre image et ne comprennent rien du sujet qu’ils traitent :)

 

Cependant la principale morale à retenir reste celle-ci : on hurle au loup-big-brother devant l’intrusion de plus en plus poussée de Google dans notre vie privée !
C’est pourtant – tant qu’on ne confiera pas cette tache à une IA – le seul moyen de délivrer des résultats pertinents. La pertinence est une valeur extrêmement suggestive. La captation de cette suggestivité est le principal recours pour un programme idiot d’être à la hauteur de nos attentes.
Google n’essaye pas de créer une IA, il accumule les informations en masse pour en dégager les schémas comportementaux qui correspondent à une demande de pertinence assouvie.
Plusieurs applications concrètes découlent de cette constatation, celles-ci feront peut être l’objet d’un prochain billet.

 

La morale annexe est que – partout et tout le temps – nous générons de l’information (même malgré nous avec l’information comportementale) et cette information a une valeur marchande. Ce n’est pas propre aux moteurs de recherche, c’est propre à notre société (la fameuse ère de l’information he).

 

La maîtrise de l’information comme la maîtrise de son accès est le fruit le plus juteux de la corbeille. A ce titre la profession de référenceur est au coeur de problématiques sociales, politiques et économiques qui donnent le vertige. Malheureusement la masse de référenceurs est composée de gens si médiocres que cet aspect des choses leur passe très loin au dessus de la tête. Quant aux autres le fric reste leur priorité pour le meilleur mais trop souvent pour le pire (le spam de masse, j’y reviendrai).

 

A ma connaissance il n’existe pas de référenceur (moi compris) qui profiterait de son savoir faire comme un super héros profiterai de ses pouvoirs : pour changer et améliorer le monde.
Et pourtant, grâce à la caisse de résonance qu’est devenue le net aujourd’hui et l’assimilation de Google à un media à part entière par l’internaute lambda, un bon référenceur possède des leviers – comme jamais un être humain isolé n’en a disposé – pour influencer la société.

 

Personnellement je ne désespère pas de tomber sur une (ou des) voix que j’aurai envie d’amplifier.
Un jour peut être…

 

En attendant, rdv Lundi prochain :)

 

Jeffer



Pour bien commencer la semaine


Le monde du référencement est un monde très petit. Voilà un peu plus de 8 ans je touchais mon 1er salaire en tant que référenceur. Aujourd’hui, les circonstances me font travailler de nouveau avec celui qui m’avait formé à l’époque.

C’est sous son insistance que j’ouvre ce blog.

Il trouve que j’ai des choses intéressantes à dire. Intéressantes je sais pas, mais à dire certes j’ai matière.

 

Des référenceurs passionnés – ceux qui ont depuis longtemps porté leur regard par delà les problématiques de trafic – il n’y en a pas plus d’une trentaine en France.

Certains tiennent des blogs comme celui de Jan (Best Viewed With Googlebot – surtout si vous ne connaissez pas ce blog et que l’envie vous prend d’aller y jetter un oeil, ne cliquez pas sur ce lien ! Faites un copier/coller de l’adresse et ouvrez un nouvel onglet de votre browser : c’est un backlink d’hommage et non une tentative de léchage de bottes, à ce titre je veux rester anonyme et ne pas apparaître dans ses référents, merci d’avance), d’autres se retrouvent sur des forums privés (mon préféré restera pour moi le papa de Taggle), bref la plupart ressentent le besoin d’avoir une vie sociale dans le milieu de ref.

 

Moi pas.

 

J’ai un mépris si total envers les leaders d’opinion de la profession (vous les cocos quitte à faire un blog croyez moi vous aller souffrir) que je fuis toute personne qui serait susceptible de me renvoyer leurs propos comme des vérités absolues (et là c’est 90% de la population des « référenceurs » qui tombe). Mon goût pour la solitude et une propension à garder mes idées pour moi ont fait une partie du reste.

 

Cerise sur le gâteau, je me suis toujours méfié du linking (j’expliquerai ici un jour la froide logique derrière ce raisonnement) et je n’ai jamais perdu mon temps à essayer de positionner un site en misant sur le gain de popularité. Du coup même l’une des principales motivations qui pousse les référenceurs à communiquer et s’entraider – l’échange de liens – me fait défaut.

Le revers de médaille de l’autonomie.

 

 

Voila, je viens de confirmer ce que mon ancien – et nouveau – collègue savait déjà, ce n’est pas les sujets de billets qui vont manquer ! Rien que dans cette petite introduction je m’en suis coller 2 à traiter :

 

- le milieu du ref est peuplé de creuvures qui allient la langue de bois, l’incompétence et une irrépressible propension à l’autosatisfaction. Je ne vais pas me gêner pour maltraiter les grandes icônes de la profession et les bouffons qui les imitent.

- expliquer pourquoi le linking est le 1er et principal piège que Google a mis dans les roues de la profession (et accessoirement de tous ceux qui s’intéressent de près ou de loin au positionnement de sites web).

 

 

Mais avant tout un peu d’épistémologie des moteurs de recherche s’impose, ce sera le sujet de mon 1er billet du Lundi.

Rdv dans une semaine :)

 

Jeffer