Faut-il référencer son site le lundi ?


Le monde du référencement naturel est un monde à part, et c’est particulièrement vrai dans l’univers du NetLinking (création de liens pour votre popularité). En effet, de nombreux annuaires ou sites offrant la possibilité de déposer un lien, sont tenus par des bénévoles gérant un annuaire tel un passe temps, c’est leur petit projet web personnel !

 

Quel est le meilleur jour pour référencer son site dans un annuaire ?

De nombreux référenceurs préfèrent souvent soumettre le vendredi, sachant que les annuairistes bénévoles s’activent le week end pour valider un maximum de fiches.
En ce qui concerne les annuaires professionnels, il est probablement préférable de soumettre le lundi, afin de bénéficier de la semaine ouvrée et de maximiser les chances d’être validé rapidement.
Attention toutefois à ce que vous publiez, car Google est très vigilant sur la qualité du texte et notamment sur l’ancrage des liens, un abus de liens ancrés pourrait vous conduire droit dans le mur comme le fait remarquer Patrice Krysztofiak de https://www.sitepenalise.fr.
Il est donc préférable de ne pas s’amuser à l’apprenti sorcier avec les ancres de liens, et d’uniquement focaliser sur votre marque (« branding » dans le jargon des référenceurs).



Les 3 axes du référencement (et le 4ème bien caché).


Ce billet ne se veut pas technique, c’est juste un retour d’expérience, expérience qui s’étale maintenant sur 13 ans.

Petite précision, quand j’utilise le terme « référencement », c’est dans le sens oldschool de « positionement naturel dans les moteurs de recherche (surtout Google) ».

 

Aujourd’hui, nos leaders d’opinion définissent les 3 pilliers du référencement comme suit :

 

1) E-reputation (réseaux sociaux avec Facebook puis Twitter en pôle position)

 

2) Linking (PR, échange de liens, articles, soumission, farmlinks…)

 

3) Optimisation du site (contenu, arborescence, nombre et structure des pages).

 

La question que je veux poser dans cet article, c’est quand on a X heures de travail à consacrer au réf (ou X€ de budget, le principe est le même), quelle doit être la repartition de nos actions parmi ces 3 axes ?

 

La réponse tient en l’analyse du ratio entre le temps consacré et l’efficacité du résultat obtenu (en terme de positions naturelles, toujours).
Mais également : quelle est leur efficacité à « l’instant T » comme 1 an plus tard ?
Et enfin : quel effort d’entretien doit être fourni en continu et quel est celui à fournir de temps en temps ?

 

En bref, si je passe 1 heure à faire de l’E-reputation, 1 heure à faire du linking ou 1 heure à faire du contenu, quelle heure m’aura été le plus profitable à court comme à long terme ?

 

 

Trustrank et scoring, théorie perso.

 

Je n’ai pas la science infuse, ce que vous allez lire n’est que le résultat de mes déductions perso.

Le scoring d’un site peut être défini comme sa « note de pertinence globale ». Selon la concurrence, le scoring à atteindre pour être positionné est plus ou moins elevé. Simple… ou pas !

En effet, comme le scoring n’a pas de limite, il suffirait donc à un référenceur de booster son score jusqu’à obtenir la 1ère position. Un peu trop facile !

Afin de préserver une certaine stabilité de résultats (et se premunir des spammeurs), quelque soit le score du site, Google met des filtres avant de prendre en compte ce scoring dans sa totalité.

 

Un exemple pour être plus clair.

 

Un site tout neuf est mis en ligne, l’optimisation interne du site est mega top, avec du contenu unique qui relègue wikipedia à une bande d’amateurs (ce qu’ils sont d’ailleurs :p).

Son scoring lui permet d’obtenir la 1ère position sur les requêtes visées.

 

Très bien, mais il est tout neuf et donc pour l’instant Google ne sait pas à quoi s’en tenir. Ca peut être un super site de passionné, comme un site de bidouilleur PHP qui repompe et spin comme un porc.

Dans le doute, Google va prendre 10% de son scoring seulement pour évaluer son positionnement.

 

Au fur et à mesure que le temps passe, il va lever progressivement sa limite à 15%, 20% etc. Mais le temps qui passe n’est pas le seul facteur, il est possible (et nécessaire) d’accélerer le processus. Pour cela des liens provenant des réseaux sociaux (axe 1) comme d’autres sites (axe 2) vont être fortement utiles.

 

Ce n’est pas le splog qui est repris sur Twitter, ce n’est pas le MFA de base qui buzz sur Facebook. Ce n’est pas la moulinette à spam qui fait le tour des bloggeurs (meuh si vont me dire les BlackHats et leurs milliers de splogs à construction pyramidale et leur myriades de faux comptes FB et twitter, mais je vais y venir).

 

 

Pour en revenir à l’interrogation du début : quelle est l’action la plus rentable à court et long terme ? La réponse peut prendre la forme suivante :

 

La pertinence d’un site est son contenu, c’est sa principale source de scoring.
Mais la prise en compte de ce score est conditionné par des facteurs externes (réseaux sociaux et backlinks).

 

Donc, si j’ai 100 heures à consacrer au référencement, le plus rentable est d’en consacrer 60 au contenu, car c’est la source même du scoring, et 20 pour les reseaux sociaux et 20 pour le linking qui sont là pour sa bonne prise en compte.

 

« Ben oui mais » me sortira le vétéran du réf qui a découvert la profession par l’usage de logiciels « LFE like », juste en bombardant de liens je te positionne ce que tu veux (d’ailleurs le google bombing est la preuve la plus flagrante que seuls les liens peuvent suffire).
« Ben oui mais non », ô confrère car il faut prendre en compte ceci :

 

Qu’est ce qui dans le temps perd de sa valeur ?

 

- Contenu => quasi pas de perte (on met de côté les thématiques d’actualité). Le contenu s’aditionne, mais ne se dégrade pas.

 

- Linking => forte perte de la transmission de PR dans le temps. Résultat, effort à fournir de manière constante (dans le but de positionner s’entend). De plus, vue l’engouement des spammeurs pour les linking artificiel, Google oriente tous ses efforts de chasse aux méchants vers la pondération des liens, liens qui ne sont pas sous votre contrôle direct dans le meilleur cas de figure (liens naturels), alors que vous aurez toujours la maîtrise de votre contenu.

 

- Réseaux sociaux => liens en nofollow, retransmission du jus zéro MAIS : aide à l’indexation (délais entre un post sur un profil FB de quelques centaines d’amis et le passage de Googlebot sur la page, à peu près 15 secondes).

 

La bonne tactique (par rapport aux efforts fournis / résultats) est donc :

 

- Avoir un petit écho FB (et éventuellement Twitter, mais FB est plus efficace) pour faciliter l’indexation des pages.

 

- Avoir le linking suffisant pour obtenir la levée des facteurs bridant la prise en compte de l’intégralité du scoring : quelques liens suffisent (classique : quelques annuaires, quelques blogguers, quelques échanges de liens). Le but n’est pas en effet de positionner par le lien, juste de monter le trustrank du site (qui est par défaut de 0).

 

- Consacrer la majorité de son temps à la rédaction de contenu afin d’offrir une belle arborescence pertinente. Le contenu est la matière première des moteurs, et la source de la longue traine (qui represente normalement pour un site même bien référencé sur des mots clés majeurs 60% du trafic). Le contenu est perin, il se capitalise facilement sur la durée.

 

Voilà en substance, il y a matière à dire et à débat je n’en doute pas. Ce sera peut être à developper pour un autre article.

 

Et le 4ème axe d’optimisation dans tout ça ?

 

On en parle un peu, pas assez en tout cas, surtout si l’on considère les choses sous l’angle « effort/efficacité » ! Il s’agit de l’hébergement du site.

En effet, comme Google l’a annoncé cette année, il prend en compte aujourd’hui le temps de chargement des pages. Est ce que cela suffit à être en top position ?
Certainement pas.

 

Mais la montée du scoring pour chaque milliseconde de gagnée n’est pas négligeable et en terme de temps consacré, c’est peanuts (faut juste trouver le bon hébergeur).

 

D’ailleurs, comme c’est mon blog et que je suis chez moi, je vais me fendre d’une pub éhontée (mais méritée).
Il existe en effet pas mal de procédés pour améliorer le temps d’affichage, mais cela dépasse le rôle de l’hébergeur lambda, et à ce niveau je n’ai pas trouvé moins cher pour ce genre de savoir faire que chez DAG. Un article peut être consulté sur le site consacré à leur approche de cette problématique ici : Ameliorer les performances d affichage de vos pages Web.

 

Possible que je me fende d’un article sur « comment créer de faux profils FB avec quelques centaines de vrais personnes en amis en quelques heures ».

 

Que sera sera.

 

Bonne bourre !

 

Jeffer



La semaine des 4 Lundi


Le référenceur du Lundi fait une petite pause suite au lancement de la Spirale (cf l’Appel du Lundi). Pas le temps de tout faire les amis, désolé :x
Pause mais pas arrêt définitif bien sûr, on l’aime bien nous ce petit blog !

 

A bientôt,

 

La Team



L’Appel du Lundi


Nous savons tous pourquoi les concours de référencement portent sur des expressions improbables : si nous choisissions des expressions courantes, ca provoquerait un sacré foutoir dans les résultats !

 

C’est aussi une preuve tangible du pouvoir potentiellement immense des référenceurs.

 

Les Outils de Recherche (ORs), Google en tête, sont aujourd’hui considérés comme des médias à part entière. Un site en 1ère position bénéficie plus que d’un fort taux de clic, il bénéficie surtout d »une « crédibilité googlelienne » qui représente une valeur ajoutée énorme. Nous manquons du recul historique pour peser les conséquences de ces nouveaux facteurs – les moteurs de recherche, à la fois bibliothèques et bibliothécaires – dans notre noosphère.
Une chose est sûre, ces outils provoquent un phénomène social tout simplement sans précédent dans notre histoire.

 

En plus d’un boost énorme quant à la circulation d’idées ou d’informations, les moteurs de recherche représentent l’opportunité pour les « petits » d’avoir une audience jusqu’alors inaccessible. Particuliers aux opinions pertinentes, petites entreprises innovantes, artistes passionnés dont l’atelier est au fond du garage… peuvent ambitionner un impact sans commune mesure avec leur condition.
Et plus Internet entrera dans nos moeurs au quotidien, plus le Web sera présent dans les foyers, plus les enjeux autour du contrôle de cette visibilité passeront du simple aspect mercantile auquel en tant que référenceurs lambda nous sommes confrontés, à une implication sociale, voire politique.

 

Les mouvements artistiques underground impliqués, que ce soit en peinture, musique, danse ou littérature n’ont bien sûr pas attendu le net pour s’exprimer avec force. En fait, ils ont plutôt raté le coche du net car souvent chez les passionnés, les problématiques propres au net et notamment aux ORs leur passent très loin au dessus de la tête.
Aujourd’hui sur le net, il y a à notre disposition de véritables chefs d’oeuvre, que ce soit des écrits, des dessins, des courts métrages, des machinimas… La culture Geek notamment est extrêmement dynamique, que ce soit au niveau créatif ou simplement comme révélateur de talents (il y aurait-il eu un phénomène Kamini sans les Geeks pour diffuser son buzz?).

 

C’est en fait extrêmement surprenant qu’un cercle de référenceurs au service de ces énergies créatives n’existe pas déjà ! Cependant tout reste à faire…

 

Le référencement se prète à merveille à l’échange de bons procédés. Pourquoi ne pas proposer à un artiste de le référencer en échange d’un de ses tableaux ? Pourquoi ne pas organiser une soirée musicale en échange d’optimisation de sites de petits groupes talentueux ? Pourquoi ne pas s’offrir le plaisir de mettre en avant des opinions – même dérangeantes – qui seraient susceptibles de faire avancer les choses ?

 

Avez-vous déjà entendu parler du Taux de Contributions Sociales Maximum, du pic de Hubert, de l’argent dette, des manifs de droite ? Savez-vous que l’un des centres les plus actifs niveau artistique sur Lyon, la demeure du Chaos, est aujourd’hui menacée par la Mairie et que leur principal espoir réside dans leur pétition en ligne ? Avez vous déjà flashé sur des artistes contemporains dont la seule vitrine est leur site pas SEO friendly du tout, ou du groupe de musique franchement bon qui offre ses MP3 sur leur site perdu au fond de la toile ?

 

Il y a des gens, des idées ou des créations, qui méritent d’être vus, mais souffrent d’un tel décalage entre ce qu’ils savent du net et sa réalité d’aujourd’hui qu’ils resteront dans l’ombre au détriment de tous.

 

Nous référenceurs, avons le pouvoir de jouer un rôle actif et déterminant dans les courants artistiques et d’opinions d’aujourd’hui. Nous avons le pouvoir de mettre à leur service des moteurs de recherche transformés en véritables moyens de communication.

 

C’est pourquoi nous aimerions créer une communauté discrète, communauté qui se proposera de référencer, sans contrepartie ou via un système de troc, les sites de son choix. Elle organisera éventuellement quelques IRL dans l’année et s’organisera autour d’un forum 100% privé, dans lequel seront précisés et débattus les moyens à mettre en oeuvre, par qui, et envers qui.

 

Bref, le but est de créer une sorte de minorité agissante de référenceurs au service d’autres minorités agissantes de notre choix.

 

Si cela fonctionne bien, alors à terme il y aura création d’une association nommée SPIRALE (ce n’est pas un acronyme : quand on est au centre de la spirale, tout vient à nous naturellement sans avoir besoin d’aller le chercher, ce qui est le principe de base d’un bon référencement ;). Mais on n’en est pas là.

 

En fait, pour l’instant, on en est nulle part :)

 

Le but de ce billet est justement de lancer l’idée, de voir si elle plairait à certains d’entre vous !

 

Alors, tentés par l’aventure ? Réagissez ici ou par mail sur spirale.du.lundi@gmail.com

 

Jeffer



Exclusif: gagnez des positions sur Google


Voici une petite info provenant tout droit d’une source interne de Google Inc. Google est plutôt avare en informations, son algorithme est limite « secret défense ». En fait chez Google l’accès est très très sécurisé. On ne peut même pas avoir au téléphone certaines personnes, on vous répond qu’ils n’ont pas le droit de vous les passer. On ne sait jamais, des informations pourraient filtrer involontairement…

 

Mais cette fois-ci une info a tout de même filtré, et on a pêché du gros, du très gros…

 

Autant vous le dire tout de suite, profitez-en vite, car il y a de fortes chances que ce blog disparaisse de Google suite à ces révélations. L’astuce en elle-même risque de ne pas fonctionner très longtemps, Google est très pointilleux avec ce genre de chose, raison de plus pour ne pas trainer…

 

Bien entendu nous déclinons toute responsabilité sur ce qui pourrait arriver à votre site si Google se fâche.  C’est à vos risques et périls.

 

Mais avant tout, il faut expliquer comment Google positionne une page web sur un mot ou une expression.

 

Quand le robot de Google passe sur votre page, il va extraire différentes informations, mais la plus importante est le mot. Ou plutot LES mots qui sont dans votre page.  Le phrase biblique « Au commencement était le Verbe » n’aura jamais été aussi vrai…

 

Ainsi, Google fait une liste des mots contenus dans votre page, et va attribuer un score à chacun, suivant certains critères tels que:

  • le mot est dans le titre
  • le mot est dans une balise H1
  • le mot est dans un lien
  • et bien d’autres
  • et même des critère hors sites comme la présence de mots dans les liens pointants vers votre site. Nous n’en parlerons pas ici pour ne pas compliquer d’avantage cet article.

En revanche, nous ne connaissons pas le détail des points gagnés pour chaque critère.
Chaque mot de votre page obtient donc un score suivant les critères définis par Google.
C’est grâce à ce score que Google positionnera votre page lorsqu’une requête sera tapée.

 

Oui mais, me direz-vous, je ne tape pas que des mots uniques dans mes requêtes. C’est tout à fait exact, et les référenceurs vous diront que l’algorithme de recherche de Google est différent pour les requêtes à mots uniques et les requêtes à mots multiples, et pour cause: Google fait une moyenne des scores des mots de la requête, en la pondérant notamment par rapport à leur proximité dans la page du site.

 

L’information qui a transpirée de chez Google concerne justement une méthode pour booster le score de plusieurs mots individuellement. Cette méthode est apparemment utilisée pour des tests de positionnement en interne mais peut actuellement fonctionner pour tout le monde. pour le moment…

 

Toujours selon cette source, vous pourrez faire gagner 50 points pour chacun des mots que vous choisirez de favoriser. Cette info n’est pas très utile en soit car nous ne savons pas combien de points il faut en moyenne pour être premier sur un mot. Cependant d’après nos tests, cela suffit pour gagner au moins quelques positions.

 

Voila comment faire:

 

Chez Google on adore les nombres et les calculs compliqués, les ingénieurs ont donc défini une méthode de marquage à base de nombres premiers, à insérer tout simplement dans les balises metas de votre page. Les nombres premiers sont les nombres entiers qui ne peuvent se diviser que par eux-mêmes (voir définition Wikipedia)

 

Mais attention, les règles sont assez strictes, voila comment ça marche:

 

D’abord, l’astuce ne peut fonctionner qu’avec 9 mots au maximum pour une page. 9 est le nombre de nombres premiers jusqu’à 26. Pourquoi 26? parce que c’est le nombre de lettres dans l’alphabet bien sûr!

 

Vous allez créer les balises metas suivantes:
<META NAME= »g-b-2″ CONTENT= »mot1″>
<META NAME= »c-3-g » CONTENT= »mot2″>
<META NAME= »g-e-5″ CONTENT= »mot3″>
<META NAME= »g-7-g » CONTENT= »mot4″>
<META NAME= »g-k-11″ CONTENT= »mot5″>
<META NAME= »m-13-g » CONTENT= »mot6″>
<META NAME= »g-q-17″ CONTENT= »mot7″>
<META NAME= »s-19-g » CONTENT= »mot8″>
<META NAME= »g-w-23″ CONTENT= »mot9″>

 

Chaque balise meta correspond à un nombre premier associé à la position d’une lettre de l’alphabet. Ainsi pour la première balise, b est les 2ème lettre de l’alphabet.
on rajoute ensuite la lettre g une fois sur 2 à droite, un fois sur 2 à gauche. G comme Google visiblement…

 

Mot1, mot2, etc doit être des mots uniques, et doivent OBLIGATOIREMENT être déjà présents dans le texte de votre page.

 

Pour finir, il faut rajouter une ligne qui valide les balises meta précédentes

 

<META NAME= »C » CONTENT= »C »>

 

Le name= »C » signifie checksum (c’est une sorte de code de vérification) et le content= »C » est la somme des nombres premiers que vous avez utilisé, en chiffres romains. Comme par hasard, le total des 9 premiers nombres premiers donne 100, ce qui fait « C » en chiffre romain. 100 tout pile, C, comme cent et comme checksum… Ils sont forts chez Google!

 

Si vous n’avez pas utilisé les 9 mots, il vous faudra faire la somme des nombres que vous aurez utilisé et la mettre en chiffre romain dans la balise meta « C ».

 

Nous n’en avons pas eu confirmation par notre informateur, mais d’après nos tests, nous avons l’impression qu’utiliser moins de 9 mots favorise encore plus les mots choisis. Il peut alors être intéressant de ne mettre que 1 ou 2 mots bien ciblés, et adapter de checksum en fonction.

 

Nous espérons que cette astuce vous sera profitable tant qu’elle fonctionnera. A lundi prochain si nous sommes toujours référencés dans Google…

 

ApocalX



MFA mode d’emploi


Aujourd’hui je vais vous expliquer comment est fabriqué un MFA.

Pour ceux qui ne suivent pas au fond de la classe, je rappelle ce qu’est un MFA.

 

MFA est l’acronyme de Made for Ads ou de Made for Adsenses. Concrètement c’est un site Internet créé uniquement dans le but d’afficher des bannières publicitaires. Le maître-mot pour ce genre de site est automatisation: Pour être rentable, il faut passer le moins de temps possible à gérer le site. Celui-ci doit pouvoir vivre sa vie tout seul, ou presque, et travailler pour son webmaster (et surtout lui faire gagner de l’argent grâce à ses recettes publicitaires).

 

Il fut un temps ou il suffisait de repomper les pages de résultats d’un moteur de recherche et en faire automatiquement une page de votre site pour être positionné sur certains mots-clés, en y insérant bien sûr des liens sponsorisés. C’était l’époque Franao pour ceux qui s’en rappellent… Certains autres pseudo-moteurs de recherche n’ont pas hésité à faire indexer à la volée leurs propres pages de résultats dans Google, prétextant que ce n’était pas leur faute si Google indexait tout ce qu’il trouvait… Et le robots.txt, c’était pour les chiens? Le pire, c’est que ça marchait très bien, ces sites étaient presque aussi bien positionnés que l’est Wikipedia de nos jours.

 

Mais devant ce manque de pertinence flagrant Google à mis le holà. Il arrivait  en effets à certains internautes de taper une requête sur Google, pour trouver une page de résultats d’un MFA, qui lui même affichait des pages de résultats d’un autre MFA, etc… Ah bon, ce n’est pas pertinent?

 

Depuis, il n’est plus aussi facile de faire un MFA, ou presque… Un bon MFA de nos jours demande un minimum (mais vraiment un minimum) d’intervention humaine pour être efficace.

 

Prenons un exemple d’une bonne page de MFA. (toute ressemblance avec un site existant ou ayant existé ne serait que fortuite, ou presque…)

 

Une bonne page de MFA est avant tout une page bien optimisée en terme de référencement, sur un mot-clé ou une expression en particulier. Une bonne balise title, un H1, etc… sont donc de rigueur;

 

Une bonne page de MFA, c’est aussi des bannières pub placées de façon assez agressives, à la limite des conditions d’utilisation du programme Adsenses, et parfois bien au delà…

 

Une bonne page de MFA comporte maintenant un minimum d’intervention humaine qui peut prendre la forme d’une simple phrase ou d’un paragraphe. C’est ce contenu original qui fera la différence, car Google fait des analyses par blocs de texte, et est capable de savoir si tel ou tel morceau est original, unique, ou pas. Une page qui a un très faible pourcentage d’originalité textuelle n’a que peu de chance d’être bien positionnée.

 

Une bonne page de MFA, ce n’est bien sûr pas que du contenu original, c’est aussi toute une partie d’automatisation pour récupérer du contenu à la volée via d’autres sources, afin de constituer une page qui pourrait sembler intéressante. Ainsi dans les sources possibles on trouve fréquemment:

  • les résultats d’un moteur de recherche
  • La base de données d’un annuaire tiers
  • Des morceaux d’articles Wikipedia
  • Des flux RSS puisés un peu partout, pas souvent avec l’autorisation de leurs propriétaires
  • et autres récupérations sauvages de contenu…

Cela pose bien sûr des problèmes de légalité, notamment au niveau droit d’auteur. Automatiser la récupération de contenu sans contrôle peut se retourner contre vous, comme on l’a vu avec quelques procès. Il vous faudra donc garder un œil sur votre MFA pour en garder le contrôle, et qu’il ne vienne pas se positionner en 1ère Position sur le nom d’un autre site, devant le dit site. C’est très mal vu ;-)
Certains MFA, arguant d’une mauvaise foi incroyable, argumentent même en disant que les flux RSS qu’ils récupèrent devraient être honorés d’être relayés ainsi… Après tout si certains webmasters y croient, pourquoi pas…

 

Ainsi, Une bonne page de MFA pourrait ressembler à cela en simplifiant un peu…

  • Mon mot-clé entre balises H1
  • Une bannière pub placée juste sous le titre en H1 pour qu’on puisse croire qu’il s’agit du contenu de la page en relation avec le titre.
  • Quelques lignes de texte original, comme par exemple une définition maison du mot-clé, une question en rapport avec le mot-clé, ou n’importe quel autre texte original pouvant s’y rapporter.
  • Un peu de contenu automatisé, prenons par exemple des actualités prises via des flux RSS, toujours en rapport avec le mot-clé.
  • Une autre bannière pub, placée ici ou sur le côté pour être moins « agressive ».
  • De nouveau un peu de contenu automatisé, comme une liste de sites via un moteur de recherche ou via la base de données d’un annuaire, histoire d’afficher les liens externes « intéressants »

Vous ajouter un peu de graphisme pas trop moche histoire de rendre le site attrayant, un bon maillage entre les pages, et vous voila avec un bon petit MFA qui ne demande plus que quelques liens externes pour pouvoir décoller…

 

ApocalX



Prime de fraîcheur, le faux ami


Ah la fameuse « prime de fraîcheur », ce phénomène courant affectant les jeunes sites : peu après leur prise en compte par Google, ils se voient obtenir de bonnes positions sur leurs mot-clés principaux… mais seulement sur une courte période ! Ensuite, ils sont relégués en 30ème ou 40ème position, quand ce n’est pas pire.

 

En fait, le terme « prime de fraîcheur » est un faux ami, le terme exact devrait être « période de test« .

 

Quand Google n’a aucun moyen de jauger de la qualité d’un site par son trafic réel (pas de Google Analytics sur le site), il peut se permettre d’avoir une idée assez précise du comportement des internautes pour un jeune site. En effet un jeune site, dans la très grande majorité des cas, voit sa première source de trafic provenir de Google (ou alors il y a un problème dans l’optimisation du site). Google peut donc (au début en tout cas) avoir une idée assez précise du comportement type des visiteurs par une manip’ assez simple : lors des 3-4 premières semaines, il y a une période (ou il peut y en avoir une, ce n’est pas systématique – possible que ce ne soit le cas seulement si le site est suffisamment optimisé pour etre un candidat potentiel sur des positions sérieuses) où il va booster le site sur les positions visées.
Par cette mise en avant, Google assure sur cette période un trafic tres correct sur le site. Et si il n’a pas accès aux logs de ce dernier… il a accès aux clics sur ses propres résultats :)
Il peut ainsi (peut être) faire une pondération avec le taux de rebond et aussi (plus sûr) évaluer si quelques liens vont être crées « spontanément » via cet afflux de trafic.

 

Le site est ensuite remis en file d’attente (pour un site bien optimisé, c’est souvent en 4ème page de résultats qu’on le retrouve).

 

Ces deux facteurs – taux de rebond et BLs – pendant la période de mise en avant semblent après tests influencer la pondération future du site. Sans rentrer dans les détails de nos expériences (j’ai tenté, ça tournait au roman), ventiler de bons BLs et assurer un trafic d’internautes intéressés via les réseaux sociaux, MSN-like ou mails lors de la « période de test », permet au site de revenir rapidement dans les 1ers résultats avec une remarquable stabilité.

 

C’est en tout cas ce qu’il semble ressortir des différentes politiques de lancement de site que nous avons mises en place, où par ce procédé nous avons réussi à positionner de manière stable un site à partir du 28/01 alors que ça mise en ligne datait du 03 Janvier. 25 jours, c’est un record !

 

Si vous lancez un nouveau site, ne grillez pas vos précieux BL trop tôt, attendez la mal nommée « prime de fraîcheur » et faites alors en sorte de donner les bons signaux, ceux du succès : du buzz et des liens. La période de test ne dure que quelques jours, une bonne connaissance de la fréquence de rafraîchissement de vos référents sera donc un plus.

 

Encore une fois, il s’est écoulé 15 jours entre ce billet et le dernier :x
Beaucoup de boulot en ce moment, autant pour moi que pour Apocalx, EasyGuy et Refmond… je vous rappelle que ce blog peut être aussi votre tribune (à condition que cela ne concerne pas le nouveau logoday de Google ou autres conneries insignifiantes) ! N’hésitez pas à nous contacter et nous proposer votre prose.
Au passage, je salue bien bas les blogueurs qui arrivent à poster un billet par jour, respect, vraiment ! Moi 1 par semaine et je m’essouffle…
Vous faites comment les mecs ? 0o

 

Jeffer



Je n’apparais pas sur Google


En fait le titre de cet article devrait être : « mon super site qui a une ergonomie (au choix ou tout réuni) ludique, pratique, conceptuelle, orginale, intuitive, n’apparait pas sur Google ». Car cet article s’adresse à vous !
Mais bon ca faisait un titre un peu long :)

 

Cet article ne s’adresse par contre pas à la foule des sans imagination qui ont conçus des sites de merde, simplement parce qu’à force de vanité imprudente de leurs potes ils ont finalement réalisé que oui, il y avait un paquet de blé à se faire sur le net, et que oui on pouvait aussi parvenir à en gagner en procédant comme un porc.

 

Vous avez un beau site mais pour Google c’est une page blanche (ou quasi). Vous vous adressez à une boite de référencement la bouche en coeur et voici ce que vous allez entendre : « facteurs bloquants ceci…non prise en compte cela…faut refaire vot’site en prenant compte des contraintes des moteurs de recherche mon bon monsieur (ou ma bonne madame, pour ma bonne demoiselle me contacter).
Et ca, sans un trémolo dans la voix : par ce genre de réplique, notre référenceur est persuadé d’être pro :x

 

Et voilà comment au fur et à mesure le « beau web » ainsi que tout ce terreau culturel qui nous permet de saisir le sens des choses de manière intuitive (car humaine) disparaît aujourd’hui au profit d’un formatage de l’information imposé par le diktat des moteurs.

 

On peut objecter qu’il y a des sites superbes très biens positionnés par les ORs. Certes, on peut faire de beaux sites search friendly. Mais si comme moi vous êtes un passionné d’art et que vous adorez surfer sur des sites d’artistes (peintres, photographes, sculpteurs…), alors vous savez qu’il existe des schémas de sites qui n’ont rien à voir avec l’ossature des sites « compatibles moteurs ». Ces sites sont très, très, très nombreux, et parfaitement invisibles via les requêtes google type.

 

En fait, quelqu’un qui se sert uniquement de Google pour trouver des sites n’a aucune idée de l’ampleur de l’exclusion concernant les sites de gens qui ont une vraie sensibilité visuelle. L’artiste en Art graphique est la 1ere victime de cette exclusion. En effet celui-ci veut que sa vision esthétique soit présente aussi dans la présentation des ses oeuvres sur le Web. Mais même si son talent lui permet d’être intuitivement compris par l’être humain, les ORs sont dans la majorité des cas complètement largués.

 

C’est logique, on ne peut pas leur en faire reproche.

 

Mais si ce qui compte est la satisfaction de l’internaute, on se doit de pallier aux déficiences intrinsèques des ORs afin de permettre au beau web de bénéficier lui aussi de sa place au soleil.

 

C’est pourquoi je reviens à la charge aujourd’hui pour t’annoncer très clairement à toi, qui lit ces lignes et qui est dans le cas de figure que je viens de décrire, qu’il existe des référenceurs pro dont le boulot est de t’affranchir complètement des problématiques de visibilité de ton site sur Google.
Lâche toi, surprend même ton visiteur si tu l’oses ! Les bots ne sont pas des visiteurs comme les autres et à ce titre ils bénéficieront d’un traitement à part.

 

Ami référenceur « éthique », pose toi les 2 questions suivantes :
Une page a un contenu très intéressant. Néanmoins l’ergonomie propre à sa thématique, qui facilite la bonne compréhension de ce contenu pour l’internaute, n’est par contre vraiment pas optimisée en terme de référencement. Maintenant tu cloak la page non pas pour changer quoique ce soit au contenu, mais juste pour changer la disposition de ce contenu afin que sa présentation soit optimisée pour les moteurs. Une analyse en terme de « nombre de mots de la page » ne décelera aucune différence entre les deux versions, c’est juste leur disposition qui a changée.
1) Auras tu enfreint la morale qui dicte les guidelines de Google ?
2) Le contenu qu’a l’internaute sous les yeux aura-t-il perdu de sa qualité ?

Ni l’un ni l’autre.

 

Il existe des référenceurs pro qui cloak en toute impunité depuis des années. Et ne croyez pas qu’il s’occupent de vulgaires MFA de plusieurs dizaines de milliers de pages, car là le mot « impunité » est certainement de trop. Mais un bon et beau site ne fait simplement pas l’objet d’un spam report (surtout qu’avec un cloaking bien fait il n’y a rien de tangible à reporter).

 

Alors, toi qui a un beau site et dont les seules visites sont les tiennes et celles que tu obtiens en offrant ta carte de visite, laisse toi tenter, vient goûter à cette formidable caisse de résonnance qu’est l’Internet français 2009, et ce sans compromis !

 

Pour franchir le pas de suite : tu vas sur la page « à propos » et tu contactes les contributeurs de ce blog. On ne te promet pas d’avoir le temps à te consacrer nécessaire, mais on pourra toujours t’orienter vers des bons qui l’ont.

 

A la semaine prochaine j’espere, 2 fois que je rate un Lundi ces derniers temps, je vais tacher à ce que ca ne devienne pas une habitude.
Sinon on se retrouvera sur referenceurd1lundisur2.blogue.fr, mais ca fait un ndd peu long :)

 

Jeffer



L’odeur de l’internaute


Pas de billet la semaine dernière pour cause de gastro (je vous passe les détails?).

 

Ce billet n’aurait pas été possible sans les informations que m’a communiqué il y a quelques temps Turillo : merci vieux briscard, et au plaisir de te lire peut être un jour ici même :)

 

L’odeur de l’internaute serait un concept à l’étude depuis kkes années déjà au Googleplex.

 

Il est possible qu’il en soit toujours au stade théorique, ou testé seulement de manière ponctuelle, ou encore mis en application sur le .com seulement. Ceci reste cependant un point de vue intéressant pour appréhender comment Google envisage de réussir sa quête en matière de pertinence des résultats.

 

Google catégorise tout ce qu’il peut afin d’améliorer l’efficience de sa pondération et d’économiser ses ressources. Il catégorise les sites, il catégorise les requêtes, il catégorise les liens…il lui manquait de catégoriser l’internaute.

 

Quelques rappels avant d’aller plus loin :

 

- Google developpa ses algos «  »Query Deserve Freshness » suite à la gigantesque panne de courant qui frappa New York en  2003. En effet les Googleboys notèrent un afflux sans précédent de requêtes (en rapport avec la panne de courant sur la Cote Est) jusqu’alors peut tapées. Ce genre de pic ne peut être interprété que d’une façon : il concerne un événement d’actualité majeur (ce qui implique de fournir des résultats tirés de sites d’actualités, de blogs et forums à l’internaute plutôt que des annuaires ou des wiki-like).

 

- Google dispose en effet aujourd’hui de statistiques de masse qui lui permettent d’avoir une vision sur la noosphère comme jamais une société privée n’en a disposé. De ces milliards de requêtes, des innombrables metadatas qu’il collecte via ses outils gratuits (cf Historique des moteurs de recherche), les googleboys peuvent aujourd’hui déterminer les grands schémas comportementaux de notre inconscient collectif. Les gros chiffres ne mentent pas.

 

- Webmasters, Google ne vous fait pas confiance, et ne fait pas confiance à votre site. Conséquence, il préfère écouter ce que les gens disent de votre site plutôt que ce que votre site dit de lui même. De plus, il peut aujourd’hui juger votre site à l’aune de ces vérités statistiques, rendues fiables par son hégémonie.

 

Néanmoins, faire du cas par cas avec des données de masse, c’est un peu comme sculpter une figurine avec un marteau pilon. La grande majorité de nos requêtes sont suffisamment spécifiques pour demander une analyse comportementale subtile.

 

C’est là que le concept de l’odeur de l’internaute intervient, et il se résume très simplement :

 

Toutes les informations que Google arrive à collecter sur nous sont anonymes mais sont quand même tagguées via un numero d’identifiant unique. Google peut ainsi mettre en place une grille d’analyse de différents profils d’internaute : l’internaute féru d’High tech, de cinema, de cyber-achat etc.
Une valeur plus ou moins élevée est alors donnée à l’internaute en fonctions des profils établis. Les sites que l’internaute visitera bénéficieront d’une partie de cette valeur.
Cette « odeur » s’estompera avec le temps, mais sera réactualisée si cet internaute revient régulièrement sur le site.

 

Alors, après le PR des sites, le PR des internautes (voire Trustrank) ?

 

Une chose est sûre : même la méthodologie la plus solide pour analyser les résultats (pour une bonne base : des algorithmes et des thématiques) est mise de temps en temps en défaut par des sites positionnés de manière incompréhensible. Certains évoquent un facteur purement aléatoire pour expliquer ces incohérences, mais peut être est-ce justement ces données comportementales – gros volume de données donnant une moyenne fiable et « odeur de l’internaute » – qui constituent ces variables qui nous échappent ?

 

Il reste cependant très dur d’en évaluer l’impact, et il est quasi impossible de déterminer si cet impact est systématique, ciblé ou ponctuel.
De plus, à part essayer d’obtenir et de fidéliser un nombre conséquent d’internautes leader d’opinions, au niveau magouilles pour en tirer un bénéfice en terme de positionnement, il n’y a pas grand chose à explorer.
En conclusion, on pourrait de prime abord penser que pour un moteur de recherche, la quête de la pertinence est un effort de R&D toujours plus important pour permettre un jour à un programme de tirer du sens d’un texte. Néanmoins il semble probable que seule une Intelligence Artificielle pourrait se montrer réellement à la hauteur de la tâche.

 

« Heureusement » face à la propagation de l’Internet dans les pays industrialisés ou en fort développement, et le fait que tout y est potentiellement archivable et analysable, une alternative s’est offerte pour reconnaître l’information signifiante sans avoir à la comprendre.
Pour cela Google dispose de deux leviers : les données sur le comportement humain via des statistiques de masse, et une capacité de profiling très aboutie.

 

En clair, Google pourrait bien être tenté de renoncer à comprendre pour singer l’humain qui comprend…et dans l’état actuel de notre technologie il a peut être raison.

 

On peut continuer à crier au loup sur cette volonté d’en savoir toujours plus sur nos us & coutumes de la part du grand G, c’est d’ailleurs devenu un sport international. L’objectif est pourtant noble : avoir un outil de recherche pertinent.
Certes il y a tous les enjeux d’une publicité de plus en plus ciblée en filigrane, mais à ce niveau nous devrions plus nous offuscer de ce genre de chose.

 

Bonne semaine à tous et à toutes !

 

Jeffer

 

[Pour ceux qui sont interessés par l'Intelligence Artificielle, un document inédit de Jean Philippe de Lespinay vous passionnera sans doute : l'Intelligence Artificielle raisonnante : fini les intermédiaires entre utilisateurs et ordinateurs.]



Des algorithmes et des thématiques.


Suivant le chiffre d’affaire généré par un secteur, l’environnement concurrentiel des mots clés qui y sont associés varie de « quasi inexistant » à « saturé ». En fonction du poids de la concurrence, une optimisation plus ou moins poussée est nécessaire.

 

Il est normal que les ORs n’adoptent pas les mêmes grilles d’analyse pour (par exemple) des sites de vente en ligne et des sites universitaires, et n’appliquent pas le même traitement dans un cas ou dans l’autre. Ce qui sera bien vu ici pourra être sans conséquence voire pénalisant ailleurs.

 

Pour le référenceur, il s’agit donc de déterminer qu’elles sont les moyens nécessaires à mettre en oeuvre, ce qui se fait en fonction de la concurrence, et selon quels procédés ils seront appliqués, ce qui se fait selon la thématique.

 

Les actions effectuées sur le site auront pour but de lui faire acquérir un statut d’authority via l’optimisation de l’arborescence, des pages et du contenu. Vient ensuite le travail sur sa notoriété qui sont les actions hors site : la soumission auprès de certains annuaires, la création éventuels de blogs, le recours à son propre réseau de site, l’échange de liens…

 

Au fur et à mesure du temps et de l’expérience, le référenceur peut s’essayer à lister les grandes thématiques (tourisme, vente en ligne, sport, actualités, sexe, communauté, etc.) avec leurs spécificités. Pour ce faire une grille de lecture des résultats lui est nécessaire.

 

En effet, il ne suffit pas de plagier le site positionné en 1er dans les résultats, Google préférant donner des résultats variés. Pour avoir un site « bien vu » par Google, il faut procéder à une étude sérieuse des 20 premiers résultats donnés sur un grand nombre de requêtes afin de dégager deux familles de sites :
- ceux dont on serait satisfait de voir la présence si on était Google, et
- ceux qui n’ont rien à y faire
Les sites de la seconde catégorie peuvent mettre en évidence les failles des algorithmes qui les ont positionnés. Ils seront à étudier très minutieusement.
Les sites de la 1ere catégorie offriront du contenu à reprendre (et à re-rédiger) en cas de contenu faible de la part du site client.

 

 

Au départ, pour obtenir ce « grand nombre de requêtes », il faut donc un thésaurus le plus exhaustif possible de l’activité du site, sa thématique et ses objectifs de communication.

 

C’est à partir de ces informations que va commencer l’appréciation du scoring à atteindre pour réaliser les objectifs de positionnement.

 

 

Les différents critères d’évaluation du scoring : l’approche globale.

 

Le nombre d’occurrences sans les guillemets.

 

C’est un indicateur grossier, car pour peu que les deux mots clés de l’expression soient usuels, le nombre d’occurrences peut être très élevé sans pour autant dénoter d’un environnement concurrentiel difficile. A l’inverse certaines occurrences faibles mais sur un marché réduit et précis vont peut être renvoyés peu de résultats mais qui seront tous tirés de sites optimisés pour les moteurs. Ce critère seul ne suffit pas, il n’est là que pour permettre un ratio avec le critère suivant.

 

Le nombre d’occurrence avec les guillemets.

 

Ici par contre tous les résultats indiqués peuvent être considérés comme des concurrents directs, et même un chiffre aussi réduit que quelques dizaines de milliers correspond à quelques dizaines de milliers de pages à dépasser, ce qui peut s’avérer ardu.

 

Le ratio entre le nombre d’occurrences sans les guillemets et avec.

 

Cela donne une idée du « bruit » autour de l’expression. Plus le ratio est élevé et plus le bruit est important : les résultats donnés ont bien les deux mots clés de l’expression dans leurs pages, mais ces mots sont éloignés l’un de l’autre. Le fait de les avoir simplement contigus sur le site client sera bien sûr un avantage.

 

La présence de nombreux annuaires dans les résultats.

 

Qu’il y ait 1 ou 2 annuaires dans les résultats est normal, au dessus c’est un signe que la thématique a attiré l’attention de « pure players », et que la difficulté à positionner le site sera accrue.

 

Le nombre d’adwords affichés en résultats.

 

Même si Google se défend de mélanger ses bases de données dédiées aux Adwords et ses bases de données dédiées aux résultats naturels, le nombre important d’adwords correspondant à une requête est un indicateur suffisamment révélateur pour qu’il puisse le prendre en compte pour déterminer si une requête concerne un marché porteur de business ou non.

 

La présence de blogs, de sites persos, de forums.

 

C’est un facteur indiquant le besoin purement informatif que Google attribue à la requête (cf Requêtes et algorithmes pour avoir une idée du profil de sites privilégiés par Google selon le type de requête), ce qui donne une indication sur la reactualisation nécessaire du contenu et le poids attribué à l’analyse textuel pour rester positionné.

 

Des résultats avec le nom de domaine à la racine ou non.

 

Si en 1ere page de résultats il n’y en a aucun qui soit sous forme http://www.nomdedomaine.com/rep/page.html mais que ce soit seulement des ndds à la racine, c’est en général signe que le marché est suffisamment trusté et concurrentiel pour que l’indice de popularité soit plus important que le plain text. Si jamais des résultats trouvés un peu plus profondément dans l’arborescence sont indiqués, alors l’optimisation plain text devrait suffire même avec un indice de popularité faible.
Attention, certains sites sont tellement bien pondérés qu’un simple répertoire peut avoir le même poids qu’un ndd à la racine !

 

 

Les différents critères d’évaluation du scoring : les 1ers résultats.

 

En plus de cette approche globale, chaque site peut être analysé plus précisément :

 

- Via google, avec la commande « site:ndd.com ndd » qui indique le nombre de pages présentes dans la base. On peut aussi taper « site:ndd.com mots clés », ce qui donne une idée de l’entendue des efforts fournis par ce site pour être positionner sur ces mots clés.

 

- Analyse des backlinks (ancre, IP du site, PR de la page…il existe plein d’outils ! Si vous voulez indiquer les votres…)

 

- Comparer les résultats via les différents data centers de Google : http://www.seocritique.com/datacentertool/

 

- Connaître l’âge du site via http://web.archive.org/collections/web/advanced.html. Ce critère est important car l’âge du site aujourd’hui est un critère de poids pour Google.

 

- Regarder la version cache de google : celle-ci indique la date du dernier crawl, de plus avec l’option « texte seulement » il permet de détecter un éventuel texte caché et donne une idée précise de la structure de la page.

 

- Analyser la structure du site avec Xenu : à l’origine conçu pour repérer les erreurs 404, il dresse une cartographie précise du site et de ses titres.

 

- GRKDA est un logiciel qui dissèque le contenu textuel d’une page (pourcentage des mots, emplacements etc.).

 

 

Bonne année à tous, avec pleins de sous (bien sûr) et une santé à toute épreuve (surtout !) :)

 

Jeffer