La semaine des 4 Lundi


Le référenceur du Lundi fait une petite pause suite au lancement de la Spirale (cf l’Appel du Lundi). Pas le temps de tout faire les amis, désolé :x
Pause mais pas arrêt définitif bien sûr, on l’aime bien nous ce petit blog !

 

A bientôt,

 

La Team



Exclusif: gagnez des positions sur Google


Voici une petite info provenant tout droit d’une source interne de Google Inc. Google est plutôt avare en informations, son algorithme est limite « secret défense ». En fait chez Google l’accès est très très sécurisé. On ne peut même pas avoir au téléphone certaines personnes, on vous répond qu’ils n’ont pas le droit de vous les passer. On ne sait jamais, des informations pourraient filtrer involontairement…

 

Mais cette fois-ci une info a tout de même filtré, et on a pêché du gros, du très gros…

 

Autant vous le dire tout de suite, profitez-en vite, car il y a de fortes chances que ce blog disparaisse de Google suite à ces révélations. L’astuce en elle-même risque de ne pas fonctionner très longtemps, Google est très pointilleux avec ce genre de chose, raison de plus pour ne pas trainer…

 

Bien entendu nous déclinons toute responsabilité sur ce qui pourrait arriver à votre site si Google se fâche.  C’est à vos risques et périls.

 

Mais avant tout, il faut expliquer comment Google positionne une page web sur un mot ou une expression.

 

Quand le robot de Google passe sur votre page, il va extraire différentes informations, mais la plus importante est le mot. Ou plutot LES mots qui sont dans votre page.  Le phrase biblique « Au commencement était le Verbe » n’aura jamais été aussi vrai…

 

Ainsi, Google fait une liste des mots contenus dans votre page, et va attribuer un score à chacun, suivant certains critères tels que:

  • le mot est dans le titre
  • le mot est dans une balise H1
  • le mot est dans un lien
  • et bien d’autres
  • et même des critère hors sites comme la présence de mots dans les liens pointants vers votre site. Nous n’en parlerons pas ici pour ne pas compliquer d’avantage cet article.

En revanche, nous ne connaissons pas le détail des points gagnés pour chaque critère.
Chaque mot de votre page obtient donc un score suivant les critères définis par Google.
C’est grâce à ce score que Google positionnera votre page lorsqu’une requête sera tapée.

 

Oui mais, me direz-vous, je ne tape pas que des mots uniques dans mes requêtes. C’est tout à fait exact, et les référenceurs vous diront que l’algorithme de recherche de Google est différent pour les requêtes à mots uniques et les requêtes à mots multiples, et pour cause: Google fait une moyenne des scores des mots de la requête, en la pondérant notamment par rapport à leur proximité dans la page du site.

 

L’information qui a transpirée de chez Google concerne justement une méthode pour booster le score de plusieurs mots individuellement. Cette méthode est apparemment utilisée pour des tests de positionnement en interne mais peut actuellement fonctionner pour tout le monde. pour le moment…

 

Toujours selon cette source, vous pourrez faire gagner 50 points pour chacun des mots que vous choisirez de favoriser. Cette info n’est pas très utile en soit car nous ne savons pas combien de points il faut en moyenne pour être premier sur un mot. Cependant d’après nos tests, cela suffit pour gagner au moins quelques positions.

 

Voila comment faire:

 

Chez Google on adore les nombres et les calculs compliqués, les ingénieurs ont donc défini une méthode de marquage à base de nombres premiers, à insérer tout simplement dans les balises metas de votre page. Les nombres premiers sont les nombres entiers qui ne peuvent se diviser que par eux-mêmes (voir définition Wikipedia)

 

Mais attention, les règles sont assez strictes, voila comment ça marche:

 

D’abord, l’astuce ne peut fonctionner qu’avec 9 mots au maximum pour une page. 9 est le nombre de nombres premiers jusqu’à 26. Pourquoi 26? parce que c’est le nombre de lettres dans l’alphabet bien sûr!

 

Vous allez créer les balises metas suivantes:
<META NAME= »g-b-2″ CONTENT= »mot1″>
<META NAME= »c-3-g » CONTENT= »mot2″>
<META NAME= »g-e-5″ CONTENT= »mot3″>
<META NAME= »g-7-g » CONTENT= »mot4″>
<META NAME= »g-k-11″ CONTENT= »mot5″>
<META NAME= »m-13-g » CONTENT= »mot6″>
<META NAME= »g-q-17″ CONTENT= »mot7″>
<META NAME= »s-19-g » CONTENT= »mot8″>
<META NAME= »g-w-23″ CONTENT= »mot9″>

 

Chaque balise meta correspond à un nombre premier associé à la position d’une lettre de l’alphabet. Ainsi pour la première balise, b est les 2ème lettre de l’alphabet.
on rajoute ensuite la lettre g une fois sur 2 à droite, un fois sur 2 à gauche. G comme Google visiblement…

 

Mot1, mot2, etc doit être des mots uniques, et doivent OBLIGATOIREMENT être déjà présents dans le texte de votre page.

 

Pour finir, il faut rajouter une ligne qui valide les balises meta précédentes

 

<META NAME= »C » CONTENT= »C »>

 

Le name= »C » signifie checksum (c’est une sorte de code de vérification) et le content= »C » est la somme des nombres premiers que vous avez utilisé, en chiffres romains. Comme par hasard, le total des 9 premiers nombres premiers donne 100, ce qui fait « C » en chiffre romain. 100 tout pile, C, comme cent et comme checksum… Ils sont forts chez Google!

 

Si vous n’avez pas utilisé les 9 mots, il vous faudra faire la somme des nombres que vous aurez utilisé et la mettre en chiffre romain dans la balise meta « C ».

 

Nous n’en avons pas eu confirmation par notre informateur, mais d’après nos tests, nous avons l’impression qu’utiliser moins de 9 mots favorise encore plus les mots choisis. Il peut alors être intéressant de ne mettre que 1 ou 2 mots bien ciblés, et adapter de checksum en fonction.

 

Nous espérons que cette astuce vous sera profitable tant qu’elle fonctionnera. A lundi prochain si nous sommes toujours référencés dans Google…

 

ApocalX



MFA mode d’emploi


Aujourd’hui je vais vous expliquer comment est fabriqué un MFA.

Pour ceux qui ne suivent pas au fond de la classe, je rappelle ce qu’est un MFA.

 

MFA est l’acronyme de Made for Ads ou de Made for Adsenses. Concrètement c’est un site Internet créé uniquement dans le but d’afficher des bannières publicitaires. Le maître-mot pour ce genre de site est automatisation: Pour être rentable, il faut passer le moins de temps possible à gérer le site. Celui-ci doit pouvoir vivre sa vie tout seul, ou presque, et travailler pour son webmaster (et surtout lui faire gagner de l’argent grâce à ses recettes publicitaires).

 

Il fut un temps ou il suffisait de repomper les pages de résultats d’un moteur de recherche et en faire automatiquement une page de votre site pour être positionné sur certains mots-clés, en y insérant bien sûr des liens sponsorisés. C’était l’époque Franao pour ceux qui s’en rappellent… Certains autres pseudo-moteurs de recherche n’ont pas hésité à faire indexer à la volée leurs propres pages de résultats dans Google, prétextant que ce n’était pas leur faute si Google indexait tout ce qu’il trouvait… Et le robots.txt, c’était pour les chiens? Le pire, c’est que ça marchait très bien, ces sites étaient presque aussi bien positionnés que l’est Wikipedia de nos jours.

 

Mais devant ce manque de pertinence flagrant Google à mis le holà. Il arrivait  en effets à certains internautes de taper une requête sur Google, pour trouver une page de résultats d’un MFA, qui lui même affichait des pages de résultats d’un autre MFA, etc… Ah bon, ce n’est pas pertinent?

 

Depuis, il n’est plus aussi facile de faire un MFA, ou presque… Un bon MFA de nos jours demande un minimum (mais vraiment un minimum) d’intervention humaine pour être efficace.

 

Prenons un exemple d’une bonne page de MFA. (toute ressemblance avec un site existant ou ayant existé ne serait que fortuite, ou presque…)

 

Une bonne page de MFA est avant tout une page bien optimisée en terme de référencement, sur un mot-clé ou une expression en particulier. Une bonne balise title, un H1, etc… sont donc de rigueur;

 

Une bonne page de MFA, c’est aussi des bannières pub placées de façon assez agressives, à la limite des conditions d’utilisation du programme Adsenses, et parfois bien au delà…

 

Une bonne page de MFA comporte maintenant un minimum d’intervention humaine qui peut prendre la forme d’une simple phrase ou d’un paragraphe. C’est ce contenu original qui fera la différence, car Google fait des analyses par blocs de texte, et est capable de savoir si tel ou tel morceau est original, unique, ou pas. Une page qui a un très faible pourcentage d’originalité textuelle n’a que peu de chance d’être bien positionnée.

 

Une bonne page de MFA, ce n’est bien sûr pas que du contenu original, c’est aussi toute une partie d’automatisation pour récupérer du contenu à la volée via d’autres sources, afin de constituer une page qui pourrait sembler intéressante. Ainsi dans les sources possibles on trouve fréquemment:

  • les résultats d’un moteur de recherche
  • La base de données d’un annuaire tiers
  • Des morceaux d’articles Wikipedia
  • Des flux RSS puisés un peu partout, pas souvent avec l’autorisation de leurs propriétaires
  • et autres récupérations sauvages de contenu…

Cela pose bien sûr des problèmes de légalité, notamment au niveau droit d’auteur. Automatiser la récupération de contenu sans contrôle peut se retourner contre vous, comme on l’a vu avec quelques procès. Il vous faudra donc garder un œil sur votre MFA pour en garder le contrôle, et qu’il ne vienne pas se positionner en 1ère Position sur le nom d’un autre site, devant le dit site. C’est très mal vu ;-)
Certains MFA, arguant d’une mauvaise foi incroyable, argumentent même en disant que les flux RSS qu’ils récupèrent devraient être honorés d’être relayés ainsi… Après tout si certains webmasters y croient, pourquoi pas…

 

Ainsi, Une bonne page de MFA pourrait ressembler à cela en simplifiant un peu…

  • Mon mot-clé entre balises H1
  • Une bannière pub placée juste sous le titre en H1 pour qu’on puisse croire qu’il s’agit du contenu de la page en relation avec le titre.
  • Quelques lignes de texte original, comme par exemple une définition maison du mot-clé, une question en rapport avec le mot-clé, ou n’importe quel autre texte original pouvant s’y rapporter.
  • Un peu de contenu automatisé, prenons par exemple des actualités prises via des flux RSS, toujours en rapport avec le mot-clé.
  • Une autre bannière pub, placée ici ou sur le côté pour être moins « agressive ».
  • De nouveau un peu de contenu automatisé, comme une liste de sites via un moteur de recherche ou via la base de données d’un annuaire, histoire d’afficher les liens externes « intéressants »

Vous ajouter un peu de graphisme pas trop moche histoire de rendre le site attrayant, un bon maillage entre les pages, et vous voila avec un bon petit MFA qui ne demande plus que quelques liens externes pour pouvoir décoller…

 

ApocalX



L’odeur de l’internaute


Pas de billet la semaine dernière pour cause de gastro (je vous passe les détails?).

 

Ce billet n’aurait pas été possible sans les informations que m’a communiqué il y a quelques temps Turillo : merci vieux briscard, et au plaisir de te lire peut être un jour ici même :)

 

L’odeur de l’internaute serait un concept à l’étude depuis kkes années déjà au Googleplex.

 

Il est possible qu’il en soit toujours au stade théorique, ou testé seulement de manière ponctuelle, ou encore mis en application sur le .com seulement. Ceci reste cependant un point de vue intéressant pour appréhender comment Google envisage de réussir sa quête en matière de pertinence des résultats.

 

Google catégorise tout ce qu’il peut afin d’améliorer l’efficience de sa pondération et d’économiser ses ressources. Il catégorise les sites, il catégorise les requêtes, il catégorise les liens…il lui manquait de catégoriser l’internaute.

 

Quelques rappels avant d’aller plus loin :

 

- Google developpa ses algos «  »Query Deserve Freshness » suite à la gigantesque panne de courant qui frappa New York en  2003. En effet les Googleboys notèrent un afflux sans précédent de requêtes (en rapport avec la panne de courant sur la Cote Est) jusqu’alors peut tapées. Ce genre de pic ne peut être interprété que d’une façon : il concerne un événement d’actualité majeur (ce qui implique de fournir des résultats tirés de sites d’actualités, de blogs et forums à l’internaute plutôt que des annuaires ou des wiki-like).

 

- Google dispose en effet aujourd’hui de statistiques de masse qui lui permettent d’avoir une vision sur la noosphère comme jamais une société privée n’en a disposé. De ces milliards de requêtes, des innombrables metadatas qu’il collecte via ses outils gratuits (cf Historique des moteurs de recherche), les googleboys peuvent aujourd’hui déterminer les grands schémas comportementaux de notre inconscient collectif. Les gros chiffres ne mentent pas.

 

- Webmasters, Google ne vous fait pas confiance, et ne fait pas confiance à votre site. Conséquence, il préfère écouter ce que les gens disent de votre site plutôt que ce que votre site dit de lui même. De plus, il peut aujourd’hui juger votre site à l’aune de ces vérités statistiques, rendues fiables par son hégémonie.

 

Néanmoins, faire du cas par cas avec des données de masse, c’est un peu comme sculpter une figurine avec un marteau pilon. La grande majorité de nos requêtes sont suffisamment spécifiques pour demander une analyse comportementale subtile.

 

C’est là que le concept de l’odeur de l’internaute intervient, et il se résume très simplement :

 

Toutes les informations que Google arrive à collecter sur nous sont anonymes mais sont quand même tagguées via un numero d’identifiant unique. Google peut ainsi mettre en place une grille d’analyse de différents profils d’internaute : l’internaute féru d’High tech, de cinema, de cyber-achat etc.
Une valeur plus ou moins élevée est alors donnée à l’internaute en fonctions des profils établis. Les sites que l’internaute visitera bénéficieront d’une partie de cette valeur.
Cette « odeur » s’estompera avec le temps, mais sera réactualisée si cet internaute revient régulièrement sur le site.

 

Alors, après le PR des sites, le PR des internautes (voire Trustrank) ?

 

Une chose est sûre : même la méthodologie la plus solide pour analyser les résultats (pour une bonne base : des algorithmes et des thématiques) est mise de temps en temps en défaut par des sites positionnés de manière incompréhensible. Certains évoquent un facteur purement aléatoire pour expliquer ces incohérences, mais peut être est-ce justement ces données comportementales – gros volume de données donnant une moyenne fiable et « odeur de l’internaute » – qui constituent ces variables qui nous échappent ?

 

Il reste cependant très dur d’en évaluer l’impact, et il est quasi impossible de déterminer si cet impact est systématique, ciblé ou ponctuel.
De plus, à part essayer d’obtenir et de fidéliser un nombre conséquent d’internautes leader d’opinions, au niveau magouilles pour en tirer un bénéfice en terme de positionnement, il n’y a pas grand chose à explorer.
En conclusion, on pourrait de prime abord penser que pour un moteur de recherche, la quête de la pertinence est un effort de R&D toujours plus important pour permettre un jour à un programme de tirer du sens d’un texte. Néanmoins il semble probable que seule une Intelligence Artificielle pourrait se montrer réellement à la hauteur de la tâche.

 

« Heureusement » face à la propagation de l’Internet dans les pays industrialisés ou en fort développement, et le fait que tout y est potentiellement archivable et analysable, une alternative s’est offerte pour reconnaître l’information signifiante sans avoir à la comprendre.
Pour cela Google dispose de deux leviers : les données sur le comportement humain via des statistiques de masse, et une capacité de profiling très aboutie.

 

En clair, Google pourrait bien être tenté de renoncer à comprendre pour singer l’humain qui comprend…et dans l’état actuel de notre technologie il a peut être raison.

 

On peut continuer à crier au loup sur cette volonté d’en savoir toujours plus sur nos us & coutumes de la part du grand G, c’est d’ailleurs devenu un sport international. L’objectif est pourtant noble : avoir un outil de recherche pertinent.
Certes il y a tous les enjeux d’une publicité de plus en plus ciblée en filigrane, mais à ce niveau nous devrions plus nous offuscer de ce genre de chose.

 

Bonne semaine à tous et à toutes !

 

Jeffer

 

[Pour ceux qui sont interessés par l'Intelligence Artificielle, un document inédit de Jean Philippe de Lespinay vous passionnera sans doute : l'Intelligence Artificielle raisonnante : fini les intermédiaires entre utilisateurs et ordinateurs.]



C’est la Crise


Eh oui, c’est comme ça qu’on nous présente 2009. Google se séparerait de 10 000 employés en intérim (Quoi! Il y a des emplois précaires chez Google? Incroyable!) et Microsoft taillerait du côté de MSN. Quand à Yahoo… Ai-je vraiment besoin d’en parler?

 

Le contexte est morose. Néanmoins, et bien que cela ne changera rien pour vous, l’équipe du Référenceur du Lundi se joint à moi pour vous souhaiter une pas trop mauvaise année 2009.

 

J’ai profite pour remercier les sites qui nous ont fréquemment cités et liés en 2008, comme Secrets2Moteurs, Oseox, VDP Digital, le forum Twiger, Ajblog, le blog de Wizishop, Wedbconseils.com, Discodog, Costaud.net, ainsi que tout ceux que j’oublie (désolé, venez m’insulter dans les commentaires de ce billet). Les hyperliens, c’est un peu comme si tous les sites de la Terre se donnaient la main.

 

Pour 2009, nous essayerons d’être encore plus dérangeants et agitateurs, c’est promis!

 

Et si vous sentez que vous avez l’âme d’un SEO Warrior, venez faire un petit « cross-blog » chez nous!

 

ApocalX



Vacances


La dreamteam part en vacances.

 

Nous espérons que vous avez apprécié la mise en bouche et que vous êtes maintenant en appétit, car l’année prochaine va être saignante !

 

Bonne fêtes à tous :)

 

Jeffer, ApocalX, Easyguy, Refmond

 

PS : on vous épargne la récap’ des « grands moments 2008″ ainsi que les « prévisions du futur 2009″, cadeau !



Google, entre sens des affaires et bac à sable


Avant-propos: Ce billet est une tentative de vulgarisation de la fameuse Sandbox de Google.

 

Il y a déja pas mal de temps, Google a introduit dans son moteur une évolution de son algorithme de positionnement qui fut appelée Sandbox (en bon français, Bac à sable).



Résumé des épisodes précedents


Cette semaine je voulais vous parler du mythe « Le strict respect du W3C boost le référencement » mais finalement non.
Déjà c’est un peu éculé, n’importe qui avec un peu de bouteille sait ou se doute que c’est faux. Un référenceur pro W3C aura-t-il le courage de rédiger un commentaire un minimum argumenté pour prétendre le contraire?

 

Mais ce n’est pas la raison principale de mon renoncement : il est simplement temps que je vous dise où on veut en venir.

 

Vous avez été en effet confrontés sur ce blog à plusieurs affirmations qui sont toutes le reflet d’un point de vue unique. Il faut maintenant le cristalliser.

 

Ces affirmations sont :

 

Historique des moteurs de recherche.

 

- Google est un idiot savant, qui fait des efforts titanesques pour sembler moins con avec des moyens démesurés.
Pour certains secteurs ca va, pour d’autres c’est catastrophique, dans l’ensemble ça a tendance a pas mal formater un média (le site web) qui n’était à la base destiné qu’à la satisfaction de l’internaute.

 

Content Is King

 

- Sa capacité de compréhension textuelle est un celle d’un freak mécanique. Ce n’est pas voulu. Les googleboys font de leur mieux.
De fait, tant que ce ne sera pas une IA altruiste, impartiale et extrêmement intelligente qui nous servira de moteur de recherche, leurs algos ne seront que des rustines. Essayer de « faire comprendre » un texte par un programme, ça revient a vouloir couper un arbre avec un canif : vous pourrez entailler l’écorce, mais la partie tendre sera trop dense pour vous dévoiler son coeur.
L’ennui c’est que ces rustines – de part les enjeux de plus en plus importants qu’il y a derrière le trafic drainé par le grand G – sont aujourd’hui les gendarmes du coin de la route.
Conséquence, nos sites tendent à une uniformisation qui facilite le traitement de l’information pour Google.
Certes, on peut conjuguer traitement efficace de l’information et esthétisme. Cependant force est de constater qu’à ce niveau on commence sérieusement à tourner en rond !

 

Un site qui ferait des choix esthétiques mettant en vrac la compréhension googlienne, ne pourrait-il avoir la prétention de nous délivrer de l’information pertinente ?

 

Il suffit de voir l’impact de certains buzz autours de sites originaux pour comprendre à quel point nous sommes en manque d’esthétisme, ou simplement de concepts présentés de manière moins formatée.

 

Aujourd’hui, si un webmaster se dit « au diable tout ca » et se lâche pour se faire plaisir et surtout faire plaisir au seul interlocuteur qu’il devrait avoir à l’esprit – son visiteur – il ne pourra faire l’économie d’un partenaire : le référenceur, celui qui va mâchouiller l’information jusqu’à en faire une bouillie suffisamment digeste pour que google trouve de quoi rassasier sa faim de « pertinence ».

 

Si vous faites confiances aux algos qui sont censés tirer du sens de votre texte, c’est que vous êtes fous.

 

Le piège du linking

 

- Google dispose par contre d’une bonne capacité d’analyse des réseaux sociaux appliqués aux sites web.
Sur la compréhension de la vie d’un site en tant que parti d’un réseau, en effet c’est du tangible : des modèles mathématiques assez rigoureux ont pu être développés, des tendances et des cycles définis.

 

Google s’y accroche de toutes ses forces, et il a raison.
Mais ca ne suffit pas. Trouver la pertinence par le social ok, mais dans certaines circonstances seulement !

 

Depuis quelques temps, des signes font penser que cette analyse sociale est en train de se déplacer du site à l’internaute.

 

Pourtant, même en connaissant l’intégralité de ce que tout le monde fait derrière son écran, même en collectant des statistiques comprenant des chiffres si énormes et des sources si variées qu’on touche au quasi-divin, ce qui aura été capté de vous et de moi n’arriverait même pas un faire un personnage de roman crédible.
Il faut juste espérer qu’ils ne sont pas assez allumés au googleplex pour parier sur le contraire !

 

La morale dans le référencement

 

- Gruger Google n’est pas immoral.
La pertinence selon Google, c’est une vision déformée et caricaturale de la pertinence.
Bel effort certes, mais insuffisant, trop réducteur et surtout de plus en plus pesant. Le référencement c’est justement l’art de rectifier le tir.
Avoir du respect pour l’outil, c’est faire en sorte qu’il fonctionne au mieux.

 

Si débat sur la moralité il doit y avoir dans le milieu du référencement, il se situe au niveau du site !

 

La raison d’être de ce blog est une réaction envers les dérives provoquées par les discours marketing bien pensant qu’on nous assène depuis quelques années dans le milieu du référencement. Il est temps de voir les choses sous un angle différent.

 

Etre référenceur, c’est affranchir les sites des barrières mécaniques imposées par les moteurs de recherche.
Ce blog est là pour proposer une doctrine fondée sur le pragmatisme, un pragmatisme qui rendrait de nouveau possible l’exubérance et la créativité que nous avons connu lors de la Bulle. Oui il est encore possible de dire aujourd’hui : « si votre site correspond a des normes esthétiques google-compatibles très bien… mais si votre site est hors normes tant mieux : cette différence contribuera certainement à son succès vis-à-vis des internautes. Quant aux moteurs, on en fait notre affaire ! »

 

A lundi prochain :)

 

Jeffer