Des algorithmes et des thématiques.


Suivant le chiffre d’affaire généré par un secteur, l’environnement concurrentiel des mots clés qui y sont associés varie de « quasi inexistant » à « saturé ». En fonction du poids de la concurrence, une optimisation plus ou moins poussée est nécessaire.

 

Il est normal que les ORs n’adoptent pas les mêmes grilles d’analyse pour (par exemple) des sites de vente en ligne et des sites universitaires, et n’appliquent pas le même traitement dans un cas ou dans l’autre. Ce qui sera bien vu ici pourra être sans conséquence voire pénalisant ailleurs.

 

Pour le référenceur, il s’agit donc de déterminer qu’elles sont les moyens nécessaires à mettre en oeuvre, ce qui se fait en fonction de la concurrence, et selon quels procédés ils seront appliqués, ce qui se fait selon la thématique.

 

Les actions effectuées sur le site auront pour but de lui faire acquérir un statut d’authority via l’optimisation de l’arborescence, des pages et du contenu. Vient ensuite le travail sur sa notoriété qui sont les actions hors site : la soumission auprès de certains annuaires, la création éventuels de blogs, le recours à son propre réseau de site, l’échange de liens…

 

Au fur et à mesure du temps et de l’expérience, le référenceur peut s’essayer à lister les grandes thématiques (tourisme, vente en ligne, sport, actualités, sexe, communauté, etc.) avec leurs spécificités. Pour ce faire une grille de lecture des résultats lui est nécessaire.

 

En effet, il ne suffit pas de plagier le site positionné en 1er dans les résultats, Google préférant donner des résultats variés. Pour avoir un site « bien vu » par Google, il faut procéder à une étude sérieuse des 20 premiers résultats donnés sur un grand nombre de requêtes afin de dégager deux familles de sites :
- ceux dont on serait satisfait de voir la présence si on était Google, et
- ceux qui n’ont rien à y faire
Les sites de la seconde catégorie peuvent mettre en évidence les failles des algorithmes qui les ont positionnés. Ils seront à étudier très minutieusement.
Les sites de la 1ere catégorie offriront du contenu à reprendre (et à re-rédiger) en cas de contenu faible de la part du site client.

 

 

Au départ, pour obtenir ce « grand nombre de requêtes », il faut donc un thésaurus le plus exhaustif possible de l’activité du site, sa thématique et ses objectifs de communication.

 

C’est à partir de ces informations que va commencer l’appréciation du scoring à atteindre pour réaliser les objectifs de positionnement.

 

 

Les différents critères d’évaluation du scoring : l’approche globale.

 

Le nombre d’occurrences sans les guillemets.

 

C’est un indicateur grossier, car pour peu que les deux mots clés de l’expression soient usuels, le nombre d’occurrences peut être très élevé sans pour autant dénoter d’un environnement concurrentiel difficile. A l’inverse certaines occurrences faibles mais sur un marché réduit et précis vont peut être renvoyés peu de résultats mais qui seront tous tirés de sites optimisés pour les moteurs. Ce critère seul ne suffit pas, il n’est là que pour permettre un ratio avec le critère suivant.

 

Le nombre d’occurrence avec les guillemets.

 

Ici par contre tous les résultats indiqués peuvent être considérés comme des concurrents directs, et même un chiffre aussi réduit que quelques dizaines de milliers correspond à quelques dizaines de milliers de pages à dépasser, ce qui peut s’avérer ardu.

 

Le ratio entre le nombre d’occurrences sans les guillemets et avec.

 

Cela donne une idée du « bruit » autour de l’expression. Plus le ratio est élevé et plus le bruit est important : les résultats donnés ont bien les deux mots clés de l’expression dans leurs pages, mais ces mots sont éloignés l’un de l’autre. Le fait de les avoir simplement contigus sur le site client sera bien sûr un avantage.

 

La présence de nombreux annuaires dans les résultats.

 

Qu’il y ait 1 ou 2 annuaires dans les résultats est normal, au dessus c’est un signe que la thématique a attiré l’attention de « pure players », et que la difficulté à positionner le site sera accrue.

 

Le nombre d’adwords affichés en résultats.

 

Même si Google se défend de mélanger ses bases de données dédiées aux Adwords et ses bases de données dédiées aux résultats naturels, le nombre important d’adwords correspondant à une requête est un indicateur suffisamment révélateur pour qu’il puisse le prendre en compte pour déterminer si une requête concerne un marché porteur de business ou non.

 

La présence de blogs, de sites persos, de forums.

 

C’est un facteur indiquant le besoin purement informatif que Google attribue à la requête (cf Requêtes et algorithmes pour avoir une idée du profil de sites privilégiés par Google selon le type de requête), ce qui donne une indication sur la reactualisation nécessaire du contenu et le poids attribué à l’analyse textuel pour rester positionné.

 

Des résultats avec le nom de domaine à la racine ou non.

 

Si en 1ere page de résultats il n’y en a aucun qui soit sous forme http://www.nomdedomaine.com/rep/page.html mais que ce soit seulement des ndds à la racine, c’est en général signe que le marché est suffisamment trusté et concurrentiel pour que l’indice de popularité soit plus important que le plain text. Si jamais des résultats trouvés un peu plus profondément dans l’arborescence sont indiqués, alors l’optimisation plain text devrait suffire même avec un indice de popularité faible.
Attention, certains sites sont tellement bien pondérés qu’un simple répertoire peut avoir le même poids qu’un ndd à la racine !

 

 

Les différents critères d’évaluation du scoring : les 1ers résultats.

 

En plus de cette approche globale, chaque site peut être analysé plus précisément :

 

- Via google, avec la commande « site:ndd.com ndd » qui indique le nombre de pages présentes dans la base. On peut aussi taper « site:ndd.com mots clés », ce qui donne une idée de l’entendue des efforts fournis par ce site pour être positionner sur ces mots clés.

 

- Analyse des backlinks (ancre, IP du site, PR de la page…il existe plein d’outils ! Si vous voulez indiquer les votres…)

 

- Comparer les résultats via les différents data centers de Google : http://www.seocritique.com/datacentertool/

 

- Connaître l’âge du site via http://web.archive.org/collections/web/advanced.html. Ce critère est important car l’âge du site aujourd’hui est un critère de poids pour Google.

 

- Regarder la version cache de google : celle-ci indique la date du dernier crawl, de plus avec l’option « texte seulement » il permet de détecter un éventuel texte caché et donne une idée précise de la structure de la page.

 

- Analyser la structure du site avec Xenu : à l’origine conçu pour repérer les erreurs 404, il dresse une cartographie précise du site et de ses titres.

 

- GRKDA est un logiciel qui dissèque le contenu textuel d’une page (pourcentage des mots, emplacements etc.).

 

 

Bonne année à tous, avec pleins de sous (bien sûr) et une santé à toute épreuve (surtout !) :)

 

Jeffer


6 Comments, Comment or Ping

  1. bon article, mes lundis sont toujours aussi bien commencés avec ces artciles.
    a conseiller : http://www.seomioche.com petit outil gratuit pour le référencement.
    je l’utilise régulièrement et suis toujours aussi content de se performances.
    NB : je n’ai aucun lien avec le créateur.

    janvier 19th, 2009

  2. si on fait le boulot pour moi, j’ai rien a ajouter alors :-D
    merci peut etre ;-)

    en gros les points que je prends en compte pour tailler un devis… 100% d’accord :-)

    janvier 19th, 2009

  3. @salemioche : si un outil est bon (à mon sens), autant en faire la publicité.
    de rien, sans doute.

    janvier 26th, 2009

  4. Bonsoir
    pour ceux qui sont encore un peu frileux pour s’installer un script php, il
    existe un petit soft à installer sur plateforme windows pour l’instant.
    Il permet de connaitre sa position sur certains mots-clés avec une petite courbe au fil du temps.
    http://fr.webmaster-rank.info/?logiciel_de_referencement_gratuit

    PS : je n’ai aucun lien avec l’auteur moi non plus ^^

    janvier 31st, 2009

  1. pligg.com - janvier 21, 2009