Le travail de référencement est bien souvent l'apanage des spécialistes (agences, consultants indépendants...). Les risques de blacklistage, l'évolution des algorithmes et des standards du Web laissent bien souvent présager que l'opération de référencement s'avérera trop complexe.
Ross Dunn, responsable référencement au sein de l'agence StepForth Placement, spécialisée dans les outils de recherche, a comblé le rêve de milliers de webmasters en 2003 dans un livre blanc s'intitulant sobrement "The 10 Minute Optimization".
Il a remis à jour ses conseils fin 2006. Voici les principaux points à mettre en place pour perfectionner son site et le préparer à la visite des robots des moteurs
Quatre étapes sont obligatoires avant de débuter tout travail d'optimisation.
Première étape : déterminer les mots clés en fonction de sa cible. Pour éviter de se perdre en conjectures et gaspiller du temps, le plus simple est de chercher dans les outils de statistiques du site les mots clés tapés par les visiteurs. Associée à ces statistiques, la visite des sites concurrents permettra d'ajouter de nouvelles expressions, grâce à la consultation des méta-tags et titres de pages disponibles dans le code source.
Deuxième point abordé par Ross Dunn : le design et l'usabilité du site. "Le trafic aura moins d'impact si votre page Web n'est pas à valeur ajoutée". Quelques conseils doivent donc être respectés : éviter d'utiliser des couleurs décalées, proposer un contenu basé sur l'activité du site - même pour la publicité -, créer une navigation claire et utiliser les
La troisième et la quatrième étape servent à inspecter la bonne conformité du site. La première concerne la pertinence du site et, en particulier, des contenus : éviter des pages dont le contenu est trop semblable.
Dernière étape préalable : vérifier la bonne conformité du site avec les guidelines des moteurs : exit donc les textes cachés, l'abus de mots clés, les liens cachés et les pages satellites.
Une fois les quatre points précédents définis, l'optimisation peut commencer.
L'optimisation en détails
"Le texte sur la page d'accueil est crucial pour maintenir l'attention de nouveaux visiteurs", décrit Ross Dunn.
Les moteurs de recherche se nourrissent de mots. D'autre part, l'attrait du texte donnera envie au lecteur d'aller plus loin dans sa visite, sa fraîcheur l'exhortera à revenir régulièrement.
Le titre de chacune des pages doit être personnalisé et optimisé. Les moteurs accordent énormément d'importance à cet élément pour en distinguer les caractéristiques.
Les méta-tags : alors que Ross Dunn incitait en 2003 les webmasters à les renseigner au mieux, le discours a aujourd'hui radicalement changé : "économisez le temps de création des méta-tags, ils sont principalement ignorés par des moteurs de recherche aujourd'hui". Raison de cette volte-face : les moteurs ont trop souvent étaient dupés par des spammeurs sur ces balises, choisissant par la suite de ne plus les prendre en compte. Si elles sont renseignées, en revanche, elles ne porteront en aucun cas préjudice au positionnement.
La navigation se doit d'être adaptée aux moteurs. Un point souligné par l'expert : les titres de liens doivent être particulièrement soignés. Eviter les liens de type "cliquez ici" ou "contactez-nous".
Rubrique inexistante en 2003 et pourtant essentielle dans l'optimisation de nos jours : les liens. Directement reliés à la réputation, ils nécessitent une politique active d'échange avec les autres sites. Attention cependant à ne multiplier les liens sans les travailler : ils doivent être de qualité et logiques avec le cœur de métier de la société.
L'opération d'indexation
Utiliser ses outils de statistiques pour pouvoir mesurer les efforts fournis et les effets sur le trafic. Ces outils peuvent apporter également beaucoup d'éléments utiles dans la façon de diriger son référencement en fonction des goûts et besoins de ses visiteurs.
Enfin, l'indexation des pages du site dans les moteurs conclut l'opération "optimisation en 10 minutes". Alors qu'avant, l'indexation payante dans les outils de recherche était courante, la donne a changé. Désormais, les robots des moteurs indexent les pages non pas sur déclaration, mais en sondant le Web, de liens en liens.
Ross Dunn décrit une façon efficace d'attirer les robots sur le site : la publication d'un édito aux travers de sites spécialisés comme PRWeb.com, site de communiqués de presse. Souvent mis à jour, donc visités par les robots, ces derniers indexeront donc plus rapidement
.
Commentaires