Les créateurs de sites adorent être bien classés dans les moteurs de recherche. En effet, c’est souvent un point déterminant pour l’économie de leur site, ou leur autosatisfaction. Mais comment font-ils ?
Partons d’un constat simple : en décembre 2006, Google apportait, à lui seul, 87,54 % du trafic internet (source : baromètre xiti/1ère position). C’est-à-dire que la grande majorité des internautes consultent des sites en passant d’abord par Google.
Il est donc logique que les webmasters fassent tant d’efforts pour obtenir un bon positionnement dans Google, c’est-à-dire, réussir à ce que pour une recherche donnée, leur site internet apparaisse en bonne place. Ainsi, plus leur site est visible, plus nombreux sont les internautes qui le consultent.
Chaque webmaster a ses petites recettes pour parvenir à ses fins. La grande majorité d’entre elles ne reposent sur aucun fait vérifié. Ce sont généralement des hypothèses basées sur des observations empiriques.
Le pagerank est une note, allant de 0 à 10, qui reflète la popularité d’un site. Plus un site reçoit de liens hypertextes à partir d’autres sites, meilleure est sa note. A l’inverse, un site qui n’est pas lié par un autre a un pagerank nul.
Le calcul de la valeur du pagerank est mené lors d’une phase, que l’on appelle Google dance, pendant laquelle des robots informatiques parcourent toutes les pages internet contenues dans l’index de Google, comptent, et comparent le nombre de liens pointant vers chaque site.
C’est grâce à ce calcul du pagerank que Google est si pertinent. En effet, le bon sens nous le dit : on ne place un lien d’un site internet vers un autre que si l’on pense qu’il est de qualité. Là est toute la légitimité de la méthode.
Evidemment, si l’on souhaite être mieux placé dans Google, on pense aussitôt qu’il est bon d’obtenir des liens vers son site. En effet, on aura totalement raison !
Face à ces méthodes, Google réagit, et semble (encore une fois, on ne peut l’affirmer sans aucun doute) pénaliser les politiques de liens à outrance. Mais c’est bien difficile de savoir comment distinguer un bon lien d’un mauvais lien…
Google ne se contente pas de la valeur du pagerank pour classer les sites. Il prend en compte des centaines d’autres paramètres allant du contenu du site (pour déterminer les mots-clefs importants, les thématiques et les éventuels plagiats) à la présentation, en passant par la structure des arborescences des sites, sans oublier la reconnaissance des mots contenus dans les adresses internet et les noms de sites.
Tellement de paramètres entrent en jeu, qu’on a bien du mal à pouvoir conseiller telle ou telle autre méthode pour augmenter le classement d’un site.
Pourtant, la soif de connaissance se poursuit et de nombreux webmasters, amateurs ou non, continuent à essayer de percer le secret du St Graal.
L’une des facettes importante de cette recherche se retrouve dans des concours de référencement qui consistent à essayer de placer premier un site internet sur une recherche donnée.
Par exemple, il y a quelques années, il fallait positionner son site sur les mots-clefs « mangeur de cigogne », ou plus récemment sur « sorcier glouton ».
Ces concours connaissent de plus en plus de succès, et depuis peu, le concours international de référencement a été lancé (SEO world championship). Cette fois-ci, c’est sur la requête « globalwarming awareness2007 » qu’il est indiqué de se placer.
Pour parvenir à leurs fins, les webmasters ont plusieurs méthodes. Certains tentent d’optimiser les contenus (incompréhensibles) de leurs pages, d’autres proposent un service pour essayer de lancer une vague marketing.
Ces concours sont de plus en plus décriés. Leurs détracteurs regrettent qu’ils polluent les moteurs de recherche plutôt que d’aider à leur compréhension.