Il est important de souligner que la notion de pertinence est incontournable dans le fonctionnement du moteur de recherche Google.

 

 

Comme l’a encore récemment démontré son refus de la course au nombre de pages Web indexées, Google demeure attaché à la qualité des pages Web plutôt qu’à leur quantité. Il refuse notamment le gonflement artificiel de sa base de données par les pages satellites (pages alias TM).

 

 

En effet, ces pages représentent une menace de dilution de la pertinence pour l’utilisateur. Elles trompent même l’internaute quand elles sont conçues pour répondre à des expressions clés sans proposer de contenu approprié.

 

 

Google ne s’est pas cantonné à condamner le spamdexing dans son ensemble à travers une charte éditoriale, décrivant clairement les recommandations à suivre par les éditeurs (administrateurs) de sites Internet15. Ce spécialiste des technologies de recherche s’est donné comme priorité le développement de filtres permettant de détecter les méthodes frauduleuses de mise en valeur d’un site Internet. En particulier : Texte ou liens masqué(s), Mots clés répétés ou trompeurs, Contenu de page différent de la description Google, Pages masquées (« cloaking »),

 

 

Redirection trompeuse, Page satellite (« doorway »), Site ou pages répété(es).
Ces filtres s’avèrent de plus en plus efficaces au fil du temps. Après de multiples mises en garde, Google a sanctionné les sites Internet qui ne mettaient pas en application sa charte éditoriale par une mise sur liste noire (blacklistage), c’est-à-dire une exclusion des pages Web et des liens dans ses résultats ainsi qu’ une mise à zéro du PageRank. Il incite dorénavant les utilisateurs à lui reporter les cas de spamdexing grâce à un formulaire en ligne.

 

 

Etre blacklisté ou déréférencé par Google n’est pas irrévocable. Si un site blacklisté supprime toutes les techniques frauduleuses qu’il emploie et montre des signes de bonne volonté en respectant les recommandations de Google, il peut réintégrer les pages de résultats de Google en
quelques mois, voire en quelques semaines. Le bon sens de Google  ne s’est pas arrêté à cette mesure.

 

 

Pour redonner toute son efficacité à la technologie PageRank, Google  travaille en secret sur un outil de lutte contre le spamdexing : le Trust Rank.

 

 

En mars 2005, Google  a déposé de nombreux brevets auprès de l’USPTO (United States
Patent and Trademark Office) portant sur l’amélioration de la classification des pages Web en fonction du sérieux de leur éditeur, de leur date de parution, ou encore, de la taille des articles.

 

 

Son but : créer un nouvel indice visant à définir la fiabilité de la source d’une information, à travers l’établissement d’une short list de « sites d’autorités ». Cette initiative est fondée sur les travaux de deux chercheurs de… l’université Standford (Zoltan Gyongyi et Hector Garcia-Molina). Elle prendrait le nom de Trust Rank, un terme récemment déposé par Google.

 

 

 

A l’origine, le Trust Rank est destiné au service de dépêches Google  News, pour distinguer les bloggers peu fiables du travail des journalistes professionnels. Il servirait également la lutte contre le spamdexing, en indiquant le degré de confiance accordé à une page Web, compris entre 0 (spam) et 1 (page de référence, garantie « saine » après une analyse manuelle réalisé par un humain).

 

Par propagation et analyse des liens entre les pages, l’algorithme du TrustRank détermine si les autres pages Web sont également « saine s » ou si, au contraire, elles sont une version de spam (pages satellites, etc.), en partant du principe que les pages « saines » pointent rarement vers des pages de spam.

 

 

Google  réaffirme ainsi sa ligne de conduite, identique depuis ses débuts, et figurant
comme le premier des dix points de sa philosophie18 : « rechercher l’intérêt de l’utilisateur, et le reste suivra ». C’est l’une des raisons pour lesquelles Google™ s’est toujours défendu de mettre en place des solutions de référencement XML, cette action étant considérée comme du spam.

 

 

Le comportement de l’internaute, libéré des contraintes spatio-temporelles de la vente et des approches commerciales directes par rapport au consommateur du monde physique, est au cœur de l’évolution du métier du référencement.