Infos Pratique
Articles et communiqués pour tous savoir sur tout !
Apprendre la technique du cloaking
Le monde de l’internet est une véritable jungle et il n’est pas facile de faire connaitre son site sans un bon référencement. En effet, sans un bon référencement, votre site internet ne vous apportera rien. C’est pourquoi il est utile de faire appel à la technique du cloaking. Le cloaking est une technique utilisée dans le référencement pour bien classer votre site internet sur les principaux moteurs de recherche comme Google, bing et plus. L’objectif du cloaking est de booster la visibilité des pages des sites internet. La technique du cloaking donne la possibilité de personnaliser ses pages web en fonction du type d'utilisateur : robot ou internaute. Le cloaking est donc une méthode très importante dans la mise en ligne d’un site. En revanche, cette technique n’est pas recommandée.A quoi sert le cloaking dans le référencement de site web ?

Le cloaking joue donc un important rôle dans le référencement web, car il fait parti des techniques utilisées par le black hat pour bien positionner les sites web sur différents moteurs de recherche.
La technique du cloaking : les principaux objectifs
L'objectif de la technique du cloaking est de donner à tous les moteurs de recherche, identifié par son robot, une page optimisée correspondant à ses critères de classement.
La technique du cloaking est particulièrement utilisée en mettant en place les meilleurs mots-clés, afin d'éviter que le code d'une page ressortant en bonne position ne soit réutilisé frauduleusement par un autre site concurrentiel.
Quoique rejeté par les moteurs de recherche à cause de sa ressemblance avec les spamdexing. En fait, le spamdexing utilise de manière abusive le nom d’un site sur les moteurs de recherche. Le principe ultime du cloaking est d’identifier les spiders par leur adresse IP et/ou par leur user-agent afin de pouvoir délivrer à ces robots un contenu spécifique.
Cependant, cette reconnaissance des spiders est l’ultime problème avec les moteurs de recherche. La plupart des robots disposent généralement d'un user-agent spécifique .Mais il arrive parfois que ces noms de spiders change pour un même moteur. Par ailleurs, le user-agent étant falsifiable, quelqu'un pourra facilement utiliser un faux spider afin de décloaker une page.
Il est donc utile d'organiser la délivrance du contenu en fonction de listes d'adresses IP attribuées à chaque spider. C'est ce que l'on appelle l'IP delivery. Constituer une base de données exhaustive des adresses IP de spiders est quasiment impossible. Pour cette raison, aucune méthode de cloaking n'est fiable à 100%. Malgré tout, il est possible de collecter un grand nombre de ces adresses par la simple analyse de ses fichiers logs.