Publié le 26 septembre 2023. Mis à jour le 19 août 2024.
Qu'est ce que le "cloaking" ?
Le cloaking, ou "camouflage" en français, est une technique de spam SEO, utilisée pour présenter un contenu différent aux moteurs de recherche et aux utilisateurs humains, afin d'améliorer la position d'une page dans Google. Elle permet en effet de tromper les moteurs de recherche en suroptimisant le contenu vu par Google, Bing et les autres moteurs alors que les internautes voient un contenu plus allégé et souvent plus lisible.
Le fonctionnement du cloaking repose sur la détection de l'IP ou de l'en-tête HTTP du visiteur. Si le visiteur est identifié comme un robot (par exemple, Googlebot), le serveur lui présente une version différente de la page web habituellement présentée au visiteur humain.
Le cloaking est particulièrement surveillé par les moteurs de recherche comme Google, qui considèrent cette pratique comme une violation de leurs consignes, car elle peut tromper les utilisateurs et manipuler les résultats de recherche. Cette technique a été popularisée dans les années 2000 et peut entraîner de lourdes sanctions pour les sites qui en font usage, allant jusqu'à la désindexation complète.
Utilisations du cloacking
Améliorer le classement dans les moteurs de recherche
L'objectif principal du cloaking est souvent d'obtenir un meilleur positionnement dans les résultats des moteurs de recherche. En affichant un contenu optimisé pour les robots, les sites espèrent se classer plus haut pour des mots-clés spécifiques.
Personnaliser l'expérience utilisateur
Bien que parfois utilisé de manière trompeuse, le cloaking peut aussi avoir pour but de fournir une expérience personnalisée aux utilisateurs en fonction de leur localisation, langue ou autre critère, tout en conservant une version standardisée pour l'indexation.
Protéger le contenu
Dans certains cas, cette technique de camouflage est utilisée pour protéger des éléments de contenu des concurrents ou d'autres parties, en ne les rendant visibles qu'à certains visiteurs.
Pourquoi cela peut nuire à votre réputation en ligne ?
Sanctions publiques : Si un site de grande envergure est sanctionné, comme dans le cas de BMW.de, cela peut devenir une nouvelle largement diffusée, nuisant ainsi à la réputation de la marque.
Perte de confiance : Les utilisateurs qui découvrent que vous utilisez des techniques trompeuses peuvent perdre confiance dans votre marque ou votre contenu.
Impact sur le trafic : Une suppression de l'index d'un moteur de recherche ou une baisse significative du classement peut entraîner une baisse drastique du trafic, ce qui peut avoir des conséquences économiques pour les entreprises.
Pourquoi est-il important de comprendre ce concept en SEO ?
- En tant que propriétaire de site ou professionnel du SEO, il est essentiel de connaître les techniques acceptables et celles qui sont pénalisées. Le cloaking fait partie de cette dernière catégorie : il est considéré par les moteurs de recherche comme une pratique “Black Hat”.
- En tant qu'utilisateur ou consommateur de contenu en ligne, comprendre le cloaking peut vous aider à identifier les sites qui ne jouent pas franc jeu et à privilégier ceux qui offrent une expérience authentique.
L’histoire du cloaking
Origines
Les origines du cloaking remontent aux années 1990, dans le spremiers jours des moteurs de recherche. À l'époque, le référencement était une discipline naissante, et les moteurs de recherche utilisaient des méthodes plus rudimentaires pour indexer et classer les sites.
Certaines entreprises ont rapidement compris qu'en montrant un contenu optimisé aux moteurs de recherche (rempli de mots-clés pertinents, par exemple) tout en présentant un contenu différent ou plus attrayant aux utilisateurs, elles pourraient gagner en visibilité dans les résultats de recherche.
Évolution
Avec le temps, les algorithmes des moteurs de recherche, tels que Google, sont devenus de plus en plus sophistiqués. Progressivement, l'utilisation de techniques trompeuses comme le cloaking a été déconseillé et même pénalisé : le cloaking va a l'encontre de l'objectif d'un moteur de recherche qui est de fournir aux utilisateurs les résultats les plus pertinents et fiables possible.
Malgré les sanctions potentielles, certaines entreprises et professionnels du SEO continuent d'utiliser le cloaking, cherchant constamment des moyens de tromper les moteurs de recherche. Cependant, avec les avancées technologiques et les mises à jour régulières des algorithmes, le cloaking est devenu une technique risquée et sévèrement sanctionnée.
Existe-t-il un “bon cloaking” ?
Théoriquement, non : le cloaking est proscrit par Google. Cependant, avec les nouveaux défis posés par la navigation mobile, les méga menus et la navigation à facettes, les sites ont dû chercher un équilibre entre SEO et expérience utilisateur (UX). Ainsi, certaines méthodes ont émergé et sont aujourd'hui tolérées par Google, tant qu'elles servent à optimiser l'UX.
La plus courante est le ciblage géographique : elle identifie d'où vient un visiteur et lui montre la page correspondant à sa ville. Les robots, eux, sont dirigés vers une page standard, car ils ne sont liés à aucun lieu précis. Ce ciblage permet également d’afficher à l’utilisateur une page traduite dans la bonne langue en fonction de son pays d’origine.
L'obfuscation de lien est aussi une méthode courante, notamment sur les gros sites de e-commerce. Elle "masque" des liens internes aux robots pour mieux gérer le budget crawl. C'est utile pour les sites ayant une navigation à facettes, qui peut créer de nombreuses pages superflues pour le SEO. En cachant ces liens, le robot d’indexation se concentre sur les pages essentielles, tout en offrant aux utilisateurs des options de filtrage.
Quoi qu’il en soit, même si vos motivations sont louables, il est nécessaire de pratiquer le cloaking avec précaution car c’est un sujet sensible pour les moteurs de recherche. Pour optimiser votre positionnement sur la SERP, il est recommandé de se concentrer sur des tactiques White Hat qui privilégient l’expérience utilisateur.
Les différents types de cloaking
Le cloaking à partir du user agent
Cette méthode consiste à détecter le "user agent" du visiteur (généralement un navigateur ou un robot d'exploration de moteur de recherche) et à afficher un contenu différent selon le user agent détecté.
Elle est souvent utilisée pour cibler spécifiquement les robots des moteurs de recherche avec du contenu optimisé pour le SEO. C’est une pratique qui est très bien détectée par les algorithmes des moteurs de recherche et donc risquée.
Le cloaking basé sur l’adresse IP
Le contenu est délivré en fonction de l'adresse IP (ou “l’IP Delivery”) du visiteur. Cette pratique est relativement similaire à celle du user agent. Les adresses IP des robots de moteurs de recherche sont souvent connues et peuvent être ciblées spécifiquement pour délivrer un autre contenu à l’utilisateur humain.
Le cloaking via Javascript, Flash ou Dhtml
Cette méthode repose sur le fait que les robots de moteurs de recherche ont historiquement eu du mal à interpréter le contenu généré par Javascript, Flash ou Dhtml. Le contenu visible pour les utilisateurs (via ces technologies) peut donc différer de celui accessible aux robots.
Ce cloaking est principalement utilisé lorsque les créateurs de sites souhaitent afficher du contenu riche et interactif pour les utilisateurs tout en présentant un contenu simplifié et optimisé pour les robots.
Le cloaking avec du texte invisible
C’est une technique ancienne qui consiste à masquer du texte (souvent surchargé de mots-clés) en le mettant de la même couleur que l'arrière-plan de la page, le rendant ainsi invisible pour les utilisateurs mais lisible par les robots.
Elle a été très utilisée pour surcharger une page avec des mots-clés afin d'améliorer le classement sans altérer l'expérience visuelle de l'utilisateur. Cependant, les moteurs de recherche ont depuis longtemps identifié cette tactique et la pénalisent systématiquement.
Le cloaking via le HTTP_Referer et l’HTTP Accept-language
Cette méthode détecte d'où vient un utilisateur (par le biais du referer) et identifie sa langue préférée (via l'entête Accept-language) et affiche en conséquent un contenu adapté.
Elle peut être utilisée pour proposer un contenu spécifique à une audience ou à une région géographique, mais si elle est utilisée pour tromper les moteurs de recherche, elle peut être considérée comme une forme de cloaking Black Hat.
Les risques associés au cloaking
Le cloaking, bien que tentant pour certains en raison de ses avantages potentiels, présente des risques significatifs qu'il faut prendre en considération.
Un service de signalement pour les webmasters
Les moteurs de recherche, dont Google, offrent un moyen pour les webmasters et les utilisateurs de signaler des sites qui utilisent des techniques contraires à leurs directives, y compris le cloaking. Cela signifie que même si un site semble bénéficier temporairement du cloaking, tout concurrent ou utilisateur mécontent peut le signaler, augmentant ainsi les risques que le site soit examiné et potentiellement sanctionné.
Les sanctions possibles de la part des moteurs de recherche
Un des exemples les plus célèbres des conséquences du cloaking est le cas de BMW.de en 2006. Google a découvert que le site allemand de BMW utilisait une technique de cloaking pour tromper ses robots d'indexation. En conséquence, Google a supprimé BMW.de de son index, ce qui signifie que le site n'apparaissait plus dans les résultats de recherche de Google. Ce n'est qu'après que BMW.de a corrigé le problème et demandé une réexamination de son site que Google a levé la sanction.
Signes révélateurs du cloaking
Différences de contenu : Si, lors de la navigation sur un site, vous remarquez un contenu différent selon que vous utilisez un navigateur standard ou des outils simulant un robot, cela peut être un signe de cloaking.
Changements fréquents de contenu : Si le contenu d'une page semble changer fréquemment sans raison apparente, surtout si ces changements semblent optimisés pour des mots-clés spécifiques, cela peut être un indicateur.
Différences dans le code source : Une analyse du code source de la page peut révéler des segments de texte ou des liens cachés qui ne sont pas visibles pour l'utilisateur, mais qui le sont pour les moteurs de recherche.
Présence de scripts suspects : Si le code source contient des scripts qui semblent détecter le type d'utilisateur (par exemple, un robot par rapport à un humain) ou l'adresse IP, cela peut être un signe de cloaking.
Mathilde Grattepanche
Responsable éditoriale & Rédactrice web
Avec sa plume affûtée et son expertise en rédaction web, Mathilde a acquis une solide expérience avant de rejoindre l’équipe en tant que responsable éditoriale d’Abondance. Quand elle est au clavier, réactivité et qualité sont toujours au rendez-vous !