
Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Les « core updates » sont-ils systématiquement conçus pour lutter contre le spam ? Lorsqu'une redirection est mise en place sur une URL, combien de temps Google la teste-t-il pour savoir si elle existe encore ? Google peut-il refuser d'indexer par exemple 20% des pages d'un site web ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Core Update et Spam |
John Mueller a indiqué sur Twitter que tous les "core updates" mis en place depuis plusieurs années n'avaient pas pour unique vocation de combattre des pratiques de spam... |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Test de redirections |
John Mueller a expliqué sur Twitter que lorsqu'une redirection est mise en place, le moteur essaiera pendant des années, encore et encore, de les tester pour savoir si elles sont encore mises en place : "Nous avons la mémoire longue. Je pense que nous allons continuer à réessayer pendant des années, par intermittence. En général, nous ralentissons considérablement l'exploration de ces URL, mais l'exploration lente reste de l'exploration. Cela ne pose pas de problème pour le reste du référencement du site."... |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Indexation partielle d'un site web |
John Mueller a expliqué lors d'un hangout pour webmasters qu'il était courant que Google n'indexe - c'est un exemple - que 80% du contenu d'un site web (et refuse donc d'en indexer 20%). Cela peut venir de la qualité globale du site, jugée pas assez satisfaisante, ou des pages en elle-même, etc. Et cela arrive fréquemment sur les très gros sites (plusieurs centaines de milliers de pages). |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Goossips : Core Update et Spam, Test de Redirections, Indexation partielle. Source : Google