La recherche universelle prônée par Google, qui consiste à "injecter" dans les pages de résultats du moteur des données issues de sources diverses (actualité, images, vidéos, cartes, etc.) nous renseigne aujourd'hui encore un peu plus sur la stratégie de "portalisation" mise en place par le leader américain sur ses sites.
En effet, de plus en plus, Google passe d'un statut de "hub" (simple moteur de recherche faisant l'interface entre l'internaute - qui se pose des questions - et les sites présents sur le Web - qui amènent des réponses -) à un statut de "portail". Google a longtemps été un carrefour, un outil transitoire sur lequel on ne fait que passer quelques instants, le temps de saisir quelques mots clés avant de partir vers un "vrai" site web fournisseur d'informations.
Cette période semble révolue et Google, dans sa volonté de croître et d'évoluer, semble vouloir de plus en plus garder les internautes sur ses pages de résultats, sur son site ou, tout au plus, sur ses différents outils. Pas (plus ?) question, aujourd'hui, de faire fuir l'usager vers l'extérieur, il doit au maximum rester dans la "sphère googlienne", manne publicitaire oblige...
La recherche universelle est un bon exemple de cette stratégie. Sur des requêtes associant un nom de commerce et un nom de lieu (exemples : "hôtel Paris", "restaurant Toulouse", "plombier Strasbourg"...), regardez la page de résultats renvoyée par Google sur un écran d'ordinateur portable :
Qu'y voit-on ? Trois liens sponsorisés en position "premium" (fond pastel en début de liste) - fournis par Google bien sûr - suivis d'une carte accompagnée de liens, le tout issu de Google Maps. Sur la droite, 6 liens sponsorisés - Google Toujours - sont affichés. Résultat ? Google everywhere... et aucune place pour les autres si ce n'est un demi-résultat peu visible en bas d'écran, à peine au dessus de la "ligne de flottaison"... Bien sûr, on objectera - avec raison - que sur un écran plus grand, les résultats organiques (issus de l'index et proposant les liens issus de sites concurrents comme PagesJaunes.fr ou 118000.fr enter autres) apparaissent. Certes, mais l'espace réellement visible (le fameux "triangle d'or" des pages de résultats) est entièrement accaparé par des liens issus de "la maison Google"...
On a par ailleurs vu que le moteur de recherche testait actuellement des descriptions plus longues affichées en dessous des titres :
La logique est la même : si le descriptif est plus long, il affiche plus d'infos et l'internaute n'aura pas obligatoirement à aller sur le site distant pour la chercher. Il l'a sous les yeux... Il reste chez Google. Cela vous arrive certainement souvent : vous cherchez une info précise (adresse mail, numéro de téléphone ou autre) et elle se trouve directement dans le "snippet" (résumé descriptif de la page affiché par Google). Résultat : une visite en moins pour le site en question et un visiteur gardé pour le moteur de recherche...
On peut d'ailleurs inévitablement se poser des questions en termes juridiques à ce niveau : Google a-t-il le droit de fournir une information à la place du site vers lequel il devrait aiguiller les internautes s'il suivait à la lettre son rôle de moteur de recherche ? Bref, s'il affiche l'info directement au lieu d'en indiquer la source, n'outrepasse-t-il pas ses droits, ses devoirs et son métier ?? Les internautes y gagnent peut-être, mais pas les sites web... Va-t-il falloir "saboter" nos balises meta "description" pour ne pas y insérer de données trop précises empêchant les usagers de la Toile de venir sur nos sites ? Voici des questions qui me semblent importantes pour l'avenir...
On dit depuis longtemps que les moteurs de recherche sont de formidables "boosteurs" de trafic. C'est évident. Mais on peut aussi légitimement se poser la question du trafic capté par ces mêmes moteurs et que les sites distants ne récupèrent pas. Aujourd'hui peut-être encore faible, il sera intéressant de surveiller ce phénomène à moyen terme...
Source des images : Wikipedia / TechCrunch
English version: Search engines, traffic eaters?
super billet sur la suprématie de Google, j’ai particulièrement aimé cette phrase : une visite en moins pour le site en question et un visiteur gardé pour le moteur de recherche…
La question n’est elle pas posée à l’envers ? Si une page internet a pour objet de dispenser une information qui peut se réduire à 2 lignes, alors cette page mérite-t-elle vraiment d’exister ? La valeur ajoutée d’une visite sur la page depuis le moteur de recherche est de toute évidence faible dans ce cas… Plutôt que de pester après Google, une démarche plus productive ne serait-elle pas de chercher comment apporter plus de valeur à l’utilisateur…?
D’autant plus que l’enrichissement des résultats de recherche, en particulier avec des données structurées (cf SearchMonkey), est une tendance contre laquelle il parait bien vain de vouloir lutter…
Nous sommes dans la même logique mercantile, assassine et suicidaire. Big Broother is sucking you.
Les exemples présentés sont peut-être une sorte de test limité, destiné à mesurer le comportement des internautes et à recevoir leurs commentaires par le biais de blogs comme celui-ci.
Le problème d’ «hôtels Paris », ce n’est pas les cartes, les photos ou les vidéos qu’il nous faudra un jour de toute manière inclure dans nos pages: c’est celui de la monopolisation de la première (puis de la seconde…) page des SERP par du contenu Google et des liens sponsorisés.
Si ce type de SERP devient la règle, que va-t-il se passer?
Google a acquis à la fois la confiance des internautes et des annonceurs en créant un modèle économique unique: une séparation totale, au niveau de ses équipes, entre l’activité « moteur de recherche » dont l’objectif est de donner l’information la plus pertinente et la plus complète possible, et l’activité « Adwords », qui est là pour faire tourner la boutique.
La communauté du Web semble-t-il y croit, et apprécie ce choix stratégique qui a assuré le succès de GG sur les deux fronts.
Imaginons que le SERP « hôtels Paris » devienne la règle générale. GG y perd en pertinence, qui est son maître mot jusqu’à aujourd’hui. Il y perd encore plus en crédibilité, en fournissant des résultats que l’on ne manquera pas d’estimer truqués. Il ouvre ainsi la porte à des moteurs spécialisés, comme le souligne l’un des intervenants dans ce forum. Et il perd de l’audience, et donc des revenus publicitaires.
Quant au deuxième exemple (très longs snippets) il va directement à l’encontre d’un principe de base de la navigation sur l’internet: la rapidité de consultation. Si l’on doit lire 10 lignes de texte au lieu de 2, on ne passe plus les 20 ou 30 secondes habituelles sur la page de résultat, mais une minute ou deux. Mauvais, pour les gens pressés que nous sommes. En outre, 10 lignes de snippet seront toujours insuffisantes pour l’internaute qui s’intéresse à un thème particulier. Il ira de toutes manières vers la page de détail, et sera simplement irrité que GG lui ait fait perdre un peu de son temps.
Gageons que le bon sens prévaudra. Il y a beaucoup d’imagination, chez eux, ils lancent de nouveaux projets plus souvent que je ne vais acheter du pain, mais ils savent aussi en tester les résultats.
Ne pas oublier tout de meme que les ajouts de Universal Search sont intégrés aux résultats donc bien orientés sur la demande de l’internaute contrairement à des portails types Yahoo!
Par ailleurs, je continue de répéter que les ajouts US ne sont pas des parasites pour l’internaute, ce sont de vrais services.
Seuls les SEO classiques pleurent que ça « leur casse la baraque » (Bouh! Mes keywords!).
Ben oui! Va falloir prendre sa webcam et intégrer des cartes (map) en plus du clavier à META!
Google ça bouge, c’est vivant! Nous aussi!
David
Très intérressant comme analyse.
Combien de tps google va t-il pouvoir continuer à être vaste, pertinent et succint à la fois …
le triangle d’or est le lieu de captation… le présupposé de toute l’analyse soutenue dans le billet démontre que Google fournit un service ‘gratuit’ à l’internaute mais que ce même Google est là pour rentabiliser ses propres offres de service… est-ce de la manipulation ? est-ce un appauvrissement dans l’accès à l’information ?
Demain un nouveau moteur développant un autre modèle économique pourrait vite dépasser Google ? En effet, la sur manipulation précitée ne risque t elle pas de générer des effets repoussoirs ?
Sprinteur: Cette extension fonctionne avec firefox 2 (aucun lien sponsorisé ni en haut ni à droite), et peut-être la 3 (pas testé) :
http://www.customizegoogle.com/
c’est indéniable que depuis le début, google enfreint les droits d’auteur (avec son cache notamment) et maintenant avec la reproduction d’un long extrait, il dépasse largement la simple citation…
c’est indéniable que depuis le début, google enfreint les droits d’auteur (avec son cache notamment) et maintenant avec la reproduction d’un long extrait, il dépasse largement la simple citation…
c’est indéniable que depuis le début, google enfreint les droits d’auteur (avec son cache notamment) et maintenant avec la reproduction d’un long extrait, il dépasse largement la simple citation…
L’Universal Search c’est la négation de la spécialisation du moteur; au début on utilisait Google comme outil spécialisé dans la recherche d’expressions (documents contenant ceci et cela: « punch die poinçon matrice » donne sans doute un document bilingue parlant sur le sujet).
Maintenant Google renvoie tout et souvent n’importe quoi, et de sa seule initiative. Quand l’outil le plus courant devient une usine à gaz il y a place pour des moteurs spécialisés, ou des méta-moteurs ajoutant des options.
Tant que le grand G gardait ses onglets en haut à gauche pour chercher des choses particulières (il manque Scholar au fait en haut), j’étais plutôt pour; l’exemple présenté est caricatural et je tombe rarement sur ce genre d’envahissement, mais il y a quelque chose à faire: un Mozbot avec options « sans liens premium » ou « sans liens sponsorisés » ou « texte seulement »; ça doit pouvoir se faire?
Et dans la liste du Père Noël, un réglage de la longueur du snippet après chaque URL, ça pourrait faire plaisir aussi…
GG ne ressemble pas encore à Yahoo ou à d’autres portails.
Cependant, son interface se complexifie régulièrement et s’éloigne ainsi de la simplicité qui a fait son succès.
Trop d’info (diverses) tue l’info comme dirait l’autre.
L’interrrogation de Gautier : « Et si avec l’Universal Search, Google prenait le risque de se tuer tout seul » me semble (également) particulièrement pertinente.
Cette tendance soulignée par Olivier Andrieux est uen tendance de fond.
Elle s’accompagne depuis pas si longtemps d’une méfiance montante à l’égard d’un Google qui sort son « don’t be evil » qui tue la critique et son discours opensource anesthésiant. Pourtant en sortant Chrome il rend ringard le monopolistique Windows/IE.
En quelque sorte, en supprimant le pluralisme, Google pousse le marché à trouver d’autres solutions pour ne pas être dépendant de son monopole.
La question pour les professionnels revient probablement à migrer du SEO (où SE = Google) à la visibilité tout court.
Avec la fusion en cours mots clés-URL, je vois bien d’anciennes pistes resortir :
– mix-marketing offline (radio, TV thématique, papier (!))
– notoriété
– noms de domaine (domaining)
Et bien d’autres solutions qui seront autant d’avantages concurrentiels pour les agence.
Je rebondis sur les propos de Gauthier…
Comparer les résultats de recherche de Google à un portail type Yahoo me semble aller un peu loin…
Si Google tend vers une « portalisation » de ses résultats, il s’agit d’une « portail » dynamique (car adapté aux recherches des internautes), ce que n’est pas Yahoo ou autres car tout le monde ou presque y voit la même page d’accueil.
Cela n’enlève rien à la réflexion, je suis aussi d’avis que cette tendance de Google pose pas mal de questions.
Cette évolution de stratégie est intéressante parce qu’elle change fondamentalement le statut initial de « hub » vers le statut de « portail », comme tu l’expliques très bien.
Le changement d’une interface, c’est le changement des habitudes : on passe du moteur de recherche qui ne fait QUE de la recherche, au portail.
Et je ne peux m’empêcher de penser à Altavista et même Yahoo! il y a quelques années : pour eux, le glissement vers le statut de « portail » s’est soldé par l’arrivée d’un concurrent « meilleur », exclusivement search, qui les a finalement envoyés au statut d’outils de recherche marginaux.
Et si avec l’Universal Search, Google prenait le risque de se tuer tout seul, comme un Grand ?
En tous cas, je ne suis pas sûr que webmasters et référenceurs apprécient que leurs contenus et leur travail soient mis en retrait par le Calife.
Exact ! Bien vu !!
Sans oublier Knol, wikipedia-like de Google proposant du contenu édité par des experts, qui aura aussi vocation à figurer en bonne place dans les résultats naturels.