Les moteurs de recherche rivalisent actuellement d'ingéniosité pour sortir des logiciels, outils et sites web originaux, pétris d'innovations et de nouveautés. C'est une bonne chose car cela induit une "spirale de l'excellence" générée par une irrépressible envie de faire mieux et d'être plus inventif que son concurrent...
Mais cette spirale a également un côté négatif, qui n'est pas nouveau hélas, notamment sur l'Internet : chaque nouveau projet est créé par les moteurs "dans leur coin", le plus souvent sans soucis de mettre en place des standards, des normes auxquels pourraient se rattacher les autres acteurs du marché.
Chacun travaille dans ses laboratoires et lance des outils "perso", basés sur des technologies "boîte noire" le plus souvent totalement opaques... On voit ainsi Google, Yahoo!, Microsoft et Ask proposer chacun leur outil de cartographie basé sur des images satellites, développé selon des procédures, des voies de réflexion et des formats de données différents. Que se passera-t-il lorsque, par exemple sur des systèmes de navigation embarqués à bord de véhicules, un besoin de normalisation des données échangées se fera sentir ?
On pourrait avoir la même réflexion sur des projets comme les moteurs "locaux" (de type Google Local ou Yahoo! Local) , tous les systèmes actuels de folksonomie, de "Desktop Search", de recherche dans les fils d'actualité, ou des outils comme Yahoo! Q, Mindset, Instant Search ou Google SiteMaps, les différentes barres d'outils de chaque acteur et bien d'autres... On redoute un système similaire à Google Sitemaps proposé par Yahoo! et Msn, chacun demandant une structure de fichier XML différente. D'où, pour le webmaster, trois fois plus de travail à faire pour mieux référencer son site...
Mais les choses bougent également parfois... On pourra par exemple noter l'initiative de Google dans le cadre, justement, de son système SiteMaps sous la forme d'une licence Creative commons...
Mais n'y aurait-il pas moyen d'aller plus loin, d'être plus ambitieux à ce sujet ? Pourquoi ne pas imaginer une sorte de consortium auquel participeraient tous les acteurs de la recherche d'information sur le Web et qui dicterait un certain nombre de "guidelines" et de standards du domaine, un peu à l'exemple de ce que propose le W3C sur le Web ?
Bien sûr, il est évident que le but à atteindre ne serait pas que chacun fasse la même chose que l'autre, et surtout y perde de son inventivité et de son potentiel d'innovation, mais plutôt que chacun travaille sur les mêmes fondations, garantissant une plus forte pérennité des projets qui seraient développés sur des bases solides, saines et partagées par tous... Le travail à engager est immense, à l'aube d'une époque qui pourrait bien voir encore plus de concurrence entre les acteurs... Ne serait-ce pas autant de temps et d'argent gagné à moyen terme ?
Est-ce utopique de penser que la création d'un tel consortium soit possible ? Après tout, ce type d'organisation existe dans la plupart des marchés mondiaux actuels, dans l'industrie, l'informatique, les télécommunications, etc. Pourquoi pas dans le "search" ? L'avenir dirait, en tout cas, si ce type de projet est une vue de l'esprit ou une forte nécessité... Comme dit un proverbe alsacien, "Qui sème la discorde, travaille pour la grange du diable". 🙂
Hello
Voilà une discussion intéressante.
Le problème est qu’un moteurn de recherche « standard » et universel ne pourra vraiment, à terme, que se reposer sur un « Web sémantique ».
En clair, plus les pages web seront « sémantiques », c’est à dire porteuses de sens et non de mise en forme inutile (balises et attributs comme border, color, font, etc qui n’apportent aucun sens au document), plus les documents seront exploitables par tous les outils dont les moteurs de recherche.
La démarche découle donc du choix (et des connaissances/compétences) des concepteurs web : s’ils produisent des pages ayant du sens, alors un mécanisme « standard » pourra s’opérer.
Pour l’instant, les moteurs comme google doivent se débrouiller et patauger dans des soupes infâmes de balises et de scripts inutiles pour eux.
Ils savent se dépatouiller mais on ne pourra jamais aller beaucoup plus loin tant qu’on en sera à ce stade dans la conception web.
Il faut donc commencer par adopter une démarche plus « citoyenne » en créant des pages dites « sémantiques ».
Microsoft, Google … travaillent déjà avec le W3C.
Normaliser les formats d’enregistrement des données des moteurs de recherche me semble justifié, mais tant que les moteurs de recherche resteront extrêmement gourmands en ressources matérielles, l’émulation « à la W3C » ne pourra pas àmha être envisagée, puisque on en est encore à développer un logiciel de recherche adaptée à un type de matériel particulier.
De plus, vous semblez regrouper sous le terme «moteur de recherche» tout un tas de logiciels qui n’ont rien à voir avec le logiciel de base d’un Google ou d’un Yahoo : on tape des mots-clés et des pages nous sont renvoyées. Je pense que chaque problème doit être traîté séparément.
Brj,
Simplement dans le sens d’une ammonie des barres de recherche.
Plutôt que d’avoir à choisir LA barre et les fonctions de tel ou tel moteur, il serait
en effet préférable (pour l’internaute) de n’avoir à télécharger qu’une seule
barre de recherche comprenant les fonctions intéressantes de chacun des grands
acteurs de la recherche. (utopie ne considérant pas les intérêts commerciaux :).
En tout cas pour IE. Le système de plugins de mozilla étant plus souple à ce
point de vue et permet de cumuler x fonctions différentes sans trop
alourdir le navigateur.
Bjr
euh, je ne vois pas trop le rapport ??
La MozbotBar est également multimoteurs mais il n’y a pas vraiment de notion de normes derrière… Peux-tu éclaircir notre lanterne sur ta vision de la chose ?
merci
Olivier
Peut être avons nous fait involontairement un pas dans ce sens en proposant une barre d’outils avec fonction de recherche multi-moteurs …
Oui mais il y a une différence entre le traitement de l’information qui est une donnée malléable, et le support qui sert à la véhiculer html, xml, etc… qui nécessairement doit être rigide pour sa diffusion.
Bjr
Pourtant, c’est bien ce que fait le W3C avec le langage HTML et la façon dont les navigateurs le prennent en compte, non ?
L’exemple type, c’est le systeme de Google SiteMaps qui devrait, à mon avis, être standardisé pour éviter aux webmasters de fair eindéfiniment un boulot donné (un plan du site au format XML)… Il y a certainement bien d’autres voies de réfexions pour un tel consortium…
Cordialement
Olivier
Ce n’est pas la section trec du
nist
Ce n’est pas tout à fait la même chose à mon sens, ne compares pas les standards de l’industrie avec un hypothétique « standard » des business machines, qui ne fabriquent rien, mais exploitent des données de la meilleure façon possible pour en retirer tout le jus. Je ne pense pas que cela soit dans leur intérêt de créer un standard à partir d?une information qui ne leur appartient pas, car dans ce cas, la concurrence ne se privera pas de l?exploiter à son tour, ce qui va à l?encontre même du principe d?existence de ces sociétés, qui se distinguent par la façon dont elles exploitent ces données.
Oula mais moi je ne désire rien 🙂
Je pose juste la question du bien fondé – ou non – d’un consortium regroupant les garnds acteurs du « search » qui pourrait définir des standards sur lesquels s’appuierait tout le monde afin de créer une convergence dans la création de moteurs et d’applicatifs de recherche… A chacun d’apporter son idée et sa vision à partir de cette interrogation.
Cordialement
Olivier
Peux-tu expliquer un peu plus ce que tu désires comme plus grande interopérabilité des moteurs de recherche.