Le responsable du secteur 'search' chez Bing a estimé que son ambition n'était plus de concurrencer Google mais d'intégrer le moteur aux produits Microsoft et de relever des défis technologiques...
Bing nous ferait-il une petite "déprime party" ? En tout cas, si on en croit Stefan Weitz, responsable du "search" chez Microsoft, qui intervenait lors de la conférence Web Summit à Dublin dernièrement, "il est peu probable que Bing prenne à l'avenir des parts de marché dans le domaine de la recherche Web". Au détriment de Google, s'entend. Les ambitions du moteur de recherche de Microsoft se situeraient plutôt dans le domaine de l'apprentissage automatique, de la recherche en langage naturel, bref des challenges plus techniques que commerciaux ou concurrentiels. L'intégration de Bing dans un maximum de produits de l'entreprise, notamment mobiles, serait également au coeur de ses objectifs.
Rappelons que les parts de marché de Bing aux Etats-Unis (si on additionne ses chiffres avec ceux de Yahoo!) frôlent les 30% aux Etat-Unis, ce qui est loin d'être négligeable, mais ces statistiques n'ont pas changé depuis des lustres et restent stables au fil des ans, sans aucune progression significative pour Bing. En Europe, en revanche, sa présence reste anecdotique (moins de 5% en règle générale) face au géant de Mountain View. Et, là encore, aucune progression visible depuis un bon moment.
La concurrence avec Google ne ferait donc pas partie des préoccupations quotidiennes de Bing. Une sorte d'aveu d'abandon des ambitions pourtant bien plus claires il y a quelques années de cela. O tempora, O mores...
Source de l'image : Web Summit |
@wokerm, Bing a l’énorme l’avantage sur tous les autres de délivrer son moteur par défaut sur tous les PC neufs du monde (quasiment), et pourtant, la majorité des utilisateurs changent le moteur de recherche par défaut pour Google.
Comme le souligne @François, Google a développé des moyens puissant pour « CONTROLER » ses résultats. La lute anti-spam a fait sa grande force, avec des résultats épurés, l’utilisateur sait qu’aujourd’hui en allant sur Google, il peut avoir confiance dans la pertinence des résultats. Presque tout est là, dans cet indice de confiance, et désormais de notoriété.
Mais cette confiance, c’est aussi la maitrise de ses propres résulats, face au monde SEO et surtout « black Hat ». C’est Google qui décide si un site doit monter ou descendre, il en musèle le trafic en fonction de sa notoriété à l’aide du PageRank qui reste l’une des notions les plus importantes du classement.
Pour preuve que le PageRank est l’élément clé sur les grosses requêtes (hors prime de fraicheur) , c’est que Google ne le met plus a jour pour le public, il garde précieusement la valeur pour lui.
Associé a la grosse ménagerie des filtres succéssifs (Panda, penguin etc), la pertinence est très acceptable pour la majorité des internautes, et bien au-dessus des concurents de Google.
Il serait impossible de détrôner Google, mais Bing a tout de même prouvé qu’il était capable d’aller loin.
bing a besoin d’un peu d’aide c’est tout il faut faire des partenariat avec les grande firme tel que facebook ibm hp , exlead , voir méme la commission europénne
n’oublier pas que bing a atteint plus de la moitié de son objectif etre numero deux et prendre 30 pour cent de part de marche a google c’est pas donnée a tout le monde
Je pense qu avec la azure machine learning les puces synapse d IBM Watson et Cortana Bing pourra detronner google en quelques hours pas maintenant maid moi j y crois j Ai confiance en Bing
Un concours SEO a lieu depuis deux mois sur un mot-clé « existant » (c’est à dire non inventé). Ce mot-clé s’est donc fait « attaqué » du jour au lendemain par des centaines de sites plus spammy les uns que les autres.
La différence de gestion de cette anomalie par les deux moteurs est étonnante :
– Les 10 premières pages de Bing sont totalement squattés par les sites des participants.
– Google a détecté qu’il y avait une activité inhabituelle sur le mot-clé et a bloqué la majorité des sites des participants. Depuis plus d’un mois ces derniers ne sont visibles qu’à partir de la trentième page des SERP. Les premières pages de Google sont donc presque normales malgré les multiples tentatives de prises de position par les participants.
C’est assez impressionnant et ça démontre bien l’avance technique de Google par rapport à Bing.
Le phénomène est également décrit sur cet article : http://www.masscontentseo.com/?p=612
A ce niveau de marché, sur de tels volumes, il est en effet difficile de faire mieux que son concurrent. Comme dans l’article précédent (crawl Apple) , vu le gigantesque volume de sites et pages web dans le monde, vu le volume de trafic mondial, un moteur a ses limites.
Ces limites, ce sont la finesse des informations, la qualité, l’exaustivité sur chaque entité web que le moteur doit traiter, filtrer, classer, etc … Une toute petite info de plus sur une entité représente une masse de traitement, contrôle etc encore plus difficile.
Aller à la pêche, site par site, de tout ce que l’on aimerais savoir en complément, dans une approche mondiale, est exponentiellement couteux en tout (machines, humains, datacenter…).
On est donc à la limite du possible et du rentable, on sait le coût que Microsoft à du assumer ne serait-ce que pour presque rejoindre l’architecture de Google (5 milliards je crois?). Et tout cela, « sans bouger de sa chaise » si je puis dire, c’est à dire que l’on envois des robots pour faire 90% du travail (crawl, analyse, classement, indexation, résultats, analyse des logs etc …). Sans compter l’avance de Google …
Les deux géants vont progresser en fonction de l’évolution des technologies qui vont leur permettre d’affiner un peu plus leur data, et d’augmenter un peu les informations qu’ils peuvent receuillir a distance sur la planète.
Pas plus, même si sur le plan théorique, ils pourraient faire bien plus.