Affichage des articles dont le libellé est pertinence. Afficher tous les articles
Affichage des articles dont le libellé est pertinence. Afficher tous les articles

mercredi 10 septembre 2008

Moteurs de recherche alternatifs : 2% du marché !

Moteurs de recherche alternatifs : 2% du marché !

Alt Search Engines, un excellent site sur les moteurs alternatifs à GYM, nous propose les dernières stats d'Hitwise sur les parts de marché des moteurs aux États-Unis :


La conclusion est sans appel : sur un an (août 2007 - août 2008), les parts de marché des moteurs alternatifs ont chuté de 3,13% à 1,96%.

Le billet conclut ainsi : Commentaires ? Idées ? Solutions ?

Commentaires

Ce qu'attendent les internautes d'un moteur, essentiellement, c'est la pertinence. Or la pertinence s'obtient autant sur le qualitatif que sur le quantitatif. Impossible de remonter des résultats pertinents si l'on a l'un sans l'autre.

Le qualitatif, c'est la précision de l'algorithme.
Le quantitatif, c'est l'exhaustivité de l'index.


Comme je le disais déjà lors d'une précédente comparaison de l'index des moteurs de Google, Yahoo et Microsoft, il convient de préciser :
L'augmentation de la taille de l'index n'est pas forcément corrélée à l'augmentation de la pertinence, celle-ci ne dépendant pas uniquement de la couverture, mais il est clairement impossible de retourner le résultat pertinent tant que la ressource correspondante n'est pas indexée.

[C'est la composante quantitative]

A contrario, un moteur peut très bien avoir le site pertinent dans son inventaire et rester silencieux, c'est-à-dire ne pas sortir le résultat. En fait, pour un moteur, il est encore pire d'avoir un site dans son index sans comprendre que, pour une requête donnée, le site pertinent, c'est justement celui-là !


[C'est la composante qualitative.]
Or aujourd'hui, Google est LE moteur qui a trouvé le meilleur mix entre ces deux composantes. Exemple : Cuil a la première sans avoir la seconde, tandis qu'Exalead a parfois la seconde sans avoir la première. Ils y travaillent, mais c'est probablement le lot des outils de recherche alternatifs que de pouvoir difficilement réunir les deux dans une proportion satisfaisante.

Or dans les deux cas, le résultat est le même : on n'a qu'une pertinence quali-quantitative partielle, et donc, autant dire qu'on n'a plus de pertinence du tout.

Idées

À court-moyen terme, je ne vois aucun moteur capable de renverser la suprématie de Google. Je ne crois pas que les gens aiment Google en soi, mais juste parce que c'est le moteur qui leur fournit les meilleurs résultats. Si demain une société sort un meilleur moteur, il y aura un déplacement massif des internautes vers ce nouvel acteur. Si...

Car c'est plus facile à dire qu'à faire, et concrètement, non seulement personne n'y arrive, mais en plus Google continue de gagner des parts de marché. Pourquoi ?

Ma seule réponse : parce qu'il est plus pertinent que les autres. C'est tout.

Donc la question n'est plus de savoir qui détrônera Google sur son terrain - personne - (tout au moins à un horizon temporel prévisible), mais quand y aura-t-il rupture avec l'existant : rupture culturelle, rupture technologique, rupture des usages, etc.

Et comme je le commente sur le blog d'Olivier Andrieu, je ne vois encore nulle trace de cette rupture à venir, car les esprits ne sont pas prêts, le Web est trop jeune et va trop vite compte tenu de nos simples capacités physiologiques.

Solutions

Il est clair de ce qui précède que je ne vois aucune solution généralisable. Par contre il y a certainement des solutions individuelles pour chercher sans Google. Mais ce sont des solutions que chacun/e doit personnaliser à sa mesure, et ce qui vaut pour moi ne vaut plus pour le voisin.

À chacun/e son cocktail, avec des dosages qui dépendent de nos propres capacités à appréhender le Web. Deux exemples :

1. Szarah :
Mes recherches, je les fais avec un métamoteur, je n'ai jamais cherché à savoir combien de Google il y avait dedans.
J'utilise IE et FF, XP et Ubuntu, ça dépend de la machine que j'utilise.
Je ne crois avoir de "préférences" pour personne mais j'ai de la reconnaissance pour tous.
Pour Apple et son interface, pour Microsoft en ceci qu'il a permis une informatique "à la Apple" mais dans mes moyens, pour FF qui est venu contrer MS devenu hégémoniaque, pour Linux pour le même motif.

Et il se trouve que je n'ai pas besoin de Google.
Ni de près ni de loin.
Il ne me sert à rien (sauf comme sujet d'étude mais c'est une activité de loisirs).
Une position qui ne me convainc qu'à moitié, car dans tout métamoteur, la part de Google est prépondérante. Donc la pertinence des résultats retournés par le métamoteur dépend étroitement de Google. Enlevez Google des métamoteurs et, vous savez quoi : vous reviendrez à Google ! Tout au moins si vous vous souciez d'obtenir des résultats pertinents.

2. Narvic se forge ses propres outils de recherche d'informations, et compte sur des stratégies de recherche sociales pour faire mieux que Google.

Personnellement, je partage plutôt l'opinion de Chris Sherman sur la recherche sociale, mais je conçois aisément que d'autres préfèrent une telle approche.

Ceci dit, hors de ces approches personnalisées (y compris via Google CSE), je ne vois à court terme aucune possibilité réaliste de détrôner Google.

En tout cas, ce n'est certes pas Quaero qui apportera des solutions...


Partager sur Facebook

, , , , , ,

samedi 13 octobre 2007

Facebook : anatomie d'un article fragile

Facebook : anatomie d'un article fragile

Attention, ça va tanguer. Coup de gueule. Motivé par la lecture d'une "analyse" intitulée Facebook : anatomie d'un succès fragile, signée PIERRE DE GASQUET, journaliste au service Enquête des « Echos ».

On va encore me reprocher de mélanger les torchons et les serviettes (ou journalistes et blogueurs, si vous préférez), comme quoi il n'est peut-être pas pertinent (ou serait-ce juste impertinent ?) de mettre en parallèle blogueurs et journalistes (je dis cela sans ironie aucune pour Narvic, dont les analyses sont des analyses, et les réflexions des réflexions sérieuses), mais moi, à la lecture du texte incriminé (peut-on qualifier ça d'article journalistique ?), je me demande vraiment quelle est la différence entre Pierre de Gasquet, qui publie ses enquêtes sur un journal comme Les Echos, et Jean-Marie Le Ray, qui poste ses pauvres billets sur son blog, avec 200 lecteurs dans ses bons jours !

Et ça m'énerve ! Il y a des moments où je ne supporte plus cette asymétrie de crédibilité dans l'information. Un texte que je n'oserais pas même publier bourré ! Bourré de clichés jusqu'au ridicule, qui entasse les stéréotypes les uns sur les autres sans la moindre vergogne, juste pour donner ça en pâture au peuple parce que c'est ce qu'il aurait envie d'entendre, je suppose. Quelle honte !

Moi j'appelle ça prendre les gens pour des cons. J'appelle ça être assez sot, ou imbu, pour croire que les internautes sont incapables de faire la part des choses et discerner par eux-mêmes une véritable analyse d'un véritable torchon.

Faudra quand même qu'un journaliste, un vrai, m'explique un jour ce qu'est - ou ce que devrait être - un journaliste. En 2007. À l'heure d'Internet. À l'heure où les règles ont changé.

* * *

Mais fi de déverser ma bile, venons-en au "succès fragile" de Facebook et citons sur pièces :
Dix milliards de dollars pour Facebook. Qui dit mieux ? Et bla bla et bla bla. Toute la question reste de savoir si, quelques années après l'éclatement de la première bulle Internet en 2001, nous ne sommes pas encore à la veille de l'explosion d'une nouvelle « bulle Web 2.0 », dont la tendance à la survalorisation de Facebook serait un des signes prémonitoires.
Selon certaines rumeurs persistantes, Microsoft et Google seraient prêts à se disputer une participation de 5 % à 10 % dans Facebook pour un montant estimé entre 300 et 500 millions de dollars, soit une valorisation du site communautaire comprise entre 6 et 10 milliards de dollars.
Voilà. Terminé le volet financier de l'analyse. C'est assené clair et net, bulle, signes prémonitoires, rumeurs, survalorisation, avec ça on est fixés. Quand je pense que de son côté le pauvre blogueur s'est fendu d'une longue élucubration sur la valeur de Facebook, je me dis "à quoi ça sert que Ducon il se décarcasse" ! (Ducon, c'est moi dans le cas présent, je précise pour qu'on confonde pas...)

Et ça continue :
Avec 15,7 millions (sic!) de pages vues en août, Facebook est devenu le troisième site communautaire le plus visité aux Etats-Unis, derrière MySpace et YouTube.
On voit là toute l'expertise de l'analyste, qui aurait pourtant pu - et dû - rectifier de lui-même qu'il s'agit de milliards de pages vues, et non de millions : sans trouver bizarre un instant que 42 millions d'utilisateurs actifs (Avec ses 42 millions d'utilisateurs actifs, il est encore loin des 100 millions d'adeptes réguliers revendiqués par le réseau My- Space de Murdoch) (admirez au passage : My - trait d'union - espace - Space, c'est nouveau) ne consultent que 15,7 millions de pages, soit en gros une page vue par mois pour ... 3 utilisateurs "actifs" : avec un tel taux d'activité, il y a survalorisation, c'est clair !

Mais bon, on n'en est pas à ça près dans l'approximation ! De toute façon, ça passe comme un lettre à la poste auprès du lectorat ignare.
A la base du succès des « réseaux sociaux », bla bla, l'engouement des adolescents et « post-ados » (15-24 ans) pour ces sites fédérateurs qui permettent de se regrouper par affinités. Une forme de résurgence de compagnonnage virtuel. Mais le succès de Facebook commence à se propager à certains milieux professionnels où la « cool attitude » est de rigueur (high-tech, publicité...) et où la limite d'âge théorique ne tient plus. Au point que les employeurs australiens ont récemment estimé à 5 milliards de dollars son impact négatif sur la productivité des salariés. « Mon boss veut devenir mon ami sur Facebook ! », s'alarmait récemment une jeune publicitaire de vingt-six ans dans les colonnes du « Financial Times » du 3 octobre, en s'inquiétant du brouillage entre les sphères privée et professionnelle. Ne dites pas à mon boss que je suis sur Facebook, il y est déjà !
Ici aussi, nous avons une belle brochette d'idées reçues : engouement des adolescents et post-ados, la résurgence du compagnonnage virtuel (bien trouvée, celle-là, je plussoie, et apparemment je ne suis pas le seul...), la « cool attitude » de rigueur chez les high-tech et dans la pub (ça tombe à pic, Adscriptor est très connoté high-tech), tout ça nous amène à l'argument imparable, le coup de massue : « Au point que les employeurs australiens ont récemment estimé à 5 milliards de dollars son impact négatif sur la productivité des salariés. »

Alors là, attention, l'affirmation vaut son pesant de moutarde qu'on s'y attarde. 5 milliards de dollars, nous y revoilà avec les gros chiffres. Et puis c'est pas des millions, comme pour les pages vues, c'est des milliards. En dollars australiens, nettement plus appréciés, techniquement parlant, que les dollars américains, qui font figure de parents pauvres. C'est vrai que quand on parle de milliards, de suite ça fait plus sérieux. C'est du lourd. Et sur un continent où il y a à peu près autant d'australiens que de franciliens en Île de France ! Donc sur 15,7 millions de PV, et en calculant le nombre de pages vues au prorata du pourcentage des utilisateurs "australiens" de Facebook, on comprend bien comment on en arrive à 5 milliards de dollars de pertes.

Et puis je vous dis pas dans le reste du monde... À ce compte, on comprend mieux que Facebook soit survalorisé, vu le paquet de pognon qu'il fait perdre aux employeurs. Va falloir enquêter auprès du Medef, que ça arrive pas en France, ces choses-là.

Bla bla.
Le rythme de croissance du bébé de Mark Zuckerberg fait rêver. Le modèle est simple : on consolide d'abord l'audience, et on « monétise » après à travers la publicité. Aujourd'hui, les sites communautaires sont encore valorisés sur la base d'un « acte de foi »...

Bla bla. La valorisation de Facebook est donc basée sur la double espérance de l'essor parallèle du nombre de ses utilisateurs et de ses recettes publicitaires.
C'est clair, être valorisé à « l'acte de foi » et sur une « double espérance », ne manque plus que la charité pour avoir les trois vertus théologales... Ça fait rêver. Vraiment.
Compte tenu de son profil très « aspirationnel », avec une forte audience de départ dans les universités élitistes et les écoles de commerce du type HEC ou Essec, Facebook est devenu un phénomène de mode particulièrement prisé dans des milieux à fort pouvoir d'achat. Selon Henri de Bodinat (Arthur D. Little), « Facebook est un peu vis-à-vis de MySpace ce que Prada est par rapport à Zara » dans la mode.
Ouh la la ! « profil aspirationnel », universités élitistes, phénomène de mode particulièrement prisé dans des milieux à fort pouvoir d'achat, ça frappe fort ! Pour finir avec la comparaison qui tue : Selon Henri de Bodinat (de chez Arthur D. Little, S.V.P.), « Facebook est un peu vis-à-vis de MySpace ce que Prada est par rapport à Zara » dans la mode.

Le poids des mots, le choc des images. Maintenant, je comprends mieux, tout est limpide, c'est Henri qui vous a dit ça ? Ce que Prada est à Zara, c'est bluffant ! (c'est qui Zara ?) Et d'ailleurs je suis bluffé. Je kiffe, même (je suis plus tout à fait adolescent, mais bon, avec la « cool attitude » de rigueur, y a plus de limite d'âge théorique qui tienne). Je kiffe grave, donc.

Poursuivons :
Le premier qui arrive à conquérir une telle communauté aurait déjà gagné. C'est pourquoi le potentiel de croissance de Facebook serait sans commune mesure avec celui d'un Dailymotion, pâle copie du site de partage de vidéo YouTube. Le seul risque serait le « syndrome Starbucks », où les premiers aficionados se sentent trahis par une banalisation du concept.
J'aime bien au passage le "Dailymotion, pâle copie de YouTube", justifié par quoi en fait ? Parce que Google s'est offert YouTube et pas Dailymotion, probablement. D'où pâle copie. Comme votre "article", mon cher. Et puis le « syndrome Starbucks », les aficionados, certes on est dans la banalisation banalité la plus totale. Affligeant !

Et ça continue :
Tous les experts ne sont pas, pour autant, aussi confiants dans la validité du modèle de « développement viral » de Facebook. Le critère de valorisation du « visiteur unique » reste fragile pour un site dont la valeur ajoutée est nettement moins tangible que celle de plates-formes tels qu'eBay ou Amazon. A la différence de LinkedIn ou itLinkz, Facebook est loin d'être perçu comme un outil professionnel (« au-dessus de 30 ans, être sur Facebook, c'est ridicule », estime un expert).
Bon, et bien j'espère que votre expert il fait également le psy, parce qu'il va falloir que je consulte, moi. Remarquez, si c'est un problème viral, un bon généraliste suffira peut-être.

Et bla bla, bla bla, bla bla... Tout y passe. Et ça insiste, ça se répète : la vogue des réseaux communautaires bat son plein, l'engouement ... symptôme d'une nouvelle bulle Web 2.0, moins disproportionnée que la précédente, mais dont les effets peuvent être brutaux, indices de survalorisation palpables depuis plusieurs mois, d'où il n'est pas exclu que l'engouement croissant pour la nouvelle génération de réseaux communautaires ... alimente une nouvelle bulle spéculative (Steve Ballmer, a lui-même qualifié de « lubie » l'engouement pour les réseaux sociaux en rappelant le déclin de Geocities) (Geocities, Facebook, même combat...), le contenu inepte généré par des utilisateurs qui serait impubliable par toute source professionnelle (certes, compte tenu de vos standards de qualité...), les vieux médias ne mènent plus la danse, la parabole du « visiteur unique » a supplanté la mesure d'audience traditionnelle, l'acte de foi (nous y revoilà, parabole, acte de foi, on est en pleine "évangélisation"), bulle, bulle, bulle, engouement, engouement, engouement, Steve a bien raison !

Et de conclure brillamment (titres qui accrochent et conclusions imparables sont les deux mamelles du journalisme bien compris) :
Même si Facebook n'est pas Google, le succès de la monétisation de son audience sera un test majeur pour la valorisation du Web 2.0.
Point final. Nous en reparlerons donc...

* * *

Bon. Pour résumer, perso j'appelle pas ça un papier, pas même une serviette, mais bien un torchon. C'est mou, ça n'a aucune tenue, aucun relief. Un ramassis de lieux communs. Qui s'appuient sur du vent. Du solide, quoi. Le lectorat ressortira de ce texte plus avancé et plus intelligent qu'il ne l'était en y pénétrant. C'est fou ce qu'on apprend sur le sujet "traité". À proprement parler, un vrai truc de ouf !

Pourtant que ce soit bien clair : sur le fond, je n'affirme pas que c'est moi qui ai raison et vous qui avez tort, qu'on ne me fasse pas dire ce que je ne dis pas. Toutes les opinions sont défendables. Mais qu'on les défende. Qu'on les étaie. Qu'on cite des sources.

En Australie les patrons perdent 5 milliards de dollars à cause de Facebook. Très bien. Depuis quand ? Avec quelle fréquence ? À la semaine, au mois, à l'année, voire à la journée ? Quel est le panel de l'étude qui parvient à cette conclusion. Quelle méthodologie d'enquête. On aimerait en savoir plus. Ça ferait partie de la pertinence et du sérieux d'un journaliste d'investigation, me semble-t-il. Quelle est la source de cette étude ? Reportlinker ? Plus d'études ?

Je ne crois pas qu'en publiant des trucs comme ça vous apportiez beaucoup à l'image de votre profession. Qui n'en sort pas grandie. Au contraire.

Si j'enseignais dans une école de journalisme (mais avec quelles compétences ? je m'interroge !), je ferais de ce texte un cas d'école. En demandant aux aspirants journalistes de le prendre comme base pour rédiger un article, un vrai, qui parviendrait aux mêmes conclusions mais en les justifiant, en recoupant les références, en mettant des liens d'approfondissement, que chaque lecteur/lectrice puisse se faire sa propre opinion en fouillant le sujet, aujourd'hui un article sur Internet se doit d'être ouvert, de renvoyer son lectorat vers des analyses plus pointues, etc.

Ce que s'efforce de faire Adscriptor à longueur de billets, en somme. Pensez qu'il y a encore deux ou trois semaines, jamais je ne m'étais intéressé à Facebook !

Sachez enfin, Mesdames et Messieurs les Journalistes, les vrais, pas les blogueurs de pacotille comme le soussigné, que lorsque vous publiez sur Internet avec au bas de votre prose un lien clicable dont l'encre ancre est "Réagir à cet article", il se trouvera toujours un allumé tel que moi pour réagir. Donc désormais faites bien attention à ce que vous dites, vous êtes surveillés. Et si vous n'êtes pas capables de faire votre métier, changez-en. Boulot, boulot. On n'est pas sur Facebook, quand même !

Tiens, ça me donne envie de conclure en paraphrasant Coluche, qui donnait fort justement à un journaliste le conseil suivant, frappé au coin du bon sens : quand on n'en sait pas plus que ça sur un argument, on n'a qu'à fermer sa gueule !

Je m'excuse pour la citation de mémoire, ni fidèle ni recoupée, mais à chacun sa spécialisation, merde ! Je m'excuse...

Sans rancune,


Partager sur Facebook

P.S. Si vous lisez mon commentaire au bas de l'article en objet, il dit simplement :
Bonjour,

Je ne pense pas que le succès de Facebook soit fragile, et à vrai dire, ce serait même exactement le contraire.
Cordialement,
Jean-Marie Le Ray

Lien proposé : Facebook à la loupe
Il faut dire que je l'ai posté d'impulsion, juste pour donner l'envie à celles et ceux qui passeraient par là d'en savoir plus.

Après quoi, plus j'ai lu et relu la "chose", plus je me suis dit que le meilleur moyen de combattre la désinformation, c'était d'informer. D'où ce billet. CQFD !

P.S. 2 : @ Pierre de Gasquet, si vous me répondez, ce que j'espère, juste une question supplémentaire. Votre contribution a-t-elle été publiée aussi sur la version papier de votre journal ?

, , , , , , , , , , ,

lundi 1 octobre 2007

Index Google, Yahoo, Microsoft : comparaison

Une comparaison de l'index des moteurs de Google, Yahoo, Microsoft

[Mise à jour, 1er février 2008] Microsoft rachète Yahoo!, ce billet devra bientôt être rangé au rayon archéologie du Web...

English version / Version anglaise

Introduction
La taille des index
L'index de Google
L'index de Yahoo
L'index de Microsoft
Le cache et le rafraîchissement des index
Conclusion

[MàJ - 5 octobre 2007] 5 jours après la publication de ce billet, 118 pages du site sont indexées sur Google, qui gagne sur toute la ligne : exhaustivité, pertinence, rapidité. Sans appel !


Yahoo et Microsoft en sont toujours au même point... Et ne parlons pas des autres : inconnu chez Ask, tandis qu'Exalead présente la vignette d'un service de parking pour mon site, mis en parking il y a plus d'un an. Bonjour la pertinence (c'est l'exception française) !

* * *

Introduction

Voici quelques jours, j'ai mis en ligne XBRL.name, un glossaire en 7 langues sur la terminologie IFRS.

D'une part, j'ai eu la surprise de voir que le nom de domaine, déjà présent sur le site Studio92.net depuis plus de deux ans, avait conservé le PR4 de la page qui l'accueillait, mais ça ne devrait pas durer !


De l'autre, vous pouvez imaginer combien je suis à l'affût pour voir quand est-ce que mon site sera indexé dans les moteurs. Je contrôle tous les jours sur GYM. Les résultats sont édifiants ! Voici la situation au 1er octobre, le site ayant été mis en ligne le 23 septembre, soit en huit jours.

Je précise qu'il n'est pas terminé, seul 1/7 du site est complété, soit un peu moins de 200 pages sur environ 1400 prévues une fois le site achevé.

Enfin, ce billet ne prétend nullement à plus que ce qu'il est : le simple suivi sur une semaine de l'indexation d'un nouveau site. Rien de scientifique là-dedans, juste une expérience personnelle. [Début]

* * *

La taille des index

Il est acquis que chacun des trois index dépasse amplement les 20 milliards de pages Web !!! Pour les nostalgiques, voir ici...

Les moteurs ne communiquent plus trop là-dessus, sauf Microsoft qui tient à faire savoir qu'il a comblé son retard, en multipliant par 4 la taille de son index : de 5 milliards à 20 milliards de pages. OK !

Pourtant, Yahoo annonçait déjà plus de 19 milliards de pages en ... août 2005 (malgré les interrogations de Jean Véronis), et Google 24 milliards de pages 3 mois plus tard (voir ici, fin de page 5) !

Donc même si je suis en partie d'accord avec Eric Enge quand il déclare que la différence entre 20 et 24 milliards de pages n'est pas significative, alors qu'elle compte beaucoup entre 5 et 24 milliards (At some level, the exact index size is not a big issue, unless, your index is simply too small), je le suis moins lorsqu'il pense que l'augmentation de la taille de l'index est corrélée à l'augmentation de la pertinence (In short, Microsoft needed to make a move of this type to improve their relevance).

La pertinence ne dépend pas forcément de la couverture (What's at issue is coverage... and if you don't have the related sites in the index, you can't return the right result), puisque le moteur peut très bien avoir le site pertinent dans son inventaire et rester silencieux (c'est-à-dire ne pas sortir le résultat).

Et bien évidemment, Microsoft a présenté une démo pour illustrer son point de vue, notamment sur "shelli segal" et le site d'un designer correspondant, qui apparaît en premier sur Live Search mais a le grand tort d'être absent de l'index de Google !

Pourrait-on soupçonner Microsoft d'avoir concocté une recherche ad hoc uniquement pour mieux justifier sa pertinence, pertinence, pertinence ?

Un bon moyen de le savoir est de tester avec xbrl.name, face auquel les trois moteurs sont à armes égales, puisqu'il a été mis en ligne il y a 8 jours sans être volontairement soumis à leur indexation, sinon en mettant le lien sur mon blog et dans quelques autres sites. [Début]

* * *

L'index de Google

Jusqu'à hier Google retournait globalement 190 résultats et donnait pour le site l'extrait suivant :
My SPIP site. Search. Home page. My SPIP site. Follow-up of the site's activity RSS 2.0 | Site Map | Private area | SPIP | template.
C'est-à-dire qu'il gardait en mémoire l'installation de SPIP à laquelle j'ai procédé pour tester, avant d'opter pour un site en HTML.


Mais aujourd'hui, soupir de soulagement, Google retourne globalement 300 résultats et voit enfin la nouvelle version du site :


Conclusion, sur Google, le site a été naturellement pris en compte en 8 jours, même si le contenu du glossaire ne semble pas encore indexé. [Début]

* * *

L'index de Yahoo

Yahoo retourne 30 résultats et l'extrait suivant :
This is the placeholder for domain xbrl.name. If you see this page after uploading site content ... This page has been automatically generated by Plesk.
Plus une page correctement indexée. Quid des quelque 200 autres ?

Yahoo présente donc un dizième des résultats de Google et 1 seule page indexée. [Début]

* * *

L'index de Microsoft

Un seul résultat ! Point barre. Même extrait que Yahoo.


Plus la petite phrase qui tue : « Live Search vous satisfait-il ? Dites-le nous. »

Que dire ? Qu'au vu de ce qui précède, Microsoft mérite bien sa troisième place. De bon dernier !

Un classement confirmé par les statistiques de fréquentation de mon blog, comme il ressort du tableau ci-dessous :

stats Adscriptor septembre 2007
Les moteurs, à l'origine de 2 826 visites sur Adscriptor au mois de septembre, ont représenté 41,21% de la fréquentation totale (188 visiteurs et 242 pages vues par jour, avec un temps de consultation moyen de 1'35'' par visite) (tout le monde ne s'appelle pas Otto, heureusement pour lui ;-).

Or avec 2 575 liens référents, Google représente à lui seul +91% de cette fréquentation, contre 5,4% pour Yahoo et 3 fois moins que Yahoo pour Microsoft. Une supériorité écrasante. Pourquoi ?

Enfin ! Il est certain que si Google n'était pas là, je serais présent sur Internet ... sans aucune visibilité dans les moteurs ! [Début]

* * *

Le cache et le rafraîchissement des index

Outre la taille et la pertinence, un dernier aspect relatif à l'index des moteurs concerne sa fréquence de rafraîchissement, avec un cycle de cache qui s'est considérablement raccourci ces derniers temps pour Google (je n'utilise pas assez Yahoo et Microsoft pour pouvoir me prononcer sur ce point). Avant on avait l'impression que le cache restait assez longtemps et qu'on pouvait récupérer des infos plusieurs semaines après, alors qu'à présent ce n'est plus qu'une question de jours. Exemple : j'ai pu récupérer pratiquement toutes les interviews bidons d'Alexis Debat, alors que plus les jours passent moins on en trouve trace. [Début]

* * *

Conclusion

À propos des performances proclamées par Microsoft, Eric Enge a raison de déclarer :
Ultimately, the point is, you can't return the right result if the site you should be returning for a given search is not in your index.

En dernier lieu, le fait est que vous ne retournerez jamais le bon résultat si le site pertinent pour la requête correspondante n'est pas dans votre index.
C'est clair. Mais il est encore pire d'avoir ce site dans son index sans comprendre que le site pertinent, c'est justement celui-là ! [Début]


P.S. Bon, et bien on dirait que Yahoo et Microsoft n'abandonnent pas la partie. Ils ont dû lire mon billet pendant la nuit !

En cherchant sur Yahoo Search, récemment amélioré (voir les détails, ici et ), l'outil ne propose encore aucune suggestion :


mais a enfin indexé correctement la page d'accueil (rien de changé pour le reste, globalement 31 résultats et seulement 2 pages du site).


Pour Live Search également, l'indexation est maintenant correcte pour 2 pages du site, qui sont les seuls résultats proposés.


Pendant ce temps, Google est passé de 17 à 47 pages indexées : toujours une longueur d'avance, et même plusieurs...

Ceci dit, vu le nombre de pages Web sur Internet (???), c'est quand même remarquable de voir qu'un nouveau site est indexé en 8 jours sur GYM. Et on comprend mieux pourquoi les prochaines étapes de la recherche à l'horizon 2010 seront :
  1. verticalisation des moteurs
  2. personnalisation des résultats
  3. recherche universelle
Sans oublier la recherche locale...

, , , , , , , , ,

lundi 10 avril 2006

La pertinence des moteurs de recherche : Google vs. Exalead

Une dépêche étonnante circule depuis hier dans l'univers Internet : Google, arrivant une fois encore devant ses deux principaux concurrents, Yahoo et MSN, vient de négocier l'achat d'Orion, un nouvel algorithme de recherche sophistiqué inventé par Ori Allon, un étudiant israëlien, destiné à donner plus de pertinence textuelle aux résultats du moteur. Un signal fort !

Sur son Blog à part, Franck Poisson, ex-DG de Google France actuellement chez Exalead, y consacre deux phrases, laconique et un rien suffisant, en précisant :
La dernière acquisition de Google: un étudiant... ou plutôt ses algorithmes. Ouri Elon (sic!) programmateur d'Orion -ne cherchez pas il n'existe pas de site- a conçu un complément aux résultats par le biais d'une liste de sujets liés au mot recherché.
On avait le même en France depuis 6 ans...ça s'appelle la fonction REFINE sur Exalead
.
Je n'ai a priori aucune raison de douter de la bonne foi de M. Poisson, mais enfin, je me dis que si Google, Yahoo et MSN, les trois principaux moteurs de recherche planétaires, s'y sont intéressés, c'est quand même qu'il doit avoir du répondant l'algo de l'ami Ori ! Même s'il suscite déjà quelques interrogations légitimes...

Donc, dans cette course à la pertinence, déjà fort pertinemment (ce qui est la moindre des choses) analysée par Jean Véronis et ses élèves, ici et , je baserai ma réflexion sur la conclusion qu'en tire Jean :
« ...rien dans cette étude ne permet d’expliquer la préférence massive des internautes pour le moteur Google, puisque, globalement Google et Yahoo ont des performances à peu près équivalentes, et se détachent de leurs concurrents. Il faut donc supposer que les raisons en sont autres que des critères de pure pertinence des résultats. »
Je vais donc essayer de fournir ma propre réponse, perso, suggérée par mon « expérience utilisateur », elle-même basée sur ma seule intuition. Rien de scientifique là-dedans.

Examinons maintenant les pages d'accueil respectives et la première page de résultats des deux moteurs. Google :


Chez Google, la première chose qui me saute aux yeux c'est la simplicité, la sobriété, voire l'élégance. Un dépouillement d'autant mieux perçu que l'on connaît l'excellence qu'il y a derrière. Une qualité de l'offre servie par une image de modestie, en quelque sorte.

Exalead :


Chez Exalead, en revanche, une couleur dominante peu engageante et indéfinissable, on ne sait si c'est du vert, du bleu ou du turquoise, de la viande ou du poisson (sans mauvais jeu de mots). Avec juste en dessous quatre encadrés où s'inscrit le message suivant : « Ajouter un raccourci », d'emblée difficilement compréhensible, même si l'idée peut paraître séduisante à l'usage.
Et dessous encore des encarts publicitaires, faute de goût autant au plan graphique (apparente dissymétrie de la page) que du contenu.

Google 1 - Exalead 0

Ce que je veux en arrivant sur la page d'accueil d'un moteur de recherche, c'est un champ où saisir ma requête. Un point, c'est tout. Le reste n'est que superflu, un détournement forcé qui me déconcentre : quand j'arrive sur la page d'Exalead, mon attention est immédiatement sollicitée par ce « Ajouter un raccourci », qui me fait perdre de vue mon intention première, et je n'aime pas ça.

* * *

Passons aux pages de résultats. Google :

Version traditionnelle


Nouvelle mouture


Si vous voulez tenter l'expérience, placez-vous sur la page Google.com, copiez-collez en une seule ligne le code ci-dessous
javascript:alert(document.cookie="PREF=ID=
fb7740f107311e46:TM=1142683332:LM=1142683332:S=
fNSw6ljXTzvL3dWu;path=/;domain=.google.com")
dans la barre d'adresse de votre navigateur, tel quel, cliquez sur Entrée puis sur OK et refaites la recherche.
Chez Google, que vous visualisiez l'ancienne ou la nouvelle version, aucune discontinuité avec la page d'accueil, toujours le même amalgame de sobriété et de qualité, on s'y sent chez soi, rassuré, en terrain familier, pas d'envahisseur à l'horizon...

Exalead :


Chez Exalead, en dépit d'un effort poussé de rationalisation, c'est évident, une page-fouillis où le visiteur se sent bombardé par une multitude de messages. Pour faire un parallèle paysager, je dirais qu'il n'y a aucun espace vert (correspondance avec le blanc de Google), mais à l'opposé une nuisance visuelle qui impacte directement, en négatif, sur mon expérience de navigation.

Google 1 - Exalead 0


* * *

Conclusion

Chez Google on respire, c'est la campagne et le plein air, chez Exalead on étouffe, égaré en plein centre ville au milieu du trafic.

De plus Exalead, qui se présente volontiers comme un moteur d'avant-garde au plan technologique, souffre probablement d'être perçu par les internautes comme un moteur confidentiel, à la limite franco-français, or je doute que le slogan « small is better » soit très porteur pour un moteur de recherche qui ambitionne de jouer dans la cour des grands.

Il lui manque sûrement d'atteindre la taille critique, tant en termes d'index (même si François Bourdoncle vient d'annoncer le doublement de son index pour bientôt) que de pénétration auprès du grand public.

En outre, à l'heure où Google se diversifie à tout-va et souhaite toucher les PME en première ligne (exploiter la longue traîne), il serait peut-être bon qu'Exalead mette de côté cette image de moteur d'élite et se fasse un peu plus « peuple ».

Voilà. Mais ce n'est que le sentiment d'un internaute lambda.



P.S. Si j'avais un conseil à donner à Exalead, ce serait d'ajouter à leur fonction REFINE une nouvelle fonction AFFINER.

Affiner, selon le petit Robert : purifier, assurer le finissage, rendre plus fin, plus délicat. Contraire : alourdir, épaissir.

Google gagne le match, par 2 à 0. ;-)


Source : Philipp Lenssen

[MàJ - 12 octobre 2006] Pour être tout à fait honnête, Exalead vient de sortir une nouvelle interface tout à fait Web 2.0, simple, épurée, très agréable. Bravo !

Tags , , , , ,