Affichage des articles dont le libellé est recherche verticale. Afficher tous les articles
Affichage des articles dont le libellé est recherche verticale. Afficher tous les articles

lundi 19 mai 2008

La recherche selon Google


Marissa Meyer (extrait) :
Par recherche nous entendons les images, les actus, la finance, les livres, les infos locales et géographiques autant que la recherche sur le Web. Ces types de médias font toujours plus partie intégrante de notre recherche universelle, chacun étant porteur de ses propres défis, innovations et réussites. R.J. Pittman, Directeur des Produits Recherche, m'a montré aujourd'hui certaines des prodigieuses avancées que nous avons accomplies dans la recherche d'images (nous pouvons dès à présent offrir une forme grossière de reconnaissance des visages, par exemple), de même que la façon dont les pubs peuvent améliorer l'expérience utilisateur dans ce secteur de recherche. Il m'a également fait la démonstration de technologies innovantes déployées par Google News pour proposer des citations de personnages qui font l'actu, ainsi qu'une meilleure qualité de la recherche dans les infos locales.

Carter Maslan, Directeur Qualité pour la Recherche locale, a illustré la manière dont nos produits Géographiques (Maps, Earth et les différentes fonctionnalités associées) représentent un problème considérable en termes de recherche : comment collecter toute l'information du monde physique et la rendre cherchable ? Comment étiqueter les frontières contestées ? Comment le service Street View pourra-t-il vous aider à vous rendre où vous voulez ? Google Earth a déjà aidé des archéologues à trouver ce qu'ils cherchaient depuis des années (cf. une villa romaine sur le terrain d'un particulier). Le contenu généré par l'utilisateur est actuellement très en vogue, mais ce n'est pas seulement sympa de partager ses vidéos et ses photos, les produits géographiques sont également très utiles pour nous aider à mieux comprendre le monde qui nous entoure.

Maintenant, pour en revenir à notre cœur de métier, la pertinence de la recherche, Johanna Wright, Directeur Qualité Recherche, nous met au courant des dernières mises à jour. Cela m'a permis de découvrir le formidable niveau de sophistication qu'atteint aujourd'hui la recherche sur le Web, et les progrès accomplis en peu de temps, notamment au niveau de la recherche universelle, qui nous a conduit cette année à modifier la page de résultats tant sur la forme que sur les fonctionnalités. À présent notre équipe qualité recherche se penche sur les toujours très insaisissables "intentions de l'utilisateur" ("voici ma requête, voici ce que je veux dire"). Cela nous permettra de rendre toujours plus utile la recherche universelle : vous obtiendrez des photos ou des cartographies lorsque ce sera ce que vous attendez. Une meilleure compréhension des intentions de l'utilisateur nous aidera également à surmonter les barrières linguistiques en trouvant la meilleure réponse possible indépendamment de la langue utilisée et de là où elle se trouve sur le Web.
Nous voilà prévenus ! À noter en outre que la recherche universelle est déjà localisée dans 150 pays et se décline dans une centaine de langues !

Le reste du message concerne Google Health. Google informe aussi aujourd'hui qu'il ouvre son inventaire aux annonceurs tiers (en français)...


Partager sur Facebook

, , , , , ,

dimanche 9 septembre 2007

Moteurs de recherche 2010


Suite et fin des trois billets consacrés à Gord Hotchkiss, après Search Engine Results 2010 et Les moteurs de recherche innovent, pourquoi les marketers Web n’en font-ils pas autant ?

L'occasion m'en est donnée par la publication du deuxième volet (premier) de ses interviews sur « à quoi ressemblera une page de résultats dans trois ans ? ».

Nous avons d'abord vu que la traditionnelle page de résultats va être révolutionnée, tant sur la forme que sur le fond :
  • sur la forme, avec une présentation des liens non plus linéraire mais intégrant, ou, pour mieux dire, amalgamant (blending) photos, vidéos, cartes géographiques, commentaires, etc. (côté pub on peut très bien envisager la présence de widgets interactifs en plus des habituels liens contextuels, d'autres formats riches...) ;
  • sur le fond, avec l'émergence de la recherche universelle (celle qui va puiser dans les différents index, ou inventaires), de la personnalisation (celle qui tient compte de vos préférences et de votre profil) et de la verticalisation (celle qui décide des thématiques auxquelles appliquer personnalisation et recherche universelle).
En fait, si je devais hiérarchiser, je dirais que c'est cette dernière qui passe en premier et subordonne les deux autres, avec par ordre d'importance :
  1. Verticalisation
  2. Personnalisation
  3. Recherche universelle
La verticalisation est cruciale « ... au moment où la recherche est plus que jamais destinée à devenir le véritable système d'exploitation de l'Internet (Search is the OS...), au moment où le référencement tel qu'on le connaît est appelé, non pas à disparaître, mais à évoluer et se transformer en profondeur, au moment où dans le couple intégration / synchronisation Desktop - Webtop, le premier régresse chaque jour davantage derrière le second (l'ère de l'information quitte le bureau pour passer sur Internet), (...), au moment où l'heure est venue de changer nos modes de travail... ».

D'autant plus qu'elle peut s'avérer très efficace, j'ai eu l'occasion de le vérifier à plusieurs reprises avec Translations2.com, vu le gain de temps important sur des recherches terminologiques ciblées : là où les résultats apparaissent dès la première page sur Translations2.com, ils sont relégués sur les pages suivantes avec Google.

Mais ce n'est pas tout, car il faut désormais ajouter à ces formidables innovations des moteurs la montée en puissance de la recherche sociale et autres concepts liés, outre l'apparition de nouveaux moteurs ayant pour nom MySpace (575 millions de recherches en juillet !), Facebook, eBay, Amazon ou encore Grub...

Que de bouleversements en perspective, donc !

* * *

Dans son livre blanc (un must, 61 pages, 3,2 Mo) qui regroupe les deux séries d'interviews et les analyses d'oculométrie, Gord Hotchkiss et son équipe nous donnent une idée des implications pour le positionnement des liens, puisque la forme en F majuscule chère à Tom évolue vers celle d'un E majuscule :


L'attention de l'œil étant d'abord capturée par l'image (encore faut-il qu'elle remplisse le critère de la pertinence par rapport à la recherche de l'internaute), cela déplace le "centre de gravité" du point d'entrée, c'est-à-dire là où se pose le regard en premier, d'où il commence ensuite à balayer la page.

Avec une conséquence importante au plan du positionnement : imaginez que vous ayez payé une fortume pour occuper le premier rang (promesse qui fait encore partie de l'offre de trop de référenceurs aujourd'hui), désormais une simple image peut suffire à faire bypasser votre lien ! C'est caricatural, certes, mais témoigne cependant de la nécessité de penser le référencement autrement, globalement, comme nous en donne un avant-goût Arkantos ou comme le signale Arnoweb en commentaire :
Nous basculons dans une ère où l'intelligence artificielle des algorithmes (...) utilise finalement des données portant sur une population d'internautes...

Par conséquent je pense que nous nous dirigeons vers une mutation du métier de référenceur qui va laisser la place à chef de projet de création de site Web.

Ce dernier sera en charge de rendre un site attirant afin de générer des backlinks naturellement et aussi fidéliser.

Car rappelons-le : CONTENT IS KING.
Exemple pratique avec les images : je dois en avoir pas loin d'un millier sur Adscriptor, mais je compte sur les doigts de la main (allez, disons des deux mains) celles qui sont optimisées.

Optimiser une image veut dire lui donner un nom pertinent et renseigner comme il faut les balises ALT et TITLE, si possible avec des mots clés en rapport avec le contexte, puisque dans le palimptexte qu'est devenue la page Web, le paratexte occupe une place prépondérante, probablement supérieure au texte pur pour les moteurs.

Il est vrai que je ne m'en suis jamais trop soucié sur mon blog, mais sûrement ai-je eu tort. Dans mes stats l'un de mes référents habituels est sur pervers ou ... doigtage (cf. Les confessions d’un hétérotextuel) !

* * *

La conclusion de ce qui précède est qu'il faut donc penser en termes de multipositionnement, non plus simplement sur le texte mais sur tous les éléments du palimptexte, une réalité qui n'a jamais existé jusqu'à présent, et dont nous avons encore bien des difficultés à appréhender toutes les implications pour notre présence Internet...

Ce n'est plus de simple écriture Web qu'il s'agit, mais plutôt d'ingénierie "scripturale" (linguistique, sémantique, technique, etc.). Interactive, et donc réactive. Adaptative. Selon les buts, les retours d'information, les événements, les destinataires, etc. Sans parler de localisation...

Franchement, quelle est aujourd'hui l'entreprise qui met son site en ligne en pensant à ce qui précède ? Et pourtant ! Donc, si vous cherchez un consultant en contenu, vous savez où me trouver. Pour conclure, je vous laisse avec cette question : où sera positionné votre site sur la page de résultats de Google en 2010 (ce n'est qu'une projection, mais on comparera dans trois ans...) ?



P.S. Bien qu'il ne le sache pas, je remercie vivement Gord Hotchkiss de m'avoir inspiré cette série de trois billets, même si je ne peux que vous encourager à approfondir, soit en lisant ses billets sur Search Engine Land soit en téléchargeant le livre blanc intitulé Search Engine Results: 2010. Un must-have & must-read !

, , , , , , , , ,

jeudi 6 septembre 2007

Les moteurs de recherche innovent, pourquoi les marketers Web n’en font-ils pas autant ?


Suite du précédent billet et deuxième consacré à Gord Hotchkiss.

Depuis que je tiens ce blog, je me suis toujours intéressé au référencement. Le référencement est au centre de notre expérience sur Internet. Les anglo-saxons appellent ça le Search Engine Marketing (SEM), littéralement le marketing pour les moteurs de recherche, et les référenceurs sont les marketers pour ces mêmes moteurs, ou Search Engine Marketers (SEMs).

Je choisis un compromis en utilisant marketing Web pour rendre l'idée du binôme référencement / SEM et marketers Web pour référenceurs / SEMs. Je trouve en effet que le concept anglais rejoint la notion française en ce que tous deux sont trop limités, l'un faisant trop explicitement référence aux moteurs de recherche et l'autre ayant une connotation trop "experte", puisque dans mon idée l'optimisation du positionnement d'une présence Web va bien au-delà des seules techniques du référencement (notamment avec l'émergence des médias sociaux).

Donc pour en revenir à Gord, il a publié fin juillet un billet intitulé Search Engines Innovate, Why Not SEMs?, qu'il m'a autorisé à traduire. En français, ça donne :

Les moteurs de recherche innovent, pourquoi les marketers Web n’en font-ils pas autant ?
J’ai beaucoup pensé à l’avenir de la recherche ces derniers temps. Je viens de terminer une série d’interviews auprès de certains des plus gros influenceurs et observateurs du Web - Marissa Mayer, Danny Sullivan, Greg Sterling, Michael Ferguson, Steven Marder, Jakob Nielsen et d'autres -, avec qui nous avons parlé de ce à quoi pourrait ressembler une page de résultats en 2010. Cet automne j'essaierai de rassembler le résultat de nos conversations dans un livre blanc. Avec quelques autres, nous avons également parlé du futur du marketing Web. La conclusion tient en une formule : « Accrochez-vous, vous n'avez encore rien vu ! »

La constante, c’est le changement

Ces jours-ci, j'ai fait remarquer à pas mal de personnes que j'ai vu plus de changements intervenir sur nos pages de résultats au cours des six mois écoulés que pendant les dix dernières années. Et tous semblaient d’accord sur un point : ce n’est qu’un début. Qu'il s’agisse de personnalisation des résultats, de recherche universelle, de fonctionnalités Web 2.0 ou mobiles, notre expérience en matière de recherche sur Internet est en passe d’être radicalement modifiée. La recherche deviendra plus pertinente, plus fonctionnelle, plus polyvalente (ubiquitaire) et plus intégrée. Elle sera de plus en plus omniprésente (via nos mobiles) et utile. Notre offre de loisirs va s’étoffer considérablement, de même que nos possibilités d’achats. Et tout cela va se produire rapidement.

La recherche et le marketing Web vont de pair

Pour ce qui nous concerne, la vraie question c’est quelles sont les implications de tout ce qui précède pour le marketing Web ? On m’a récemment demandé d'où viendrait l'innovation principale pour la recherche. À noter qu’à la même question, un analyste réputé avait d’abord répondu qu'il ne voyait pratiquement aucune innovation du côté des référenceurs, qui « vivaient de leurs rentes. » Mon premier réflexe fut de défendre les gens du métier, avant de m’apercevoir que c’était plus facile à dire qu’à faire.
En fait, j'ai réalisé que je n'avais pas beaucoup vu d'innovations récentes en la matière. Certes, les moteurs eux-mêmes sont les premiers à innover, ainsi que d’autres secteurs connexes (mesures d’analyse, veille et intelligence économique). Mais à vrai dire, pas grand chose de nouveau dans le monde du marketing Web. On a vu ces dernières années toute une série de solutions propriétaires et d’outils d’enchères dans la publicité contextuelle, mais depuis les choses n’ont guère bougé. On dirait que les référenceurs font comme les autruches : ils mettent la tête dans le sable. Et au lieu de favoriser le changement, nous l’entravons activement.
Il y a probablement beaucoup de raisons à cela. En premier lieu, je pense qu'un certain nombre d’acteurs majeurs ont perdu la flamme. La fatigue se fait sentir. J'ai déjà rédigé une série d’articles sur la question. Deuxièmement, c’est dur dur de développer de nouveaux outils ou de nouvelles technologies lorsque vous êtes complètement dépendants des API ou (pire encore) des résultats que vous fournissent les moteurs de recherche.
Ainsi, c'est très risqué de dépenser du temps, de l’énergie et des ressources pour développer des outils ou des technologies susceptibles d’être dépassés sur un simple choix technique arbitraire de Google ou Yahoo, voire rendus complètement obsolètes par l’évolution rapide des innovations.

Collaborer ou couler !

Le fait est que (en disant ça, je suis sûr que bon nombre de lecteurs ne manqueront pas d’objecter et de réfuter mon argumentation), même si pour l’instant les référenceurs continuent de surfer sur la vague, il se pourrait que bientôt ils aillent droit dans le mur. La nécessité d’innover et de faire évoluer votre positionnement stratégique est plus importante que jamais. Car au fur et à mesure que les moteurs changent les règles, les référenceurs doivent s’adapter s’ils veulent survivre. Aujourd’hui, il est impératif d'innover.

Et au final, ce sera une bonne chose.

Les bouleversements qui se produisent dans la recherche ne font que refléter ceux qui sont à l’œuvre dans le marketing et la publicité en général. C'est la constante évolutive d’un marché qui gagne en efficience, où les interconnexions entre vendeurs et consommateurs sont de plus en plus efficaces grâce à une circulation bidirectionnelle de l'information plus fluide.
Les incertitudes traditionnelles de la publicité s’effacent peu à peu, en grande partie grâce à l’accroissement considérable de la pertinence de la recherche. Et plus la recherche devient pertinente et utile, plus les interconnexions se font fiables et moins envahissantes, dans un cycle vertueux pour les deux parties en présence. L'occasion se présente donc aux référenceurs d’aider les publicitaires à mieux négocier le virage d’un marché chaque jour plus efficace sur le Web. Serons-nous capables de relever le défi ?

Bien. Cet article m’a frappé parce qu’il illustre deux des aspects de la présence Web qui m’intéressent au plus haut point :

1. Comment être présent ?
2. Comment être trouvé ?


Les deux choses semblent couler de source, et pourtant : vous ne serez jamais trouvé si vous n’êtes pas présent, c’est clair, mais être présent ne signifie pas automatiquement être trouvé. Deux stratégies qui doivent se rejoindre et s'alimenter réciproquement.

1. Être présent, c’est la stratégie amont.
2. Être trouvé, c’est la stratégie aval.


Internet est un territoire de conquêtes, à proprement parler, qui exige d’occuper le terrain sur le long terme pour conquérir une présence parmi un nombre de sites et de pages Web qui augmentent de façon exponentielle.

Il y faut toujours du travail et de la constance, à défaut de moyens. Ce qui est sûr c'est que les techniques de positionnement et autres ne peuvent être que la conséquence d'une stratégie réfléchie et conçue a priori, et non pas une fin en soi. Chose dont les clients des référenceurs ont rarement l'air d'être conscients. Heureusement pour eux, d'ailleurs ! Tant que ça dure...

En conclusion, pour paraphraser le titre, les moteurs de recherche innovent, comment chacun de nous peut-il ou elle innover pour donner visibilité à sa propre présence sur Internet ? C'est ce que nous verrons dans le troisième billet de cette série.


, , , , , , , , ,

lundi 3 septembre 2007

Search Engine Results 2010


ou À quoi ressemblera une page de résultats dans trois ans ?

Ce billet, le premier de trois, se base sur une série de réflexions et d'interviews de Gord Hotchkiss, President & CEO d'Enquiro Search Solutions, Inc., société mondialement connue pour ses recherches sur l'eye-tracking, la capture des mouvements de l'œil face à l'écran - qui répond en français au doux vocable d'oculométrie -, notamment pour avoir révélé dès mars 2005 le fameux triangle d'or des pages de résultats de Google.


J'imagine que beaucoup d'entre vous ont déjà vu cette image (j'en ai déjà parlé ici), mais savez-vous qu'elle a aussi beaucoup servi - et sert encore - de modèle aux référenceurs et autres Web marketers pour le positionnement des liens ?

Or elle se base sur une conception de la page de résultats au format texte, linéaires, qui s'inscrit dans une tradition séculaire de présentation de l'écriture imprimée, qu'on peut au moins faire remonter à Gutenberg (dont le projet vit encore)...

Seulement voilà, sur Internet le texte laisse lentement mais sûrement la place au palimptexte, et avec la montée en puissance de la recherche universelle selon Google (dont le brevet original, intitulé Interface for a Universal Search, et déposé en 2003, compte Marissa Meyer parmi ses inventeurs), ce modèle de page ne le sera bientôt plus (à la page ;-), puisque l'intégration d'images, de vidéos et de résultats provenant d'autres référentiels (ou inventaires, comme on dit Outre-Atlantique) révolutionne déjà la perception des internautes, même si la mise en service, inéluctable, va se faire en douceur...

Interrogée par Gord, Marissa Meyer déclare à propos de l'évolution des fonctionnalités de cette "future" page :
I think that people will be annotating search results pages and web pages a lot. They’re going to be rating them, they’re going to be reviewing them. They’re going to be marking them up, saying “I want to come back to this one later”. (...) People are going to be able to say I want to add a note here; I want to scribble something there, and you’ll be able to do that. So I think the presentation is going to be largely based on our perceived notion of relevance, which of course leverages the user, in the ways they interact with the page, and look at what they do and that helps inform us as to what we should do. So there is some UI user interaction, but the majority of user interaction will be on keeping that information and making it consumable in the best possible way.

Je crois que les gens vont vouloir apposer des remarques autant sur les pages de résultats que sur les pages Web. Mais ils vont aussi les noter, les passer en revue, les étiqueter
(je veux revenir sur cette page plus tard), ..., les commenter, les gribouiller, et ils pourront le faire. Donc je pense que la présentation se basera largement sur la notion de pertinence telle que l'utilisateur la perçoit, selon la manière propre à chacun d'interagir avec la page, et le retour d'information sur cette interaction nous aidera à mieux cibler nos actions. Il faut donc qu'il y ait interaction de l'internaute au niveau de l'interface, même si grande partie de cette interaction consistera à conserver l'information pour la rendre exploitable le mieux possible.
[MàJ - 6 sept. 07] Je viens juste de découvrir une interview de Marissa Meyer par Loïc Le Meur où elle parle de tout ça. Y a des fois où c'est mieux en images...


Sans entrer dans les détails, ce que Google est en train de mettre au point, c'est donc un mix entre recherche universelle et personnalisation, et comme on peut le voir sur cette présentation de Gord à la conférence Search Engine Strategies 2007, ça peut s'avérer terriblement efficace...

Décidément, l'innovation est à l'ordre du jour et nous n'en sommes qu'au début. Comment agirons/réagirons/interagirons-nous face aux chamboulements à venir ? Cela fera l'objet d'un prochain billet.


P.S. J'avoue que devant la puissance et les capacités de profilage de Google, je ne vois pas grand monde capable de rivaliser à l'avenir. Yadoop ? Disons que Yahoo! aurait les moyens financiers mais que l'équipe dirigeante manque singulièrement de charisme...

Quant à Microsoft, ils s'empêtrent chaque jour un peu plus dans des combats d'arrière-garde (qu'ils perdent), ils sont vraiment trop cons !

À moins qu'ils ne se mettent ensemble, une vieille histoire...

, , , , , , , , , ,

vendredi 25 mai 2007

Reportlinker : la cata se confirme

Reportlinker : la cata se confirme

Retour sur un précédent billet, la verticalisation des moteurs de recherche, dans lequel j'exprimais une critique de Reportlinker sur son coût excessif, chose largement corroborée par la suite. J'étais alors contacté par Nicolas Bombourg, l'un des deux fondateurs, qui me proposait un accès gratuit d'un mois pour bêta-tester le moteur et, en échange, leur faire remonter toutes les bonnes idées qui me viendraient à l’utilisation de l'outil.

Le 19 avril je recevais le code d'accès et j'effectuais des tests dans la foulée. J'envoyais à Monsieur Bombourg ce que je pensais être mon premier feedback dans la soirée, où j'identifiais six catégories de problèmes. Je vous livre le message tel que je le lui ai envoyé (légèrement adapté pour tenir compte de l'absence des captures d'écran).
1. Incohérences entre titre document et document lui-même

Exemples :

- Titre annoncé : « Téléphonie Mobile et UMTS, Evaluation de la taille du marché dans le monde »
Concrètement : rapport annuel 2004 d'une société luxembourgeoise.

- Titre de l’ « étude » annoncée : « Assurances, Evaluation de la taille du marché, Russie »
En réalité, simple dépliant publicitaire décrivant les activités de la société Kazna, qui évolue dans le domaine de l’assurance, certes, mais point d’évaluation sérieuse du marché de l’assurance en Russie.

2. Problèmes de codage (IE, Firefox ?)

Sur Firefox, tous les mots accentués sont systématiquement tronqués. Résultat, lorsqu’on clique sur le lien avec un codage erroné : aucun résultat. Il faut remettre les accents pour obtenir les résultats.

3. Liens inactifs, critères aussi !

Si je clique sur l’année 2007, qui m’annonce 725 documents, rien ne se passe, les résultats sont les mêmes que ceux des autres années, et les années ne correspondent pas : par ex., deuxième doc = 2006

Quand j’essaie de cliquer sur les docs, les liens ne sont pas actifs sans qu’on comprenne pourquoi.

Autre exemple, en donnant 2007 pour critère : années affichées des 6 premiers doc : nov. 2002 – mars 2005 – mars 2003 – mars 2006 – septembre 2006 – août 2001, mais aucun daté 2007 ! Où sont passés les centaines de documents annoncés ?

4. « Fraîcheur des documents », par ailleurs disponibles en libre accès sur Google

Sur les dix premiers docs téléchargés, dont la date de publication est majoritairement comprise entre 2003 et 2005, j’ai testé Google et tous sont trouvables et téléchargeables via le moteur.

Celui-ci, http://www.openwide.fr/ , qui annonce « Logiciel, Tendances et évolution du marché » date carrément de 2002, un peu dépassé pour les tendances du marché.

5. Liens brisés

Pour cet autre : « Fenêtre et Peintures, Segmentation du marché, Europe et Afrique », le lien de téléchargement ne mène nulle part (de plus la date de mise à jour annonce février 2006, ce qui en ferait un document plutôt « récent » par rapport aux autres).

Idem pour un autre doc du Ministère des Transports du Canada.

6. Quelques autres problèmes, dont la lenteur du serveur dans les réponses, etc.

Conclusion : pour l’instant, j’ai passé près de deux heures dans mes recherches sans véritablement trouver de document pertinent et à jour. Au niveau qualitatif de l’expérience utilisateur, c’est le zéro pointé. Quant au rapport qualité-prix, j’irais plus vite en surfant sur Google, je trouverais de meilleurs documents, et c’est gratuit. Donc si en plus j’avais payé pour ce service, je vous dis pas dans quel état d’esprit je serais.
Dans un premier temps, Monsieur Bombourg a accusé réception (Je suis en déplacement et regarderai vos retours en détail avec intérêt), et puis après, plus rien. Ni le lendemain ni durant les jours qui ont suivi. Silence radio.

Dans un message laissé sur le billet de Jean-Michel Billaut, grâce auquel j'avais découvert ce "service", initialement je faisais le commentaire suivant :
...j'ai passé deux heures à tester l'outil et les résultats sont bien pires que ce à quoi j'avais pensé au départ. J'ai d'ailleurs adressé un compte-rendu détaillé à Monsieur Bombourg, qui n'y a pas donné suite.
Et contrairement à ce que j'ai dit sur mon blog, je n'envisage pas pour l'heure d'informer le lectorat d'Adscriptor de ce compte-rendu, car je n'aime pas m'acharner. J'espère juste qu'il fera réfléchir les personnes concernées.
Et, en effet, telle était mon intention au départ. Toutefois, à son insu, Monsieur Bombourg m'a fait changer d'avis : une dizaine de jours plus tard, j'ai voulu refaire des tests pour confirmer ou infirmer mes premières impressions, or j'ai découvert avec stupeur que mon code d'accès n'était plus valide. Annulé, purement et simplement.

Ce qui m'a mis très en colère. Si on me dit « Vous pourrez y accéder pendant un mois. », la moindre des choses, c'est de tenir parole. J'ai passé plus de 2 heures de mon temps que j'aurais pu employer beaucoup plus utilement, donc le premier des respects à mon égard était de donner crédit à la parole donnée, ce que moi j'ai fait de mon côté.

J'aurais d'ailleurs aimé avoir une réponse argumentée à mes critiques, plutôt qu'un silence qui vaut acquiescement et traduit une incapacité chronique à se remettre en question. Ce qui n'est pas une bonne chose lorsqu'on se vante d'être dans la mouvance Web 2.0 ou Web 3.0. Enfin, pour conclure, je laisse la parole à Pascal, qui a commenté à ma suite (le 3 mai dernier) sur le blog de Jean-Michel Billaut :
Pareil pour moi qui ai eu le droit de tester aussi... J'ai vraiment essayé de lui donner sa chance à ce moteur, en cherchant diverses choses pour un usage réel (pas juste des recherches pour le plaisir d'en faire) mais les résultats sont vraiment mauvais à tous points de vue... À oublier vite...
Oui, c'est bien la seule expression qui convient, Reportlinker, à oublier vite ! Sans parler des économies... Monsieur Bombourg, quand on prétend vouloir jouer le jeu, il faut le jouer jusqu'au bout. Enfin, oser dire que Reportlinker se distingue de Google CSE par l'aspect sémantique, faut vraiment pas craindre !


, , , , ,

mardi 17 avril 2007

La verticalisation des moteurs de recherche - suite

La verticalisation des moteurs de recherche - suite

[MàJ - 25 mai 2007] : conclusion

[MàJ - 18 avril 2007]

Après ma critique de Reportlinker, je m'attendais à recevoir un message de dénégation de la part des responsables du site, en revanche j'ai eu l'heureuse surprise de recevoir le courriel suivant, que je reproduis avec l'aimable autorisation de son auteur, Nicolas Bombourg :
Bonjour Jean Marie,

Je me permets de revenir vers vous pour donner suite à votre post sur notre service Reportlinker.
Si vous le souhaitez, je vous propose de vous inscrire gratuitement sur notre outil.

Vous pourrez y accéder pendant un mois. En échange, je vous demanderai, comme à tous les Beta-testeurs, de nous faire remonter toutes les bonnes idées qui vous viendront à l’utilisation de notre outil.

Je vous ferai également si vous le souhaitez remonter quelques informations concernant notre technologie. En effet, notre moteur est basé sur une technologie sémantique, générant à la volée des clusters basés sur les contenus des études identifiées, et permettant d’affiner les résultats sur 4 dimensions (langue, industrie, date de publication et zone géographique). À ma connaissance, Google CSE n’offre pas ces fonctionnalités.

Cette technologie est le fruit de 5 ans de R&D, a reçu le soutient de l’Anvar, ses coûts de développement sont aujourd’hui estimés à 2 M€.

Enfin, je suis également à votre disposition pour vous faire remonter des informations concernant les moteurs de recherche verticaux, et le Web 3.0 puisque notre société s’inscrit dans cette tendance. Vous en trouverez quelques extraits sur notre blog.

À l’image de notre site, ouvert depuis le début Avril, il est perfectible ;-)

Je suis à votre disposition pour en discuter par ailleurs, vous trouverez mes coordonnées ci-dessous. À bientôt,

Cordialement,
Nicolas
J'aime les gens qui jouent le jeu, je trouve cette démarche positive, ça va dans le bon sens. À mon tour j'accepte donc de bêta-tester le moteur pendant un mois, dans la plus grande impartialité, en faisant remonter mes observations à leur concepteur et je vous reviendrai ensuite avec un nouveau billet circonstancié sur ce nouveau moteur de recherche verticale. Dont l'idée m'avait séduit d'emblée, mais dont les conditions d'abonnement m'avaient immédiatement refroidi. En attendant je leur propose d'étoffer le volet "communication" de leur site, car ce qui semble couler de source pour eux est manifestement moins évident pour l'internaute lambda. D'où la première rédaction de cet article :

* * *

Depuis que j'ai publié mon dernier billet sur la montée en puissance des moteurs de recherche verticalisés, ou thématiques, ou spécialisés, etc., j'ai découvert Reportlinker, autre exemple de verticalisation d'outil de recherche qui répertorie pour l'instant 1,2 million d'études sectorielles en accès illimité... mais payant (on est d'ailleurs à la limite de l'abus de langage : illimité, certes, pourvu qu'on paye et qu'on renouvelle son abonnement chaque mois, pour la modique somme de 2 748,00 € à l'année !). Malheureusement, AMHA bien trop cher ! Encore un business model à la française...


Faire payer 129,00 € pour 24 heures (sic!) ou 229,00 € par mois pour permettre de télécharger des ressources gratuites (car j'imagine que la plupart sont accessibles gratuitement sur Internet), faut pas se moucher du pied !

Exemple : j'ai saisi "traduction" dans l'onglet de recherche, et la première page de résultats semble alléchante :


Problème, dès qu'on clique on arrive sur la page du "choix" de l'abonnement (conditions au 17 avril 2007)...

J'ai donc voulu tester le troisième résultat, dont le snippet dit textuellement : « Glossaire anglais-français 1 abbreviated sector breakdown ventilation sectorielle simplifiée; nomenclature simplifiée des secteurs abnormal » (238 pages).


Je l'ai repris tel quel et l'ai collé dans "mon moteur". Résultat, ça sort de suite et c'est gratuit.


Et comme vous pouvez le voir, le document fait bien 238 pages, donc pas d'erreur possible, c'est bien le même qui vous aurait coûté au bas mot 129,00 € chez ReportLinker.



Par simple curiosité, j'ai réitéré l'expérience avec les deux premiers résultats, qui en fait n'en sont qu'un seul, pour voir si je retrouvais le document sur Google avec les indications disponibles. D'abord, le binôme TRADUCTION + "profil de l'industrie" est très fréquent dans les études de marché canadiennes, dont la plupart sont publiées dans les deux langues. Dont acte. Quatrième résultat (puisqu'il est question de musique) :


Là aussi, 149 pages, c'est bien ça. À noter quand même que l'étude date du 30 septembre 2004, ce qui n'est plus tout jeune si on calcule en temps Internet. Et dans le lot de plus d'un million d'études "disponibles" annoncées, je me demande quelle est la part vraiment de première fraîcheur...

* * *

Sur le billet de Jean-Michel Billaut, source de cette info, les commentaires sont d'ailleurs plutôt aigres... Allez, venez chez moi, on fera ça à la bonne franquette :-)


P.S. Voilà encore un domaine où les anglo-saxons pourraient nous enseigner ce qu'il faut faire ... ou pas !

, , , , , , ,

vendredi 13 avril 2007

La verticalisation des moteurs de recherche

Suite...

[MàJ - 14 avril 2007] En attendant Google se verticalise ... dans la pub ! Entre le rachat de Doucleclick pour 3,1 Mds $ cash et celui d'Internet pour 2 455,5 Mds $ cash, que choisir ? Seule certitude : Micro$oft est vraiment de plus en plus loin. Bientôt ce ne sera plus Poulidor mais la voiture balai (sans aller jusqu'au cercueil !)...

* * *

Depuis que je travaille - intensément - à la conception de Translation's 2.0, "mon" moteur de recherche thématique dédié à la traduction et la terminologie multilingue (indexant près de 34 600 [catégories de] sites), chaque jour je suis amené à réfléchir sur le potentiel inépuisable et encore inexploré de la verticalisation des moteurs de recherche.

[3 600 : mise à jour, 26 sept. 2007
4 600 : mise à jour, 25 février 2008
]

En 11 mois (23 mars 07 - 25 février 08), les chiffres sont plutôt encourageants :
  • 20 678 requêtes
  • 32 786 visiteurs
  • 60 585 pages vues
  • 1 minute 10 secondes de permanence par visiteur


* * *

Au moment où la recherche est plus que jamais destinée à devenir le véritable système d'exploitation de l'Internet (Search is the OS, j'aime bien la traduction en français, particulièrement explicite dans ce cas...), au moment où le référencement tel qu'on le connaît est appelé, non pas à disparaître, mais à évoluer et se transformer en profondeur, au moment où dans le couple intégration / synchronisation Desktop - Webtop, le premier régresse chaque jour davantage derrière le second (l'ère de l'information quitte le bureau pour passer à l'internet), et Microsoft derrière Google, par voie de conséquence (même si les deux ne sont pas forcément comparables), au moment où l'heure est venue de changer nos modes de travail, il est probable, et même certain, que la verticalisation des moteurs de recherche jouera un rôle central dans cette redistribution des cartes, aussi radicale qu'inéluctable.

La chose n'est pas nouvelle, Danny Sullivan dressait déjà un état des lieux en 2002, mais certains signes donnent à penser que le phénomène s'accélère. Et s'il est vrai que les mastodontes de l'Internet prennent de plus en plus de poids, puisque les dix premiers sites mondiaux (les métayers du Web comme les appelle Nicolas Carr) se partagent 40% des pages vues sur l'ensemble du réseau, soit une progression de 29% de novembre 2001 à novembre 2006, il n'en reste pas moins que la mise à disposition (quasi-)gratuite... de leurs outils permet à l'internaute lambda tel que ... moi, et vous, et nous, non pas de faire jeu égal, mais au moins d'en bénéficier quasiment à coût zéro.

Une verticalisation, chère à Google pour d'autres raisons, qui permet de conjuguer pertinence et rapidité, deux éléments d'importance pour affiner le rapport signal-bruit des résultats d'environ ... 400 milliards de requêtes par an ! Ajoutez-y les nouveaux moteurs de la recherche sociale et, entre autres, le nouvel algorithme mis au point par Ask, ça nous promet de profondes mutations en perspective...

Perso j'en suis presque à 3 000 requêtes (pour plus de 4 000 pages vues) en moins de 3 semaines, ce qui est déjà une manière d'apporter ma modeste pierre à l'édifice !



... qui risque de se faire de plus en plus rare sur ce blog dans les semaines à venir...

Partager sur Facebook

, , , , , ,

vendredi 30 mars 2007

Utiliser Google CSE pour personnaliser son moteur de recherche

Utiliser Google CSE pour personnaliser "son" moteur de recherche

Suite...

Voici quelques jours que je travaille avec CSE à la création d'un moteur de recherche "vertical" (on pourra préférer "thématique", "spécialisé" ou autre, mais j'aime bien la notion de verticalisation qui me donne une idée de profondeur...) dédié à la traduction, et plus précisément à la terminologie appliquée quasi-exclusivement au couple linguistique anglais-français mais dans tous les domaines.

J'avais décidé de m'y consacrer dès la sortie de Google CSE, un outil mettant à disposition de l'internaute lambda toute la flexibilité et la puissance de Google, qui ne faillit décidément pas à sa réputation !

Cela a donné Translation's 2.0, pour être dans l'air du temps :

D'abord dédié à la terminologie français <--> anglais (même s'il donne aussi de bons résultats avec d'autres langues européennes), le but consiste à n'indexer que des sites très riches en terminologie, bilingues pour la plupart, afin d'atténuer le plus possible le bruit généré par Google, sans pour autant tomber dans le silence.

Le but est donc de faire gagner du temps à l'internaute en éliminant la masse des réponses hors sujet, inévitables lorsqu'un moteur indexe plusieurs milliards de pages Web, pour proposer un maximum de résultats pertinents. Et même si j'ai essentiellement restreint à deux langues le champ de recherche, j'ai voulu éviter de faire un moteur confidentiel, puisque l'ambition est de traiter tous les domaines, la terminologie étant transversale par excellence.

Cela va à l'encontre de ce que j'ai pu observer dans les CSE disponibles en français, peu à vrai dire, puisque j'en ai trouvé à peine quelques dizaines contre environ 20 000 moteurs personnalisés recensés par Google (voir également ce Guide To Custom Search Engines). Encore la frilosité française face au pragmatisme anglo-saxon ?

Profitons-en donc pour saluer quelques pionniers, qui vont des trois mousquetaires de l'information juridique au D'Artagnan de la veille, en passant par la vente, la lecture, les normes du Web, l'accessibilité, les blogs de Google, les blogs francophones, les juriblogs, et même la biblioblogosphère.

Ajoutons-y en vrac les timbres, les estampes, l'emarketing, les flux, les photos, les "signaux", le foot, Autodesk, Wordpress, Linux, Ubuntu ou les beta-tests, avec une mention spéciale pour les vins ... suisses, et pardon à celles et ceux que j'oublie (les commentaires sont ouverts pour réparer cette injustice :-).

Venons-en maintenant à l'élaboration du moteur, déjà fort bien expliquée ici, pour signaler quelques fonctionnalités que je trouve géniales.

Tout d'abord la possibilité de s'affranchir de la page fournie d'office par Google dès qu'on crée son moteur pour l'héberger dans le contexte de son choix : sobrement pour Sébastien Billard, brillamment chez Sergi, ou de manière particulièrement visuelle pour Vincent Abry avec l'interface de Surfons :


Viennent ensuite différentes fonctionnalités avancées offertes par Google pour optimiser son propre espace d'accueil du moteur CSE, notamment la possibilité de faire apparaître les résultats sur la page de son choix, en dépit d'un petit bémol, à savoir la limitation des affichages à 10 résultats par page, sans fonction cache ni signaler le nombre total de résultats d'une recherche.

Ceci étant, c'est toute la puissance de son moteur que Google met gratuitement à notre disposition, et ce serait vraiment dommage de s'en priver. Si vous ne savez pas quoi y mettre, gavez-le avec tous les liens accumulés dans vos favoris au fil des ans, vous verrez que lorsque vous vous habituerez à la recherche plein texte vous en oublierez jusqu'à l'existence de vos signets !

Je vais rédiger prochainement une FAQ pour expliquer les stratégies et les syntaxes de recherche utiles pour tirer toute la pertinence possible de l'outil, donc en attendant profitez-en pour résoudre vos problèmes terminologiques et de traduction anglais-français ou vice-versa : testez-le, j'apprécierai grandement votre expérience en retour et je reste ouvert aux conseils autant qu'aux critiques constructives. Je n'ai pas encore terminé la base d'indexation, mais il est déjà gaillard, le petit ! Pour l'essayer, c'est par là :






Google Custom Search


Bonne recherche et, surtout : n'oubliez pas, créez le vôtre !

Jean-Marie Le Ray

, , , , , ,