Affichage des articles dont le libellé est moteurs. Afficher tous les articles
Affichage des articles dont le libellé est moteurs. Afficher tous les articles

lundi 25 janvier 2010

Marché de la recherche sur Internet, multiplié par 4 en 4 ans !


Une progression exponentielle :

1. 400 milliards de requêtes en 2006
2. 800 milliards de requêtes en 2008
3. 1 600 milliards de requêtes en 2010...

* * *

Dans le sillage du précédent billet sur les chercheurs du Web de 3e génération, je découvre ces stats de Comscore via Olivier Andrieu.

Or 130 milliards de requêtes faites dans le monde sur un seul mois (décembre 2009), ça nous donne 420 milliards de requêtes sur un trimestre, soit autant que pour toute l'année 2006 !!!

Et si le même rythme se poursuit, au 31/12/2010 nous en serons donc à 1 600 milliards de requêtes sur l'année !

Faramineux ! Déjà, c'est plutôt une bonne nouvelle pour les référenceurs (voir mon blogroll), parce que même si la concurrence augmente pour bien se positionner dans les pages de résultats, ça veut dire aussi 4 fois plus de chances d'être trouvé !

Bonne progression de la France à 5,4 milliards de requêtes (+61% vs. 2008), ce qui doit signifier pas loin du double en nombre de requêtes sur tout le marché francophone, et doit représenter entre 6 et 8% du marché mondial si l'on s'en tient à ces chiffres (en me basant sur 4% pour la France, j'imagine un marché francophone entre 50 et 100% supérieur).

Quant à Google, qui continue de s'accaparer 67% de l'ensemble, superlatif, comme toujours : j'aimerais bien savoir ce que ça donne aujourd'hui en termes de pages vues par jour sur le plus grand réseau de publicité contextuelle au monde. ! Et en termes de données collectées, inimaginable...

Donc indépendamment d'un retrait ou non de la Chine, Google a encore de beaux jours devant lui !


Partager sur Facebook

, , , , , , , , , , , , ,

jeudi 21 janvier 2010

Les chercheurs du Web de 3ème génération


L'ami Laurent, un vieux de la vieille du SEO, nous a demandé, à d'autres blogueurs (voir les liens en fin de billet) et moi, de nous exprimer sur l'avenir du search en nous basant sur l'étude “Search of the future” publiée en décembre dernier par Directpanel, sous-titrée : le moteur de recherche idéal vu par les internautes.

La question me suggère de citer en préambule une série de trois billets écrits il y a 3 ans, inspirés par Gord Hotchkiss, Président & CEO d'Enquiro Search Solutions, Inc., et respectivement intitulés :
  1. Search Engine Results 2010
  2. Les moteurs de recherche innovent, pourquoi les marketers Web n’en font-ils pas autant ?
  3. Moteurs de recherche 2010
Dans ce dernier, je terminais ainsi la série :
La conclusion de ce qui précède est qu'il faut donc penser en termes de multipositionnement, non plus simplement sur le texte mais sur tous les éléments du palimptexte, une réalité qui n'a jamais existé jusqu'à présent, et dont nous avons encore bien des difficultés à appréhender toutes les implications pour notre présence Internet...

Ce n'est plus de simple écriture Web qu'il s'agit, mais plutôt d'ingénierie "scripturale" (linguistique, sémantique, technique, etc.). Interactive, et donc réactive. Adaptative. Selon les buts, les retours d'information, les événements, les destinataires, etc. Sans parler de localisation...

(...) Pour conclure, je vous laisse avec cette question : où sera positionné votre site sur la page de résultats de Google en 2010 (ce n'est qu'une projection, mais on comparera dans trois ans...) ?
Et de nous proposer une hypothèse de pages de résultats plutôt futuriste, même s'il est clair que certaines des idées exprimées sont aujourd'hui réalité.


Donc après une première décennie 1990-2000 qui a consacré les débuts d'Internet comme phénomène mondial, à la fois culturel, socio-économique et même politique, et une deuxième décennie 2000-2010 de meilleure appréhension et de maturité du phénomène (j'imagine qu'aujourd'hui plus personne ne songerait à parler d'Internet comme d'une mode...), voici qu'une troisième génération d'internautes va devoir se mesurer avec les prochains bouleversements à venir sur la décennie 2010-2020 : Et que font les internautes dans cet incroyable fouillis planétaire pour s'y retrouver ? Ils cherchent ! Ils interrogent leurs réseaux sociaux, s'informent en temps réel sur leurs flux et sur Twitter, mais surtout ils questionnent les moteurs, point de passage obligé pour accéder aux richesses inépuisables du Web.

Or il y a dans l'étude Directpanel une diapo qui m'intéresse plus particulièrement, elle pose la question suivante : « Dans quelle mesure pensez-vous que les moteurs de recherche web pourraient s'améliorer dans les 10 années à venir ? »


Pour 1% des sondés, pas d'améliorations à attendre, un peu pour 33%, beaucoup pour 48%, et une évolution radicale pour 19%.

Ce qui veut dire que pour près de 100% des internautes, les améliorations potentielles côté moteur seront nombreuses sur la décennie 2010-2020, un vrai plébiscite !

Il y a cependant une donnée manquante, selon moi, dans cette étude, à rechercher non plus côté moteur, mais côté internaute. À savoir qu'en général les gens cherchent n'importe comment, une légèreté le plus souvent compensée par l'incroyable pertinence des résultats retournés. Pas toujours, je sais, mais il n'empêche...

Pour faire un parallèle, c'est la même histoire que ceux qui n'utilisent leur ordinateur qu'à 10% de ses capacités. Idem avec la recherche sur le Web, où la maîtrise a minima de la syntaxe moteur permet de circonscrire les résultats en minimisant le bruit autant que le silence.

Car après tout l'alphabétisation "moteurs" n'implique qu'un nombre fort limité de commandes, qu'on peut compter sur les doigts des deux mains (site:, link:, filetype:, inurl: / allinurl:, intitle: / allintitle:, intext: / allintext:, cache:, etc.), mais dont la pertinence des résultats fournis évite souvent l'allongement moyen des requêtes.

Cela permet ainsi de résoudre facilement deux des fonctionnalités les plus impactantes sur la vie quotidienne, selon l'étude, à savoir "m'aider à identifier parmi tous les résultats ceux qui sont les plus fiables" et "filtrer et ne pas afficher les résultats faux, périmés ou non pertinents".

Quant aux autres, telles que "permettre de rechercher dans les souvenirs stockés dans ma mémoire" (à moins qu'il ne s'agisse de la mémoire de mon ordi...), "comprendre des requêtes mentales / lire dans mes pensées" ou "fournir instantanément des informations sur une personne ou un objet que je touche", pour moi cela s'apparente moins à de la recherche Web qu'à de la science fiction.

Donc pour l'instant je me contenterai de choisir la syntaxe et les termes appropriés dans mes requêtes, car après tout, les bons mots clés restent ceux qui ouvrent les bonnes portes dans le labyrinthe Internet.

Et il est évident que de plus en plus, la page de résultats sera définie autant par l'utilisateur que par le moteur ! Une dimension qui, selon moi, manque à cette étude.

Dont une prochaine mouture devrait s'intéresser non plus à ce que les internautes s'attendent à trouver, mais à comment ils entendent le chercher. Je suis sûr qu'on aurait des surprises...




Liens connexes


Sylvain Richard
http://blog.axe-net.fr/enquete-google-sur-la-recherche-du-futur/

Marie Pourreyron
http://www.pink-seo.com/blog/futur-search-461

Léo Ludwig
http://fr.propulsr.com/moteurs-de-recherche/google-vision-futur/

Aurélien Bardon
http://oseox.fr/blog/index.php/786-moteur-recherche

Renaud Joly
http://www.renaud-joly.fr/index.php/post/2010/google-recherche-internautes

Antoine Leroux
http://www.antoineleroux.fr/google/futur-moteur-de-recherche/697

Aymeric Jacquet
http://ajblog.fr/referencement/802-recherche-ideale.html

Laurent Bourrelly
http://www.laurentbourrelly.com/blog/531.php

Sébastien Vallery
http://www.seoplayer.com/google/quel-futur-pour-la-recherche-d-information-en-ligne.html

Michel de Guilhermier
http://micheldeguilhermier.typepad.com/mdegblog/2010/01/google.html

David Degrelle
http://www.1ere-position.fr/blog/etude-google-le-moteur-de-recherche-du-futur

Olivier Andrieu
http://blog.abondance.com/2010/01/google-et-le-moteur-de-recherche-ideal_21.html

Olivier Duffez
http://www.webrankinfo.com/actualites/201001-search-future.htm

Gonzague Dambricourt
http://gonzague.me/futur-search-selon-google

Partager sur Facebook

P.S. La morale de l'histoire est la suivante : pour trouver des résultats pertinents, apprendre à bien chercher. Il y a des choses qu'on ne peut déléguer, l'apprentissage d'une langue, par exemple. Idem pour celui de la syntaxe de recherche (cf. opérateurs, via Aymeric). Google est comme le moteur d'une Ferrari de race, rien ne me servira d'en avoir une si je ne sais pas conduire !

, , , , , , , , , , , , ,

mercredi 25 février 2009

Positionnement dans Google : optimisez vos images

Depuis quelques temps, je constate dans mes liens référents que de plus en plus d'internautes arrivent sur Adscriptor via la recherche d'images de Google. Au point que plus d'1 visiteur sur 4 que m'envoie Google viennent par ce canal !

Je prends l'exemple de mes stats d'aujourd'hui via Sitemeter, qui visualise 1000 liens référents par page.

Optimiser les images pour Google
Globalement, Google m'envoie environ 35% de mes visiteurs, le reste venant de liens directs et, pour une infime partie, d'autres moteurs, mais sur cet échantillon de 1000 liens, 551 ont pour référent Google (55,1%), et sur ces 551, 150 la recherche d'images (27,22% des 551), qui correspondent à toutes les lignettes jaunes que vous voyez dans la colonne droite du graphique.

Il est intéressant de constater que plus d'1/4 des internautes arrivant ici via Google y arrivent via la recherche d'images ! Un canal qu'il convient donc d'optimiser, bien qu'à vrai dire je ne m'en sois guère soucié jusqu'à présent.

Cependant je vais prendre l'exemple de l'image ci-dessus pour voir comment je l'ai "optimisée". Trois possibilités :
  1. Le choix du nom de l'image
  2. La balise "Alt"
  3. La balise "Title"
1. Le choix du nom de l'image
Lorsque vous nommez vos images, il est clair qu'il vaut mieux mettre 1 ou 2 mots clés dans le nom du fichier que de l'appeler W21agvoWLfE.gif ou 874534542.jpg ! C'est ainsi que j'ai nommé celle-ci images_google, sans rentrer dans le détail de la distinction entre le trait d'union (tiret, ou dash), et l'underscore (trait bas), selon laquelle le tiret serait considéré comme un séparateur mais pas le trait bas.

Donc suivant ce critère, mieux vaudrait choisir images-google que images_google, mais personnellement je préfère l'underscore, indépendamment de ses (dé)mérites en référencement.
2. La balise "Alt"
La balise "Alt" pour les images sert à visualiser le nom que vous donnez à vos images lorsque leur affichage est désactivé. Quelqu'un qui lirait ce billet sans visualiser les images verrait donc un rectangle vide avec au centre la description que j'ai choisie pour l'attribut "Alt" : Optimiser les images pour Google. Les puristes vous diront que, contrairement à la balise "Title", la balise "Alt" est prise en compte par Google pour référencer les images.
3. La balise "Title"
Normalement cet attribut sert pour les liens, plutôt que pour les images. Personnellement, sur mon blog, chaque fois que j'utilise la balise "Alt", je mets également la balise "Title" avec la même description, qui s'affiche dans une bulle lorsque votre souris survole l'image.

Sur une page Web, vous pouvez également appliquer cette tactique aux listes de points (bullets), comme je l'ai fait sur ma page CV.

À chaque point de la liste, j'ai mis uniquement la balise "Alt", or IE l'interprète comme si c'était une balise "Title" (en visualisant donc le contenu de l'attribut à chaque passage de souris), alors que Firefox et Chrome n'affichent rien.

Par conséquent sur Adscriptor je préfère accoler un double attribut (Alt + Title) aux images (quand je le fais...), car en mettant les deux, ça m'évite de me tromper et je suis sûr que les internautes voient le même résultat, indépendamment du fait qu'ils utilisent Firefox, Chrome, Internet Explorer ou autres (j'ignore ce qu'il en est pour les autres).
Voilà, ces quelques réflexions jetées à la va-vite ne prennent pas en compte l'accessibilité des sites Web, qui est quelque chose de beaucoup plus pointu et un peu hors de mes compétences. Naturellement, je n'optimise pas systématiquement toutes les images que j'insère dans mes billets, même si je gagnerais sûrement à le faire, vu le nombre croissant de visiteurs qui arrivent sur mon site via les images.


Partager sur Facebook

, , , , , , , , , , , , ,

jeudi 8 janvier 2009

Noms de domaine et parking : Parking 2.0 vs. Parking 1.0

Noms de domaine et parking : Parking 2.0 vs. Parking 1.0

Parking 1.0 : déclin d'un modèle économique qui s'essouffle
Parking 2.0 : évolution du parking et nouveaux modèles économiques

* * *

Parking 1.0 : déclin d'un modèle économique qui s'essouffle

Il y a longtemps que je voulais faire un billet sur la nature et l'évolution du parking. En France, les gens ont tendance à liquider ça d'un revers de main, en criant bien haut et fort comme quoi c'est indécent, et ceci et cela. Et puis le parking c'est du cybersquatting, et du typosquatting, et du phishing, et ceci et cela.

Mais point de discussions véritablement sérieuses, à part sur Blogodomaines, mais c'est normal, me direz-vous, puisqu'il est partie prenante. Il n'empêche, ce n'est pas parce qu'on est partie prenante qu'on écrit forcément des choses intelligentes comme l'ami Rémy.

Qui nous fournit d'ailleurs une bonne illustration de comment fonctionnent actuellement le parking et le modèle économique qu'il y a derrière :


Un modèle économique aujourd'hui fortement en crise, nous allons voir pourquoi. Mais en tout état de cause, continuer à l'infini de faire l'impasse sur une réalité économique faite d'une vingtaine de millions de sites témoigne d'une absence totale de clairvoyance...

Tout d'abord je vais laisser de côté l'internaute et l'annonceur, même s'ils font clairement partie intégrante de l'écosystème "parking", pour me concentrer sur les trois types d'acteurs généralement impliqués :
  1. la régie publicitaire
  2. la plateforme de parking
  3. le titulaire du nom de domaine
1. La régie sert les pubs, c'est-à-dire qu'elle fournit les liens contextuels et/ou, plus rarement les bannières ;
2. la plateforme de parking héberge ces liens sur une page Web, vers laquelle pointe le nom de domaine ;
3. les titulaires de noms de domaine en parking ont un profil extrêmement segmenté, allant du simple particulier avec un seul ou quelques noms parqués, aux registrars du genre Moniker ou Fabulous & Co. qui peuvent gérer directement ou indirectement plusieurs millions de noms, en passant par des portefeuilles intermédiaires de quelques centaines à des milliers de noms, ou plus importants en quantité (Frank Schilling) (plus de 100 000 domaines) et/ou en valeur (Rick Schwartz) (+5 000, dont Candy.com, Properties.com, Tradeshows.com, Cheating.com, etc.).

Les registrars comme GoDaddy ou Domainsite (pour ne citer qu'eux) sont des cas à part, même s'ils ont en commun d'exploiter le parking en partenariat avec Google.

Or jusqu'à présent, la logique économique consistait essentiellement à cibler la pertinence des liens contextuels en fonction du nom de domaine et de son potentiel en navigation directe.

Mais bon, comme je l'expliquais ici, il n'y a qu'un seul nasa.com, ou meteo.com..., et par conséquent cette logique a trouvé ses limites, notamment à cause de la convergence de plusieurs facteurs :
  • la pratique de la navigation directe, dont les revenus étaient généralement estimés à 10-15% de l'ensemble des revenus générés par la recherche payante (chiffre encore à vérifier, si quelqu'un a des infos), est en perte de vitesse constante, au profit de la recherche directement dans les moteurs de recherche, un concept encore affiné avec la onebox de Chrome ;
  • la désaffection des internautes, de plus en plus las d'atterrir sur des pages poubelles truffées de liens publicitaires qui n'apportent désormais plus aucune valeur ajoutée à leur "expérience utilisateur" (sans parler des craintes implicites du genre : est-ce que je ne vais pas attraper un virus si je clique sur un de ces liens, etc.) ;
  • les grosses régies qui étaient les principaux pourvoyeurs de fonds des parkings - j'ai nommé Google et Yahoo! - changent lentement mais sûrement leur fusil d'épaule, Google en ouvrant à tous son programme AdSense for Domains, en rupture totale comme à son habitude, et Yahoo! en faisant n'importe quoi, comme à son habitude...
Résultat des courses : une baisse considérable des gains par clic (EPC - Earnings per click).

Quant aux prestataires de parking, comme l'explique Rémy, leur but ultime consistait à « agréger le plus de trafic possible pour pouvoir négocier des contrats plus intéressants avec les fournisseurs de liens publicitaires. Et ce pour pouvoir à (leur) tour offrir des taux de rémunérations toujours plus compétitifs à (leurs) clients. Et agréger encore plus de trafic (effet boule de neige) », voire à « se lancer eux-mêmes sur l’enregistrement et le rachat de noms de domaine pour s’assurer une taille critique ».

Donc maintenant que toutes les logiques qui ont assuré le succès de l'ère Parking 1.0 sont définitivement cassées, il serait peut-être temps de passer à l'ère Parking 2.0. Voyons comment. [Début]

* * *

Parking 2.0 : évolution du parking et nouveaux modèles économiques

La première réflexion est qu'une constante demeure entre les concepts de Parking 1.0 et Parking 2.0, à savoir que le parking reste un fort vecteur publicitaire, un formidable canal promotionnel pour peu qu'il soit ciblé et pertinent.

Les annonceurs et les régies ont accepté le parking tant qu'ils en jugeaient le trafic qualifié, traditionnellement avec des taux de conversion des pages parking jugés supérieurs à ceux des clics sur les moteurs de recherche (4,23% vs. 2,3%, selon une étude WebSideStory - Omniture aujourd'hui - qui a fait date).

Pour autant, le deuxième constat, c'est que l'ensemble de l'écosystème Parking 1.0 a été construit autour d'un grand absent : le CONTENU !

Or même si le parking est souvent une situation intermédiaire, qui permet de générer des revenus dans l'attente d'une revente, ça n'est pas une excuse pour faire n'importe quoi entre-temps. D'où la confusion de plus en plus justifiée entre les pages parking et les MFA (Made for Adsense), vu que pendant longtemps Google n'a pas vraiment fait grand chose pour corriger ses incohérences...

D'où également la connotation de plus en plus négative du parking, associé à du parasitage pur et simple par une grande partie du public francophone. L'approche des anglo-saxons est différente, comme souvent sur Internet, ce qui n'empêche que les internautes se retrouvant sur ces pages sont de moins en moins considérés "qualifiés" par les annonceurs, qui font également l'amalgame avec la fraude aux clics.

Une situation critique qui demande un renversement de tendance net. Comment ? En inversant la traîne, tout simplement, c'est-à-dire en passant de la longue traîne à la grande traîne de l'UGC :
  1. en insufflant du contenu dans le parking, et si possible du contenu pertinent, de qualité ;
  2. en rémunérant enfin les créateurs de ce contenu à travers un partage des revenus plus favorable.
Fini les vieux critères de partage, tout le monde y trouverait son compte. Des internautes aux annonceurs...

D'où une nouvelle définition du parking, qui m'a été soufflée par Jean-Philippe Hermand : crédibiliser les liens publicitaires par la pertinence du contenu.

On constate d'ailleurs un désir de diversification de plus en plus poussé chez des acteurs établis du parking, qui commencent à tourner autour de ces concepts, que ce soit celui de la pertinence via la sémantique (approche de SEDO qui investit dans Domainsbot), ou celui du contenu via le développement de véritables minisites (démarche de AEIOU, Kwikcontent, WhyPark ou Parking Revolution, entre autres).

Mon idée est différente. Pour moi, le bon mix consisterait à alimenter automatiquement les pages parking en flux RSS pertinents par rapport aux noms de domaine, sur le modèle Wikio de catégorisation thématique et de création de pages à la volée (ce que fait également fort bien Webjam).

Imaginez que chaque blogueur choisisse en opt-in que ses flux soient repris sur des parkings, naturellement contre un partage de revenus équitable entre les différentes composantes : la régie, l'agrégateur-distributeur de flux, les créateurs des contenus syndiqués et les titulaires des noms de domaine !

Coup double : une source de monétisation supplémentaire pour les créateurs de contenu d'une part, un flux ininterrompu d'UGC alimentant en automatique des pages parking complètement révolutionnées de l'autre.

Les spécialistes de l'AdSense pourraient objecter que si le contenu est trop pertinent, les internautes cliqueront moins sur les pubs. Soit. Mais de toutes façons, avec les formules actuelles, ils ne cliquent plus dessus de toute façon. À tel point que tout le monde - des annonceurs aux régies en passant par les utilisateurs - ne demande plus qu'une chose : de la qualité !

C'est le concept de smart pricing chez Google :
Ajoutez toujours plus de contenu pertinent à votre site et maintenez-le à jour afin de conserver l’intérêt de vos visiteurs. Si vos visiteurs sont intéressés par vos pages et qu’ils cliquent sur l’une de vos annonces, ils effectueront probablement une action sur le site de l’annonceur partenaire et votre taux de conversion s’en verra augmenter, de même que vos revenus. Du contenu de qualité se traduit souvent par une expérience positive pour vos visiteurs et vos annonceurs.
Donc s'il est vrai qu'il n'y a plus de qualité sans contenu pertinent fréquemment réactualisé, il est tout aussi vrai que personne n'a encore trouvé le moyen d'alimenter en temps réel des centaines de milliers - voire des millions - de sites parking en contenu de qualité.

Ce que pourrait assez facilement faire une plateforme comme Wikio, j'en ai déjà parlé avec Pierre Chappaz il y a plusieurs mois, mais il ne m'a pas semblé convaincu. D'où ma décision de partager mes idées avec la "communauté", juste pour tester le retour et collecter vos critiques et suggestions.

Au départ, me semble-t-il, c'était un peu l'idée de Blogbang, qui a pourtant réussi à casser dans la foulée une dynamique particulièrement porteuse, en merdant totalement le back-office après un démarrage en trombe. Dommage ! Et difficile à rattraper. Même si avoir Publicis derrière, ça peut aider...

Quant à cette (r)évolution des pages parking, il faut qu'elle n'ait pas seulement lieu sur le fond (le contenu), mais aussi sur la forme, en allant plus loin que la logique Google (depuis longtemps, et plus que jamais, dans le business...) :


En calquant la conception de ces pages sur le modèle des (r)évolutions qui attendent les traditionnelles pages de résultats, par exemple, encore « aujourd'hui TRÈS largement sous-exploitées, en termes de présence optimisée :
  • par les images
  • par les vidéos
  • par les cartographies
  • par les médias sociaux
  • par les widgets
  • multiforme et multiformats (blogs, sites, pages de réseaux sociaux, sites de partages de favoris, de documents...)
  • par la publicité
Etc.
»

Mais ce sera un autre débat ... dont j'espère qu'il aura lieu ! [Début]



Partager sur Facebook

, , , , , , , , , , , , , , , ,

vendredi 12 décembre 2008

The search page is defined by...

La page de résultats est définie par...

Par qui ? Par l'utilisateur ou par le moteur ?

Par les deux dirais-je, par les intentions de l'un mixées aux algorithmes de l'autre. Dans l'exemple donné sur son blog :


Olivier Andrieu remarque :
l'espace réellement visible (...) est entièrement accaparé par des liens issus de "la maison Google"...
Oui et non : car pour neuf liens sponsorisés (trois en position "premium" et six dans la barre latérale), la liste des 10 liens issus de Google Maps est bien à mettre au compte des résultats organiques. Google le précise clairement :
L'inclusion dans Google Maps et dans les résultats de recherche du site Google est gratuite. Si vous désirez ajouter votre entreprise à Google Maps, suivez les directives ci-dessous. Votre fiche s'affichera automatiquement dans les premiers résultats de recherche sur le site Google lorsque nos algorithmes la jugeront pertinente par rapport à la requête effectuée. Nous n'avons pas d'informations supplémentaires à vous communiquer au sujet du classement de votre fiche.
Donc je trouve arbitraire cette affirmation :
Google everywhere... et aucune place pour les autres si ce n'est un demi-résultat peu visible en bas d'écran, à peine au dessus de la "ligne de flottaison"... Bien sûr, on objectera - avec raison - que sur un écran plus grand, les résultats organiques (...) apparaissent.
et je m'étonne qu'Olivier Andrieu, fin référenceur, fasse naître une telle confusion dans l'esprit de son lectorat, en donnant à croire que ces 10 liens "Google Maps" ne seraient pas issus de l'index "organique".

D'autant que, personnellement, tels quels, je les trouve encore plus visibles que les liens sponsorisés.

Sans compter que la métaphore du triangle d'or invoquée par Olivier Andrieu comme seul "espace réellement visible", ne fonctionne pas dans le cas présent, comme l'ont démontré les études de ... Gord Hotchkiss, toujours lui :
L'attention de l'œil étant d'abord capturée par l'image (encore faut-il qu'elle remplisse le critère de la pertinence par rapport à la recherche de l'internaute), cela déplace le "centre de gravité" du point d'entrée, c'est-à-dire là où se pose le regard en premier, d'où il commence ensuite à balayer la page.
En fait, c'est très exactement ce qui se passe avec la carto de Google Maps de la capture ci-dessus, puisque l'œil, fortement attiré par l'image, va d'abord naturellement se poser sur les liens à droite de l'image (et qui plus est au centre de la page).

Donc que dire là encore, sinon que le critère de la pertinence par rapport à la recherche de l'internaute est ici pleinement rempli...

Dans le même billet il était d'ailleurs question des révolutions qui attendent la traditionnelle page de résultats, tant sur la forme que sur le fond :
  • sur la forme, avec une présentation des liens non plus linéraire mais intégrant, ou, pour mieux dire, amalgamant (blending) photos, vidéos, cartes géographiques, commentaires, etc. (côté pub on peut très bien envisager la présence de widgets interactifs en plus des habituels liens contextuels, d'autres formats riches...) ;
  • sur le fond, avec l'émergence de la recherche universelle (celle qui va puiser dans les différents index, ou inventaires), de la personnalisation (celle qui tient compte de vos préférences et de votre profil) et de la verticalisation (celle qui décide des thématiques auxquelles appliquer personnalisation et recherche universelle).
En fait, si je devais hiérarchiser, je dirais que c'est cette dernière qui passe en premier et subordonne les deux autres, avec par ordre d'importance :
  1. Verticalisation
  2. Personnalisation
  3. Recherche universelle
Or la personnalisation est fortement mise en avant par Google, Marissa Meyer le dit depuis un moment déjà et l'a encore répété au Web 08 :
  • search needs to be more dynamic and more personalised
  • talks about personalised search... usual caveat about being careful with users' data
  • "we don't know what will fuel personalised search, but we think it will be one of the traits of the successful search tools of the future"
  • "another part of personalisation is the social aspect"
Voilà pourquoi je trouve l'analyse d'Hotchkiss s'interrogeant sur Who Owns The Search Page? nettement plus propice à la réflexion (ne se demandait-il pas déjà l'année dernière, vu la façon dont les moteurs de recherche innovent, pourquoi les Web marketers n’en font-ils pas autant ?) : une réflexion que devraient mener tous ceux qui ont des services à vendre sur Internet, puisque de plus en plus ces trois composantes de la recherche - verticalisation, personnalisation et recherche universelle - offrent des alternatives aujourd'hui TRÈS largement sous-exploitées, en termes de présence optimisée :
  • par les images
  • par les vidéos
  • par les cartographies
  • par les médias sociaux
  • par les widgets
  • multiforme et multiformats (blogs, sites, pages de réseaux sociaux, sites de partages de favoris, de documents...)
  • par la publicité
Etc.

Donc en conclusion, la page de résultats est définie par les trois composantes qui la font :
  1. par les requêtes saisies,
  2. par l'imagination et l'inventivité de ceux qui décident de leurs stratégies de liens, de trafic, de référencement / positionnement, de mots clés, de pages clés, de noms de domaine, etc.,
  3. et par la pertinence des algorithmes...
Comme quoi il reste de la marge si on veut bien s'en donner la peine, et ce n'est pas encore réservé uniquement à ceux qui paient le plus ! Quant à savoir où va la recherche...


Partager sur Facebook

P.S. Réponse à TomHtml, qui me dit en commentaire :
Parmi les résultats de Google Maps (et par conséquent de sa onebox), il y a des pub "adwords", c'est à dire que des annonceurs paient pour que le marqueur positionnant leur entreprise apparaisse toujours sur la carte quand on fait une recherche à proximité.
C'est une minorité, mais elle existe... Donc Olivier a en partie raison puisque ces résultats ne sont pas tout à fait naturels.
Depuis le début, Google a toujours mis un point d'honneur, me semble-t-il, à ne jamais induire en erreur ses utilisateurs entre résultats naturels et sponsorisés, ces derniers étant toujours distingués de façon claire et sans équivoque par rapport aux premiers. Voilà pourquoi je dis que dans l'exemple choisi par Olivier Andrieu, les 10 liens issus de Google Maps sont des liens naturels qui compensent autant de liens sponsorisés.

Chose que je vais essayer de démontrer. Si le commentaire de Tom est une probabilité, il y aurait trois hypothèses. Nous aurions en effet, parmi les liens qui jouxtent la carte :
  1. soit 10 liens sponsorisés ;
  2. soit des liens sponsorisés mélangés à des liens naturels ;
  3. soit 10 liens naturels.
1. Dix liens sponsorisés

Non seulement la chose n'est signalée nulle part, mais en plus cela nous donnerait toute la partie de la page au-dessus de la ligne de flottaison, comme dit Olivier, truffée de liens sponsorisés, une vingtaine pour être précis. Inacceptable. Et même impossible. Si Google faisait ça, ce serait le déclin assuré de son utilisation par la masse des internautes. Et si Google voulait scier seul la branche sur laquelle il trône, il n'y aurait pas de meilleure solution !

2. Mix de liens sponsorisés + liens naturels

Idem. Inacceptable sans signaler la chose aux internautes. De plus, à ma connaissance, Google n'a jamais fait ça. J'ai testé la même requête directement dans Google Maps, et l'on voit bien dans la colonne latérale gauche, où s'affiche la liste des hôtels, que les liens commerciaux sont clairement mis en évidence en tête et en pied de colonne. Voir la capture :


On peut d'ailleurs constater que les marqueurs ne sont pas les mêmes entre liens naturels (tous identiques) et liens sponsorisés (personnalisés), différence qui se retrouve sur la carte :


Voilà pourquoi je pense que nous avons au final :

3. Dix liens naturels

Que l'on retrouve d'ailleurs mélangés dans les 20 liens naturels présentés directement sur Google Maps (avec un seul lien d'écart).

, , , , , , , , , , , , ,

lundi 1 octobre 2007

Index Google, Yahoo, Microsoft : comparaison

Une comparaison de l'index des moteurs de Google, Yahoo, Microsoft

[Mise à jour, 1er février 2008] Microsoft rachète Yahoo!, ce billet devra bientôt être rangé au rayon archéologie du Web...

English version / Version anglaise

Introduction
La taille des index
L'index de Google
L'index de Yahoo
L'index de Microsoft
Le cache et le rafraîchissement des index
Conclusion

[MàJ - 5 octobre 2007] 5 jours après la publication de ce billet, 118 pages du site sont indexées sur Google, qui gagne sur toute la ligne : exhaustivité, pertinence, rapidité. Sans appel !


Yahoo et Microsoft en sont toujours au même point... Et ne parlons pas des autres : inconnu chez Ask, tandis qu'Exalead présente la vignette d'un service de parking pour mon site, mis en parking il y a plus d'un an. Bonjour la pertinence (c'est l'exception française) !

* * *

Introduction

Voici quelques jours, j'ai mis en ligne XBRL.name, un glossaire en 7 langues sur la terminologie IFRS.

D'une part, j'ai eu la surprise de voir que le nom de domaine, déjà présent sur le site Studio92.net depuis plus de deux ans, avait conservé le PR4 de la page qui l'accueillait, mais ça ne devrait pas durer !


De l'autre, vous pouvez imaginer combien je suis à l'affût pour voir quand est-ce que mon site sera indexé dans les moteurs. Je contrôle tous les jours sur GYM. Les résultats sont édifiants ! Voici la situation au 1er octobre, le site ayant été mis en ligne le 23 septembre, soit en huit jours.

Je précise qu'il n'est pas terminé, seul 1/7 du site est complété, soit un peu moins de 200 pages sur environ 1400 prévues une fois le site achevé.

Enfin, ce billet ne prétend nullement à plus que ce qu'il est : le simple suivi sur une semaine de l'indexation d'un nouveau site. Rien de scientifique là-dedans, juste une expérience personnelle. [Début]

* * *

La taille des index

Il est acquis que chacun des trois index dépasse amplement les 20 milliards de pages Web !!! Pour les nostalgiques, voir ici...

Les moteurs ne communiquent plus trop là-dessus, sauf Microsoft qui tient à faire savoir qu'il a comblé son retard, en multipliant par 4 la taille de son index : de 5 milliards à 20 milliards de pages. OK !

Pourtant, Yahoo annonçait déjà plus de 19 milliards de pages en ... août 2005 (malgré les interrogations de Jean Véronis), et Google 24 milliards de pages 3 mois plus tard (voir ici, fin de page 5) !

Donc même si je suis en partie d'accord avec Eric Enge quand il déclare que la différence entre 20 et 24 milliards de pages n'est pas significative, alors qu'elle compte beaucoup entre 5 et 24 milliards (At some level, the exact index size is not a big issue, unless, your index is simply too small), je le suis moins lorsqu'il pense que l'augmentation de la taille de l'index est corrélée à l'augmentation de la pertinence (In short, Microsoft needed to make a move of this type to improve their relevance).

La pertinence ne dépend pas forcément de la couverture (What's at issue is coverage... and if you don't have the related sites in the index, you can't return the right result), puisque le moteur peut très bien avoir le site pertinent dans son inventaire et rester silencieux (c'est-à-dire ne pas sortir le résultat).

Et bien évidemment, Microsoft a présenté une démo pour illustrer son point de vue, notamment sur "shelli segal" et le site d'un designer correspondant, qui apparaît en premier sur Live Search mais a le grand tort d'être absent de l'index de Google !

Pourrait-on soupçonner Microsoft d'avoir concocté une recherche ad hoc uniquement pour mieux justifier sa pertinence, pertinence, pertinence ?

Un bon moyen de le savoir est de tester avec xbrl.name, face auquel les trois moteurs sont à armes égales, puisqu'il a été mis en ligne il y a 8 jours sans être volontairement soumis à leur indexation, sinon en mettant le lien sur mon blog et dans quelques autres sites. [Début]

* * *

L'index de Google

Jusqu'à hier Google retournait globalement 190 résultats et donnait pour le site l'extrait suivant :
My SPIP site. Search. Home page. My SPIP site. Follow-up of the site's activity RSS 2.0 | Site Map | Private area | SPIP | template.
C'est-à-dire qu'il gardait en mémoire l'installation de SPIP à laquelle j'ai procédé pour tester, avant d'opter pour un site en HTML.


Mais aujourd'hui, soupir de soulagement, Google retourne globalement 300 résultats et voit enfin la nouvelle version du site :


Conclusion, sur Google, le site a été naturellement pris en compte en 8 jours, même si le contenu du glossaire ne semble pas encore indexé. [Début]

* * *

L'index de Yahoo

Yahoo retourne 30 résultats et l'extrait suivant :
This is the placeholder for domain xbrl.name. If you see this page after uploading site content ... This page has been automatically generated by Plesk.
Plus une page correctement indexée. Quid des quelque 200 autres ?

Yahoo présente donc un dizième des résultats de Google et 1 seule page indexée. [Début]

* * *

L'index de Microsoft

Un seul résultat ! Point barre. Même extrait que Yahoo.


Plus la petite phrase qui tue : « Live Search vous satisfait-il ? Dites-le nous. »

Que dire ? Qu'au vu de ce qui précède, Microsoft mérite bien sa troisième place. De bon dernier !

Un classement confirmé par les statistiques de fréquentation de mon blog, comme il ressort du tableau ci-dessous :

stats Adscriptor septembre 2007
Les moteurs, à l'origine de 2 826 visites sur Adscriptor au mois de septembre, ont représenté 41,21% de la fréquentation totale (188 visiteurs et 242 pages vues par jour, avec un temps de consultation moyen de 1'35'' par visite) (tout le monde ne s'appelle pas Otto, heureusement pour lui ;-).

Or avec 2 575 liens référents, Google représente à lui seul +91% de cette fréquentation, contre 5,4% pour Yahoo et 3 fois moins que Yahoo pour Microsoft. Une supériorité écrasante. Pourquoi ?

Enfin ! Il est certain que si Google n'était pas là, je serais présent sur Internet ... sans aucune visibilité dans les moteurs ! [Début]

* * *

Le cache et le rafraîchissement des index

Outre la taille et la pertinence, un dernier aspect relatif à l'index des moteurs concerne sa fréquence de rafraîchissement, avec un cycle de cache qui s'est considérablement raccourci ces derniers temps pour Google (je n'utilise pas assez Yahoo et Microsoft pour pouvoir me prononcer sur ce point). Avant on avait l'impression que le cache restait assez longtemps et qu'on pouvait récupérer des infos plusieurs semaines après, alors qu'à présent ce n'est plus qu'une question de jours. Exemple : j'ai pu récupérer pratiquement toutes les interviews bidons d'Alexis Debat, alors que plus les jours passent moins on en trouve trace. [Début]

* * *

Conclusion

À propos des performances proclamées par Microsoft, Eric Enge a raison de déclarer :
Ultimately, the point is, you can't return the right result if the site you should be returning for a given search is not in your index.

En dernier lieu, le fait est que vous ne retournerez jamais le bon résultat si le site pertinent pour la requête correspondante n'est pas dans votre index.
C'est clair. Mais il est encore pire d'avoir ce site dans son index sans comprendre que le site pertinent, c'est justement celui-là ! [Début]


P.S. Bon, et bien on dirait que Yahoo et Microsoft n'abandonnent pas la partie. Ils ont dû lire mon billet pendant la nuit !

En cherchant sur Yahoo Search, récemment amélioré (voir les détails, ici et ), l'outil ne propose encore aucune suggestion :


mais a enfin indexé correctement la page d'accueil (rien de changé pour le reste, globalement 31 résultats et seulement 2 pages du site).


Pour Live Search également, l'indexation est maintenant correcte pour 2 pages du site, qui sont les seuls résultats proposés.


Pendant ce temps, Google est passé de 17 à 47 pages indexées : toujours une longueur d'avance, et même plusieurs...

Ceci dit, vu le nombre de pages Web sur Internet (???), c'est quand même remarquable de voir qu'un nouveau site est indexé en 8 jours sur GYM. Et on comprend mieux pourquoi les prochaines étapes de la recherche à l'horizon 2010 seront :
  1. verticalisation des moteurs
  2. personnalisation des résultats
  3. recherche universelle
Sans oublier la recherche locale...

, , , , , , , , ,

vendredi 25 mai 2007

Reportlinker : la cata se confirme

Reportlinker : la cata se confirme

Retour sur un précédent billet, la verticalisation des moteurs de recherche, dans lequel j'exprimais une critique de Reportlinker sur son coût excessif, chose largement corroborée par la suite. J'étais alors contacté par Nicolas Bombourg, l'un des deux fondateurs, qui me proposait un accès gratuit d'un mois pour bêta-tester le moteur et, en échange, leur faire remonter toutes les bonnes idées qui me viendraient à l’utilisation de l'outil.

Le 19 avril je recevais le code d'accès et j'effectuais des tests dans la foulée. J'envoyais à Monsieur Bombourg ce que je pensais être mon premier feedback dans la soirée, où j'identifiais six catégories de problèmes. Je vous livre le message tel que je le lui ai envoyé (légèrement adapté pour tenir compte de l'absence des captures d'écran).
1. Incohérences entre titre document et document lui-même

Exemples :

- Titre annoncé : « Téléphonie Mobile et UMTS, Evaluation de la taille du marché dans le monde »
Concrètement : rapport annuel 2004 d'une société luxembourgeoise.

- Titre de l’ « étude » annoncée : « Assurances, Evaluation de la taille du marché, Russie »
En réalité, simple dépliant publicitaire décrivant les activités de la société Kazna, qui évolue dans le domaine de l’assurance, certes, mais point d’évaluation sérieuse du marché de l’assurance en Russie.

2. Problèmes de codage (IE, Firefox ?)

Sur Firefox, tous les mots accentués sont systématiquement tronqués. Résultat, lorsqu’on clique sur le lien avec un codage erroné : aucun résultat. Il faut remettre les accents pour obtenir les résultats.

3. Liens inactifs, critères aussi !

Si je clique sur l’année 2007, qui m’annonce 725 documents, rien ne se passe, les résultats sont les mêmes que ceux des autres années, et les années ne correspondent pas : par ex., deuxième doc = 2006

Quand j’essaie de cliquer sur les docs, les liens ne sont pas actifs sans qu’on comprenne pourquoi.

Autre exemple, en donnant 2007 pour critère : années affichées des 6 premiers doc : nov. 2002 – mars 2005 – mars 2003 – mars 2006 – septembre 2006 – août 2001, mais aucun daté 2007 ! Où sont passés les centaines de documents annoncés ?

4. « Fraîcheur des documents », par ailleurs disponibles en libre accès sur Google

Sur les dix premiers docs téléchargés, dont la date de publication est majoritairement comprise entre 2003 et 2005, j’ai testé Google et tous sont trouvables et téléchargeables via le moteur.

Celui-ci, http://www.openwide.fr/ , qui annonce « Logiciel, Tendances et évolution du marché » date carrément de 2002, un peu dépassé pour les tendances du marché.

5. Liens brisés

Pour cet autre : « Fenêtre et Peintures, Segmentation du marché, Europe et Afrique », le lien de téléchargement ne mène nulle part (de plus la date de mise à jour annonce février 2006, ce qui en ferait un document plutôt « récent » par rapport aux autres).

Idem pour un autre doc du Ministère des Transports du Canada.

6. Quelques autres problèmes, dont la lenteur du serveur dans les réponses, etc.

Conclusion : pour l’instant, j’ai passé près de deux heures dans mes recherches sans véritablement trouver de document pertinent et à jour. Au niveau qualitatif de l’expérience utilisateur, c’est le zéro pointé. Quant au rapport qualité-prix, j’irais plus vite en surfant sur Google, je trouverais de meilleurs documents, et c’est gratuit. Donc si en plus j’avais payé pour ce service, je vous dis pas dans quel état d’esprit je serais.
Dans un premier temps, Monsieur Bombourg a accusé réception (Je suis en déplacement et regarderai vos retours en détail avec intérêt), et puis après, plus rien. Ni le lendemain ni durant les jours qui ont suivi. Silence radio.

Dans un message laissé sur le billet de Jean-Michel Billaut, grâce auquel j'avais découvert ce "service", initialement je faisais le commentaire suivant :
...j'ai passé deux heures à tester l'outil et les résultats sont bien pires que ce à quoi j'avais pensé au départ. J'ai d'ailleurs adressé un compte-rendu détaillé à Monsieur Bombourg, qui n'y a pas donné suite.
Et contrairement à ce que j'ai dit sur mon blog, je n'envisage pas pour l'heure d'informer le lectorat d'Adscriptor de ce compte-rendu, car je n'aime pas m'acharner. J'espère juste qu'il fera réfléchir les personnes concernées.
Et, en effet, telle était mon intention au départ. Toutefois, à son insu, Monsieur Bombourg m'a fait changer d'avis : une dizaine de jours plus tard, j'ai voulu refaire des tests pour confirmer ou infirmer mes premières impressions, or j'ai découvert avec stupeur que mon code d'accès n'était plus valide. Annulé, purement et simplement.

Ce qui m'a mis très en colère. Si on me dit « Vous pourrez y accéder pendant un mois. », la moindre des choses, c'est de tenir parole. J'ai passé plus de 2 heures de mon temps que j'aurais pu employer beaucoup plus utilement, donc le premier des respects à mon égard était de donner crédit à la parole donnée, ce que moi j'ai fait de mon côté.

J'aurais d'ailleurs aimé avoir une réponse argumentée à mes critiques, plutôt qu'un silence qui vaut acquiescement et traduit une incapacité chronique à se remettre en question. Ce qui n'est pas une bonne chose lorsqu'on se vante d'être dans la mouvance Web 2.0 ou Web 3.0. Enfin, pour conclure, je laisse la parole à Pascal, qui a commenté à ma suite (le 3 mai dernier) sur le blog de Jean-Michel Billaut :
Pareil pour moi qui ai eu le droit de tester aussi... J'ai vraiment essayé de lui donner sa chance à ce moteur, en cherchant diverses choses pour un usage réel (pas juste des recherches pour le plaisir d'en faire) mais les résultats sont vraiment mauvais à tous points de vue... À oublier vite...
Oui, c'est bien la seule expression qui convient, Reportlinker, à oublier vite ! Sans parler des économies... Monsieur Bombourg, quand on prétend vouloir jouer le jeu, il faut le jouer jusqu'au bout. Enfin, oser dire que Reportlinker se distingue de Google CSE par l'aspect sémantique, faut vraiment pas craindre !


, , , , ,

mardi 17 avril 2007

La verticalisation des moteurs de recherche - suite

La verticalisation des moteurs de recherche - suite

[MàJ - 25 mai 2007] : conclusion

[MàJ - 18 avril 2007]

Après ma critique de Reportlinker, je m'attendais à recevoir un message de dénégation de la part des responsables du site, en revanche j'ai eu l'heureuse surprise de recevoir le courriel suivant, que je reproduis avec l'aimable autorisation de son auteur, Nicolas Bombourg :
Bonjour Jean Marie,

Je me permets de revenir vers vous pour donner suite à votre post sur notre service Reportlinker.
Si vous le souhaitez, je vous propose de vous inscrire gratuitement sur notre outil.

Vous pourrez y accéder pendant un mois. En échange, je vous demanderai, comme à tous les Beta-testeurs, de nous faire remonter toutes les bonnes idées qui vous viendront à l’utilisation de notre outil.

Je vous ferai également si vous le souhaitez remonter quelques informations concernant notre technologie. En effet, notre moteur est basé sur une technologie sémantique, générant à la volée des clusters basés sur les contenus des études identifiées, et permettant d’affiner les résultats sur 4 dimensions (langue, industrie, date de publication et zone géographique). À ma connaissance, Google CSE n’offre pas ces fonctionnalités.

Cette technologie est le fruit de 5 ans de R&D, a reçu le soutient de l’Anvar, ses coûts de développement sont aujourd’hui estimés à 2 M€.

Enfin, je suis également à votre disposition pour vous faire remonter des informations concernant les moteurs de recherche verticaux, et le Web 3.0 puisque notre société s’inscrit dans cette tendance. Vous en trouverez quelques extraits sur notre blog.

À l’image de notre site, ouvert depuis le début Avril, il est perfectible ;-)

Je suis à votre disposition pour en discuter par ailleurs, vous trouverez mes coordonnées ci-dessous. À bientôt,

Cordialement,
Nicolas
J'aime les gens qui jouent le jeu, je trouve cette démarche positive, ça va dans le bon sens. À mon tour j'accepte donc de bêta-tester le moteur pendant un mois, dans la plus grande impartialité, en faisant remonter mes observations à leur concepteur et je vous reviendrai ensuite avec un nouveau billet circonstancié sur ce nouveau moteur de recherche verticale. Dont l'idée m'avait séduit d'emblée, mais dont les conditions d'abonnement m'avaient immédiatement refroidi. En attendant je leur propose d'étoffer le volet "communication" de leur site, car ce qui semble couler de source pour eux est manifestement moins évident pour l'internaute lambda. D'où la première rédaction de cet article :

* * *

Depuis que j'ai publié mon dernier billet sur la montée en puissance des moteurs de recherche verticalisés, ou thématiques, ou spécialisés, etc., j'ai découvert Reportlinker, autre exemple de verticalisation d'outil de recherche qui répertorie pour l'instant 1,2 million d'études sectorielles en accès illimité... mais payant (on est d'ailleurs à la limite de l'abus de langage : illimité, certes, pourvu qu'on paye et qu'on renouvelle son abonnement chaque mois, pour la modique somme de 2 748,00 € à l'année !). Malheureusement, AMHA bien trop cher ! Encore un business model à la française...


Faire payer 129,00 € pour 24 heures (sic!) ou 229,00 € par mois pour permettre de télécharger des ressources gratuites (car j'imagine que la plupart sont accessibles gratuitement sur Internet), faut pas se moucher du pied !

Exemple : j'ai saisi "traduction" dans l'onglet de recherche, et la première page de résultats semble alléchante :


Problème, dès qu'on clique on arrive sur la page du "choix" de l'abonnement (conditions au 17 avril 2007)...

J'ai donc voulu tester le troisième résultat, dont le snippet dit textuellement : « Glossaire anglais-français 1 abbreviated sector breakdown ventilation sectorielle simplifiée; nomenclature simplifiée des secteurs abnormal » (238 pages).


Je l'ai repris tel quel et l'ai collé dans "mon moteur". Résultat, ça sort de suite et c'est gratuit.


Et comme vous pouvez le voir, le document fait bien 238 pages, donc pas d'erreur possible, c'est bien le même qui vous aurait coûté au bas mot 129,00 € chez ReportLinker.



Par simple curiosité, j'ai réitéré l'expérience avec les deux premiers résultats, qui en fait n'en sont qu'un seul, pour voir si je retrouvais le document sur Google avec les indications disponibles. D'abord, le binôme TRADUCTION + "profil de l'industrie" est très fréquent dans les études de marché canadiennes, dont la plupart sont publiées dans les deux langues. Dont acte. Quatrième résultat (puisqu'il est question de musique) :


Là aussi, 149 pages, c'est bien ça. À noter quand même que l'étude date du 30 septembre 2004, ce qui n'est plus tout jeune si on calcule en temps Internet. Et dans le lot de plus d'un million d'études "disponibles" annoncées, je me demande quelle est la part vraiment de première fraîcheur...

* * *

Sur le billet de Jean-Michel Billaut, source de cette info, les commentaires sont d'ailleurs plutôt aigres... Allez, venez chez moi, on fera ça à la bonne franquette :-)


P.S. Voilà encore un domaine où les anglo-saxons pourraient nous enseigner ce qu'il faut faire ... ou pas !

, , , , , , ,