Affichage des articles dont le libellé est moteurs de recherche. Afficher tous les articles
Affichage des articles dont le libellé est moteurs de recherche. Afficher tous les articles

jeudi 18 février 2010

Search Alliance entre Microsoft et Yahoo!


Après avoir traité en long en large et en travers, en 2008-2009, la fusion manquée Microsoft - Yahoo!, le partenariat sur la recherche entre les numéros 2 et 3 de l'Internet, annoncé en juillet dernier (voir les détails...), est sur le point d'être mis en œuvre, puisque les autorités américaine et européenne ne s'opposent plus à l'intégration entre les deux.

Donc, dans les semaines qui viennent, Yahoo serala régie exclusive des annonceurs achetant des liens sponsorisés premium aux deux sociétés” en intégrant ses pubs dans les pages de résultats fournis par Microsoft, comme l'explique la figure suivante :

avant d'affiner de plus en plus l'intégration.

Ceci étant, vu que la division des rôles entre les deux varie selon les infos, le mieux est d'aller puiser à la source officielle :
Lorsque la Search Alliance sera implémentée, Yahoo! et Microsoft continueront d'offrir à leurs visiteurs une recherche différenciée, mais Microsoft gérera la plateforme technologique qui fournit l'algorithme de recherche (propulsé par Bing) et les résultats payants (via adCenter).

Selon les segments d'appartenance des annonceurs, Yahoo! prendra en charge les grands comptes, les agences de référencement, les revendeurs et leurs clients, tandis que Microsoft s'occupera des annonceurs indépendants et utilisera adCenter comme plateforme de pub pour toutes les campagnes de recherche.

L'inventaire publicitaire sera commun à Microsoft, Yahoo! et leurs partenaires respectifs...


[Une version française est maintenant disponible]
Dont Facebook ! J'imagine aussi que Ballmer doit regarder Twitter d'un œil très intéressé...

Comme l'explique le communiqué de presse, la transition devrait s'achever avant la fin de l'année, avec essentiellement pour cible les annonceurs US...

En gros, l'idée derrière le deal peut être reprise dans les « quatre piliers » énoncés par Ballmer pour la fusion, rapportés au seul volet de la recherche :


avec des synergies pointant essentiellement vers les dollars des annonceurs (et, espérons-le aussi, sur la pertinence des résultats...) :


On pourra déjà faire un premier bilan en fin d'année, même si, d'ores et déjà, avec la progression constante de Bing, notamment grâce à son intégration récente dans Facebook (qui a fini par dépasser Yahoo!), Microsoft avance - lentement mais sûrement - dans la réalisation de son programme "10, 20, 30, 40"...

En tout cas, vu les chiffres actuels, il est clair désormais que la recherche sur Internet se limite à un duopole, Google vs. Microsoft : bloc contre bloc, l'internaute au centre...



Partager sur Facebook

P.S. Quant à l'avenir de Yahoo! maintenant, c'est un autre problème...



Il est peut-être bon de citer in extenso le communiqué de la CE :
La Commission européenne a autorisé, en vertu du règlement européen sur les concentrations, le projet d’acquisition des activités de recherche en ligne de Yahoo! Inc. et des annonces liées à ces recherches par Microsoft. Elle a conclu que cette concentration n’entraverait pas de manière significative l’exercice d’une concurrence effective dans l’Espace économique européen (EEE) ou une partie substantielle de celui-ci.

Microsoft exerce des activités au niveau mondial dans la conception, le développement et la vente de logiciels informatiques et la prestation de services connexes.

Les activités de recherche de Yahoo faisant l'objet de la présente opération comprennent la recherche en ligne et les annonces liées à ces recherches, y compris la plateforme d'annonces liées aux recherches en ligne de Yahoo, Panama. En vertu des accords conclus entre Microsoft et Yahoo, Microsoft acquerra une licence exclusive de dix ans sur les technologies de recherche développées par Yahoo. Microsoft utilisera également le personnel travaillant pour le moteur de recherche en ligne et pour les annonces liées à ces recherches de Yahoo. Microsoft deviendra le fournisseur exclusif de résultats de recherche en ligne de Yahoo et d'annonces liées à ces recherches. En contrepartie, Microsoft conservera 12 % des recettes générées par les recherches effectuées sur les sites de Yahoo et de ses partenaires pendant les cinq premières années des accords et reversera 88 % de ces recettes à Yahoo au titre des coûts d’acquisition de trafic.

Dans l'EEE, les activités de recherche en ligne et des annonces liées à ces recherches de Microsoft et de Yahoo sont très limitées et leurs parts de marché cumulées demeurent généralement inférieures à 10 %. À l'inverse, Google détient généralement des parts de marché supérieures à 90 %.

Selon Microsoft, le fait d'acquérir les activités de recherche en ligne de Yahoo et d'augmenter ainsi sa taille dans le domaine des annonces liées à ces recherches lui permettra de concurrencer Google d'une manière plus crédible et d'apporter une plus grande valeur ajoutée aux annonceurs. L'enquête de marché de première phase menée par la Commission a montré que la taille est un élément important pour être un concurrent crédible en matière d'annonces liées aux recherches en ligne.

La Commission a également examiné l'incidence éventuelle de cette concentration sur les différents acteurs du marché, notamment les utilisateurs de moteurs de recherche en ligne, les annonceurs, les éditeurs en ligne et les fournisseurs de technologies de recherche. L'enquête de marché de première phase menée par la Commission a montré que non seulement ces opérateurs n'attendent pas d'effets négatifs de ce rachat sur la concurrence ou sur leurs activités, mais qu'ils en espèrent au contraire un renforcement de la concurrence dans le domaine de la recherche en ligne et des annonces liées à ces recherches en permettant à Microsoft de concurrencer plus efficacement Google.

L’opération a été notifiée à la Commission en vue de son autorisation le 15 janvier 2010.

De plus amples informations sur cette affaire sont disponibles à l’adresse suivante.


, , , , , ,

lundi 25 janvier 2010

Marché de la recherche sur Internet, multiplié par 4 en 4 ans !


Une progression exponentielle :

1. 400 milliards de requêtes en 2006
2. 800 milliards de requêtes en 2008
3. 1 600 milliards de requêtes en 2010...

* * *

Dans le sillage du précédent billet sur les chercheurs du Web de 3e génération, je découvre ces stats de Comscore via Olivier Andrieu.

Or 130 milliards de requêtes faites dans le monde sur un seul mois (décembre 2009), ça nous donne 420 milliards de requêtes sur un trimestre, soit autant que pour toute l'année 2006 !!!

Et si le même rythme se poursuit, au 31/12/2010 nous en serons donc à 1 600 milliards de requêtes sur l'année !

Faramineux ! Déjà, c'est plutôt une bonne nouvelle pour les référenceurs (voir mon blogroll), parce que même si la concurrence augmente pour bien se positionner dans les pages de résultats, ça veut dire aussi 4 fois plus de chances d'être trouvé !

Bonne progression de la France à 5,4 milliards de requêtes (+61% vs. 2008), ce qui doit signifier pas loin du double en nombre de requêtes sur tout le marché francophone, et doit représenter entre 6 et 8% du marché mondial si l'on s'en tient à ces chiffres (en me basant sur 4% pour la France, j'imagine un marché francophone entre 50 et 100% supérieur).

Quant à Google, qui continue de s'accaparer 67% de l'ensemble, superlatif, comme toujours : j'aimerais bien savoir ce que ça donne aujourd'hui en termes de pages vues par jour sur le plus grand réseau de publicité contextuelle au monde. ! Et en termes de données collectées, inimaginable...

Donc indépendamment d'un retrait ou non de la Chine, Google a encore de beaux jours devant lui !


Partager sur Facebook

, , , , , , , , , , , , ,

jeudi 21 janvier 2010

Les chercheurs du Web de 3ème génération


L'ami Laurent, un vieux de la vieille du SEO, nous a demandé, à d'autres blogueurs (voir les liens en fin de billet) et moi, de nous exprimer sur l'avenir du search en nous basant sur l'étude “Search of the future” publiée en décembre dernier par Directpanel, sous-titrée : le moteur de recherche idéal vu par les internautes.

La question me suggère de citer en préambule une série de trois billets écrits il y a 3 ans, inspirés par Gord Hotchkiss, Président & CEO d'Enquiro Search Solutions, Inc., et respectivement intitulés :
  1. Search Engine Results 2010
  2. Les moteurs de recherche innovent, pourquoi les marketers Web n’en font-ils pas autant ?
  3. Moteurs de recherche 2010
Dans ce dernier, je terminais ainsi la série :
La conclusion de ce qui précède est qu'il faut donc penser en termes de multipositionnement, non plus simplement sur le texte mais sur tous les éléments du palimptexte, une réalité qui n'a jamais existé jusqu'à présent, et dont nous avons encore bien des difficultés à appréhender toutes les implications pour notre présence Internet...

Ce n'est plus de simple écriture Web qu'il s'agit, mais plutôt d'ingénierie "scripturale" (linguistique, sémantique, technique, etc.). Interactive, et donc réactive. Adaptative. Selon les buts, les retours d'information, les événements, les destinataires, etc. Sans parler de localisation...

(...) Pour conclure, je vous laisse avec cette question : où sera positionné votre site sur la page de résultats de Google en 2010 (ce n'est qu'une projection, mais on comparera dans trois ans...) ?
Et de nous proposer une hypothèse de pages de résultats plutôt futuriste, même s'il est clair que certaines des idées exprimées sont aujourd'hui réalité.


Donc après une première décennie 1990-2000 qui a consacré les débuts d'Internet comme phénomène mondial, à la fois culturel, socio-économique et même politique, et une deuxième décennie 2000-2010 de meilleure appréhension et de maturité du phénomène (j'imagine qu'aujourd'hui plus personne ne songerait à parler d'Internet comme d'une mode...), voici qu'une troisième génération d'internautes va devoir se mesurer avec les prochains bouleversements à venir sur la décennie 2010-2020 : Et que font les internautes dans cet incroyable fouillis planétaire pour s'y retrouver ? Ils cherchent ! Ils interrogent leurs réseaux sociaux, s'informent en temps réel sur leurs flux et sur Twitter, mais surtout ils questionnent les moteurs, point de passage obligé pour accéder aux richesses inépuisables du Web.

Or il y a dans l'étude Directpanel une diapo qui m'intéresse plus particulièrement, elle pose la question suivante : « Dans quelle mesure pensez-vous que les moteurs de recherche web pourraient s'améliorer dans les 10 années à venir ? »


Pour 1% des sondés, pas d'améliorations à attendre, un peu pour 33%, beaucoup pour 48%, et une évolution radicale pour 19%.

Ce qui veut dire que pour près de 100% des internautes, les améliorations potentielles côté moteur seront nombreuses sur la décennie 2010-2020, un vrai plébiscite !

Il y a cependant une donnée manquante, selon moi, dans cette étude, à rechercher non plus côté moteur, mais côté internaute. À savoir qu'en général les gens cherchent n'importe comment, une légèreté le plus souvent compensée par l'incroyable pertinence des résultats retournés. Pas toujours, je sais, mais il n'empêche...

Pour faire un parallèle, c'est la même histoire que ceux qui n'utilisent leur ordinateur qu'à 10% de ses capacités. Idem avec la recherche sur le Web, où la maîtrise a minima de la syntaxe moteur permet de circonscrire les résultats en minimisant le bruit autant que le silence.

Car après tout l'alphabétisation "moteurs" n'implique qu'un nombre fort limité de commandes, qu'on peut compter sur les doigts des deux mains (site:, link:, filetype:, inurl: / allinurl:, intitle: / allintitle:, intext: / allintext:, cache:, etc.), mais dont la pertinence des résultats fournis évite souvent l'allongement moyen des requêtes.

Cela permet ainsi de résoudre facilement deux des fonctionnalités les plus impactantes sur la vie quotidienne, selon l'étude, à savoir "m'aider à identifier parmi tous les résultats ceux qui sont les plus fiables" et "filtrer et ne pas afficher les résultats faux, périmés ou non pertinents".

Quant aux autres, telles que "permettre de rechercher dans les souvenirs stockés dans ma mémoire" (à moins qu'il ne s'agisse de la mémoire de mon ordi...), "comprendre des requêtes mentales / lire dans mes pensées" ou "fournir instantanément des informations sur une personne ou un objet que je touche", pour moi cela s'apparente moins à de la recherche Web qu'à de la science fiction.

Donc pour l'instant je me contenterai de choisir la syntaxe et les termes appropriés dans mes requêtes, car après tout, les bons mots clés restent ceux qui ouvrent les bonnes portes dans le labyrinthe Internet.

Et il est évident que de plus en plus, la page de résultats sera définie autant par l'utilisateur que par le moteur ! Une dimension qui, selon moi, manque à cette étude.

Dont une prochaine mouture devrait s'intéresser non plus à ce que les internautes s'attendent à trouver, mais à comment ils entendent le chercher. Je suis sûr qu'on aurait des surprises...




Liens connexes


Sylvain Richard
http://blog.axe-net.fr/enquete-google-sur-la-recherche-du-futur/

Marie Pourreyron
http://www.pink-seo.com/blog/futur-search-461

Léo Ludwig
http://fr.propulsr.com/moteurs-de-recherche/google-vision-futur/

Aurélien Bardon
http://oseox.fr/blog/index.php/786-moteur-recherche

Renaud Joly
http://www.renaud-joly.fr/index.php/post/2010/google-recherche-internautes

Antoine Leroux
http://www.antoineleroux.fr/google/futur-moteur-de-recherche/697

Aymeric Jacquet
http://ajblog.fr/referencement/802-recherche-ideale.html

Laurent Bourrelly
http://www.laurentbourrelly.com/blog/531.php

Sébastien Vallery
http://www.seoplayer.com/google/quel-futur-pour-la-recherche-d-information-en-ligne.html

Michel de Guilhermier
http://micheldeguilhermier.typepad.com/mdegblog/2010/01/google.html

David Degrelle
http://www.1ere-position.fr/blog/etude-google-le-moteur-de-recherche-du-futur

Olivier Andrieu
http://blog.abondance.com/2010/01/google-et-le-moteur-de-recherche-ideal_21.html

Olivier Duffez
http://www.webrankinfo.com/actualites/201001-search-future.htm

Gonzague Dambricourt
http://gonzague.me/futur-search-selon-google

Partager sur Facebook

P.S. La morale de l'histoire est la suivante : pour trouver des résultats pertinents, apprendre à bien chercher. Il y a des choses qu'on ne peut déléguer, l'apprentissage d'une langue, par exemple. Idem pour celui de la syntaxe de recherche (cf. opérateurs, via Aymeric). Google est comme le moteur d'une Ferrari de race, rien ne me servira d'en avoir une si je ne sais pas conduire !

, , , , , , , , , , , , ,

mercredi 25 février 2009

Positionnement dans Google : optimisez vos images

Depuis quelques temps, je constate dans mes liens référents que de plus en plus d'internautes arrivent sur Adscriptor via la recherche d'images de Google. Au point que plus d'1 visiteur sur 4 que m'envoie Google viennent par ce canal !

Je prends l'exemple de mes stats d'aujourd'hui via Sitemeter, qui visualise 1000 liens référents par page.

Optimiser les images pour Google
Globalement, Google m'envoie environ 35% de mes visiteurs, le reste venant de liens directs et, pour une infime partie, d'autres moteurs, mais sur cet échantillon de 1000 liens, 551 ont pour référent Google (55,1%), et sur ces 551, 150 la recherche d'images (27,22% des 551), qui correspondent à toutes les lignettes jaunes que vous voyez dans la colonne droite du graphique.

Il est intéressant de constater que plus d'1/4 des internautes arrivant ici via Google y arrivent via la recherche d'images ! Un canal qu'il convient donc d'optimiser, bien qu'à vrai dire je ne m'en sois guère soucié jusqu'à présent.

Cependant je vais prendre l'exemple de l'image ci-dessus pour voir comment je l'ai "optimisée". Trois possibilités :
  1. Le choix du nom de l'image
  2. La balise "Alt"
  3. La balise "Title"
1. Le choix du nom de l'image
Lorsque vous nommez vos images, il est clair qu'il vaut mieux mettre 1 ou 2 mots clés dans le nom du fichier que de l'appeler W21agvoWLfE.gif ou 874534542.jpg ! C'est ainsi que j'ai nommé celle-ci images_google, sans rentrer dans le détail de la distinction entre le trait d'union (tiret, ou dash), et l'underscore (trait bas), selon laquelle le tiret serait considéré comme un séparateur mais pas le trait bas.

Donc suivant ce critère, mieux vaudrait choisir images-google que images_google, mais personnellement je préfère l'underscore, indépendamment de ses (dé)mérites en référencement.
2. La balise "Alt"
La balise "Alt" pour les images sert à visualiser le nom que vous donnez à vos images lorsque leur affichage est désactivé. Quelqu'un qui lirait ce billet sans visualiser les images verrait donc un rectangle vide avec au centre la description que j'ai choisie pour l'attribut "Alt" : Optimiser les images pour Google. Les puristes vous diront que, contrairement à la balise "Title", la balise "Alt" est prise en compte par Google pour référencer les images.
3. La balise "Title"
Normalement cet attribut sert pour les liens, plutôt que pour les images. Personnellement, sur mon blog, chaque fois que j'utilise la balise "Alt", je mets également la balise "Title" avec la même description, qui s'affiche dans une bulle lorsque votre souris survole l'image.

Sur une page Web, vous pouvez également appliquer cette tactique aux listes de points (bullets), comme je l'ai fait sur ma page CV.

À chaque point de la liste, j'ai mis uniquement la balise "Alt", or IE l'interprète comme si c'était une balise "Title" (en visualisant donc le contenu de l'attribut à chaque passage de souris), alors que Firefox et Chrome n'affichent rien.

Par conséquent sur Adscriptor je préfère accoler un double attribut (Alt + Title) aux images (quand je le fais...), car en mettant les deux, ça m'évite de me tromper et je suis sûr que les internautes voient le même résultat, indépendamment du fait qu'ils utilisent Firefox, Chrome, Internet Explorer ou autres (j'ignore ce qu'il en est pour les autres).
Voilà, ces quelques réflexions jetées à la va-vite ne prennent pas en compte l'accessibilité des sites Web, qui est quelque chose de beaucoup plus pointu et un peu hors de mes compétences. Naturellement, je n'optimise pas systématiquement toutes les images que j'insère dans mes billets, même si je gagnerais sûrement à le faire, vu le nombre croissant de visiteurs qui arrivent sur mon site via les images.


Partager sur Facebook

, , , , , , , , , , , , ,

vendredi 12 décembre 2008

The search page is defined by...

La page de résultats est définie par...

Par qui ? Par l'utilisateur ou par le moteur ?

Par les deux dirais-je, par les intentions de l'un mixées aux algorithmes de l'autre. Dans l'exemple donné sur son blog :


Olivier Andrieu remarque :
l'espace réellement visible (...) est entièrement accaparé par des liens issus de "la maison Google"...
Oui et non : car pour neuf liens sponsorisés (trois en position "premium" et six dans la barre latérale), la liste des 10 liens issus de Google Maps est bien à mettre au compte des résultats organiques. Google le précise clairement :
L'inclusion dans Google Maps et dans les résultats de recherche du site Google est gratuite. Si vous désirez ajouter votre entreprise à Google Maps, suivez les directives ci-dessous. Votre fiche s'affichera automatiquement dans les premiers résultats de recherche sur le site Google lorsque nos algorithmes la jugeront pertinente par rapport à la requête effectuée. Nous n'avons pas d'informations supplémentaires à vous communiquer au sujet du classement de votre fiche.
Donc je trouve arbitraire cette affirmation :
Google everywhere... et aucune place pour les autres si ce n'est un demi-résultat peu visible en bas d'écran, à peine au dessus de la "ligne de flottaison"... Bien sûr, on objectera - avec raison - que sur un écran plus grand, les résultats organiques (...) apparaissent.
et je m'étonne qu'Olivier Andrieu, fin référenceur, fasse naître une telle confusion dans l'esprit de son lectorat, en donnant à croire que ces 10 liens "Google Maps" ne seraient pas issus de l'index "organique".

D'autant que, personnellement, tels quels, je les trouve encore plus visibles que les liens sponsorisés.

Sans compter que la métaphore du triangle d'or invoquée par Olivier Andrieu comme seul "espace réellement visible", ne fonctionne pas dans le cas présent, comme l'ont démontré les études de ... Gord Hotchkiss, toujours lui :
L'attention de l'œil étant d'abord capturée par l'image (encore faut-il qu'elle remplisse le critère de la pertinence par rapport à la recherche de l'internaute), cela déplace le "centre de gravité" du point d'entrée, c'est-à-dire là où se pose le regard en premier, d'où il commence ensuite à balayer la page.
En fait, c'est très exactement ce qui se passe avec la carto de Google Maps de la capture ci-dessus, puisque l'œil, fortement attiré par l'image, va d'abord naturellement se poser sur les liens à droite de l'image (et qui plus est au centre de la page).

Donc que dire là encore, sinon que le critère de la pertinence par rapport à la recherche de l'internaute est ici pleinement rempli...

Dans le même billet il était d'ailleurs question des révolutions qui attendent la traditionnelle page de résultats, tant sur la forme que sur le fond :
  • sur la forme, avec une présentation des liens non plus linéraire mais intégrant, ou, pour mieux dire, amalgamant (blending) photos, vidéos, cartes géographiques, commentaires, etc. (côté pub on peut très bien envisager la présence de widgets interactifs en plus des habituels liens contextuels, d'autres formats riches...) ;
  • sur le fond, avec l'émergence de la recherche universelle (celle qui va puiser dans les différents index, ou inventaires), de la personnalisation (celle qui tient compte de vos préférences et de votre profil) et de la verticalisation (celle qui décide des thématiques auxquelles appliquer personnalisation et recherche universelle).
En fait, si je devais hiérarchiser, je dirais que c'est cette dernière qui passe en premier et subordonne les deux autres, avec par ordre d'importance :
  1. Verticalisation
  2. Personnalisation
  3. Recherche universelle
Or la personnalisation est fortement mise en avant par Google, Marissa Meyer le dit depuis un moment déjà et l'a encore répété au Web 08 :
  • search needs to be more dynamic and more personalised
  • talks about personalised search... usual caveat about being careful with users' data
  • "we don't know what will fuel personalised search, but we think it will be one of the traits of the successful search tools of the future"
  • "another part of personalisation is the social aspect"
Voilà pourquoi je trouve l'analyse d'Hotchkiss s'interrogeant sur Who Owns The Search Page? nettement plus propice à la réflexion (ne se demandait-il pas déjà l'année dernière, vu la façon dont les moteurs de recherche innovent, pourquoi les Web marketers n’en font-ils pas autant ?) : une réflexion que devraient mener tous ceux qui ont des services à vendre sur Internet, puisque de plus en plus ces trois composantes de la recherche - verticalisation, personnalisation et recherche universelle - offrent des alternatives aujourd'hui TRÈS largement sous-exploitées, en termes de présence optimisée :
  • par les images
  • par les vidéos
  • par les cartographies
  • par les médias sociaux
  • par les widgets
  • multiforme et multiformats (blogs, sites, pages de réseaux sociaux, sites de partages de favoris, de documents...)
  • par la publicité
Etc.

Donc en conclusion, la page de résultats est définie par les trois composantes qui la font :
  1. par les requêtes saisies,
  2. par l'imagination et l'inventivité de ceux qui décident de leurs stratégies de liens, de trafic, de référencement / positionnement, de mots clés, de pages clés, de noms de domaine, etc.,
  3. et par la pertinence des algorithmes...
Comme quoi il reste de la marge si on veut bien s'en donner la peine, et ce n'est pas encore réservé uniquement à ceux qui paient le plus ! Quant à savoir où va la recherche...


Partager sur Facebook

P.S. Réponse à TomHtml, qui me dit en commentaire :
Parmi les résultats de Google Maps (et par conséquent de sa onebox), il y a des pub "adwords", c'est à dire que des annonceurs paient pour que le marqueur positionnant leur entreprise apparaisse toujours sur la carte quand on fait une recherche à proximité.
C'est une minorité, mais elle existe... Donc Olivier a en partie raison puisque ces résultats ne sont pas tout à fait naturels.
Depuis le début, Google a toujours mis un point d'honneur, me semble-t-il, à ne jamais induire en erreur ses utilisateurs entre résultats naturels et sponsorisés, ces derniers étant toujours distingués de façon claire et sans équivoque par rapport aux premiers. Voilà pourquoi je dis que dans l'exemple choisi par Olivier Andrieu, les 10 liens issus de Google Maps sont des liens naturels qui compensent autant de liens sponsorisés.

Chose que je vais essayer de démontrer. Si le commentaire de Tom est une probabilité, il y aurait trois hypothèses. Nous aurions en effet, parmi les liens qui jouxtent la carte :
  1. soit 10 liens sponsorisés ;
  2. soit des liens sponsorisés mélangés à des liens naturels ;
  3. soit 10 liens naturels.
1. Dix liens sponsorisés

Non seulement la chose n'est signalée nulle part, mais en plus cela nous donnerait toute la partie de la page au-dessus de la ligne de flottaison, comme dit Olivier, truffée de liens sponsorisés, une vingtaine pour être précis. Inacceptable. Et même impossible. Si Google faisait ça, ce serait le déclin assuré de son utilisation par la masse des internautes. Et si Google voulait scier seul la branche sur laquelle il trône, il n'y aurait pas de meilleure solution !

2. Mix de liens sponsorisés + liens naturels

Idem. Inacceptable sans signaler la chose aux internautes. De plus, à ma connaissance, Google n'a jamais fait ça. J'ai testé la même requête directement dans Google Maps, et l'on voit bien dans la colonne latérale gauche, où s'affiche la liste des hôtels, que les liens commerciaux sont clairement mis en évidence en tête et en pied de colonne. Voir la capture :


On peut d'ailleurs constater que les marqueurs ne sont pas les mêmes entre liens naturels (tous identiques) et liens sponsorisés (personnalisés), différence qui se retrouve sur la carte :


Voilà pourquoi je pense que nous avons au final :

3. Dix liens naturels

Que l'on retrouve d'ailleurs mélangés dans les 20 liens naturels présentés directement sur Google Maps (avec un seul lien d'écart).

, , , , , , , , , , , , ,

mardi 7 octobre 2008

Internet : partage des revenus publicitaires

Internet : partage des revenus publicitaires

L'Interactive Advertising Bureau et PricewaterhouseCoopers (PwC) viennent de publier un rapport sur la pub Internet aux États-Unis pour les six premiers mois de 2008 : 11,5 milliards $ de revenus, soit +15,2% par rapport à la même période de l'année dernière.

Je me suis surtout intéressé au découpage des revenus publicitaires :


De 2007 à 2008, le segment qui connaît la plus forte hausse est la recherche (44%), suivie par les affichages (33%) (bannières, rich media, etc.), tandis que les annonces (14%), la génération de prospects (7%) et le mailing (2%) stagnent.

Voici la progression des différents segments sur le quinquennat 2004-2008 :


Les deux types de monétisation qui se taillent la part du lion sont le CPM et les modèles basés sur la performance :


Deux autres rapports sont également disponibles :
  1. les tendances des dépenses publicitaires cross-media en ligne (Nielsen)
  2. l'état de la vente au détail sur le Web américain (comScore)
Enfin, n'oublions pas un dernier segment que ce rapport ne mentionne pas, mais qui n'en est pas moins actif pour autant : le spam !

Selon Symantec, voici la répartition des secteurs les plus touchés :


Les 17 millions de sites parking et plus jouent d'ailleurs un rôle considérable dans la pollution du Web et le partage des revenus. Mais faute de disposer de statistiques fiables, nous nous contenterons d'imaginer...


Partager sur Facebook

, , , , , , , ,

mercredi 10 septembre 2008

Moteurs de recherche alternatifs : 2% du marché !

Moteurs de recherche alternatifs : 2% du marché !

Alt Search Engines, un excellent site sur les moteurs alternatifs à GYM, nous propose les dernières stats d'Hitwise sur les parts de marché des moteurs aux États-Unis :


La conclusion est sans appel : sur un an (août 2007 - août 2008), les parts de marché des moteurs alternatifs ont chuté de 3,13% à 1,96%.

Le billet conclut ainsi : Commentaires ? Idées ? Solutions ?

Commentaires

Ce qu'attendent les internautes d'un moteur, essentiellement, c'est la pertinence. Or la pertinence s'obtient autant sur le qualitatif que sur le quantitatif. Impossible de remonter des résultats pertinents si l'on a l'un sans l'autre.

Le qualitatif, c'est la précision de l'algorithme.
Le quantitatif, c'est l'exhaustivité de l'index.


Comme je le disais déjà lors d'une précédente comparaison de l'index des moteurs de Google, Yahoo et Microsoft, il convient de préciser :
L'augmentation de la taille de l'index n'est pas forcément corrélée à l'augmentation de la pertinence, celle-ci ne dépendant pas uniquement de la couverture, mais il est clairement impossible de retourner le résultat pertinent tant que la ressource correspondante n'est pas indexée.

[C'est la composante quantitative]

A contrario, un moteur peut très bien avoir le site pertinent dans son inventaire et rester silencieux, c'est-à-dire ne pas sortir le résultat. En fait, pour un moteur, il est encore pire d'avoir un site dans son index sans comprendre que, pour une requête donnée, le site pertinent, c'est justement celui-là !


[C'est la composante qualitative.]
Or aujourd'hui, Google est LE moteur qui a trouvé le meilleur mix entre ces deux composantes. Exemple : Cuil a la première sans avoir la seconde, tandis qu'Exalead a parfois la seconde sans avoir la première. Ils y travaillent, mais c'est probablement le lot des outils de recherche alternatifs que de pouvoir difficilement réunir les deux dans une proportion satisfaisante.

Or dans les deux cas, le résultat est le même : on n'a qu'une pertinence quali-quantitative partielle, et donc, autant dire qu'on n'a plus de pertinence du tout.

Idées

À court-moyen terme, je ne vois aucun moteur capable de renverser la suprématie de Google. Je ne crois pas que les gens aiment Google en soi, mais juste parce que c'est le moteur qui leur fournit les meilleurs résultats. Si demain une société sort un meilleur moteur, il y aura un déplacement massif des internautes vers ce nouvel acteur. Si...

Car c'est plus facile à dire qu'à faire, et concrètement, non seulement personne n'y arrive, mais en plus Google continue de gagner des parts de marché. Pourquoi ?

Ma seule réponse : parce qu'il est plus pertinent que les autres. C'est tout.

Donc la question n'est plus de savoir qui détrônera Google sur son terrain - personne - (tout au moins à un horizon temporel prévisible), mais quand y aura-t-il rupture avec l'existant : rupture culturelle, rupture technologique, rupture des usages, etc.

Et comme je le commente sur le blog d'Olivier Andrieu, je ne vois encore nulle trace de cette rupture à venir, car les esprits ne sont pas prêts, le Web est trop jeune et va trop vite compte tenu de nos simples capacités physiologiques.

Solutions

Il est clair de ce qui précède que je ne vois aucune solution généralisable. Par contre il y a certainement des solutions individuelles pour chercher sans Google. Mais ce sont des solutions que chacun/e doit personnaliser à sa mesure, et ce qui vaut pour moi ne vaut plus pour le voisin.

À chacun/e son cocktail, avec des dosages qui dépendent de nos propres capacités à appréhender le Web. Deux exemples :

1. Szarah :
Mes recherches, je les fais avec un métamoteur, je n'ai jamais cherché à savoir combien de Google il y avait dedans.
J'utilise IE et FF, XP et Ubuntu, ça dépend de la machine que j'utilise.
Je ne crois avoir de "préférences" pour personne mais j'ai de la reconnaissance pour tous.
Pour Apple et son interface, pour Microsoft en ceci qu'il a permis une informatique "à la Apple" mais dans mes moyens, pour FF qui est venu contrer MS devenu hégémoniaque, pour Linux pour le même motif.

Et il se trouve que je n'ai pas besoin de Google.
Ni de près ni de loin.
Il ne me sert à rien (sauf comme sujet d'étude mais c'est une activité de loisirs).
Une position qui ne me convainc qu'à moitié, car dans tout métamoteur, la part de Google est prépondérante. Donc la pertinence des résultats retournés par le métamoteur dépend étroitement de Google. Enlevez Google des métamoteurs et, vous savez quoi : vous reviendrez à Google ! Tout au moins si vous vous souciez d'obtenir des résultats pertinents.

2. Narvic se forge ses propres outils de recherche d'informations, et compte sur des stratégies de recherche sociales pour faire mieux que Google.

Personnellement, je partage plutôt l'opinion de Chris Sherman sur la recherche sociale, mais je conçois aisément que d'autres préfèrent une telle approche.

Ceci dit, hors de ces approches personnalisées (y compris via Google CSE), je ne vois à court terme aucune possibilité réaliste de détrôner Google.

En tout cas, ce n'est certes pas Quaero qui apportera des solutions...


Partager sur Facebook

, , , , , ,

lundi 19 mai 2008

La recherche selon Google


Marissa Meyer (extrait) :
Par recherche nous entendons les images, les actus, la finance, les livres, les infos locales et géographiques autant que la recherche sur le Web. Ces types de médias font toujours plus partie intégrante de notre recherche universelle, chacun étant porteur de ses propres défis, innovations et réussites. R.J. Pittman, Directeur des Produits Recherche, m'a montré aujourd'hui certaines des prodigieuses avancées que nous avons accomplies dans la recherche d'images (nous pouvons dès à présent offrir une forme grossière de reconnaissance des visages, par exemple), de même que la façon dont les pubs peuvent améliorer l'expérience utilisateur dans ce secteur de recherche. Il m'a également fait la démonstration de technologies innovantes déployées par Google News pour proposer des citations de personnages qui font l'actu, ainsi qu'une meilleure qualité de la recherche dans les infos locales.

Carter Maslan, Directeur Qualité pour la Recherche locale, a illustré la manière dont nos produits Géographiques (Maps, Earth et les différentes fonctionnalités associées) représentent un problème considérable en termes de recherche : comment collecter toute l'information du monde physique et la rendre cherchable ? Comment étiqueter les frontières contestées ? Comment le service Street View pourra-t-il vous aider à vous rendre où vous voulez ? Google Earth a déjà aidé des archéologues à trouver ce qu'ils cherchaient depuis des années (cf. une villa romaine sur le terrain d'un particulier). Le contenu généré par l'utilisateur est actuellement très en vogue, mais ce n'est pas seulement sympa de partager ses vidéos et ses photos, les produits géographiques sont également très utiles pour nous aider à mieux comprendre le monde qui nous entoure.

Maintenant, pour en revenir à notre cœur de métier, la pertinence de la recherche, Johanna Wright, Directeur Qualité Recherche, nous met au courant des dernières mises à jour. Cela m'a permis de découvrir le formidable niveau de sophistication qu'atteint aujourd'hui la recherche sur le Web, et les progrès accomplis en peu de temps, notamment au niveau de la recherche universelle, qui nous a conduit cette année à modifier la page de résultats tant sur la forme que sur les fonctionnalités. À présent notre équipe qualité recherche se penche sur les toujours très insaisissables "intentions de l'utilisateur" ("voici ma requête, voici ce que je veux dire"). Cela nous permettra de rendre toujours plus utile la recherche universelle : vous obtiendrez des photos ou des cartographies lorsque ce sera ce que vous attendez. Une meilleure compréhension des intentions de l'utilisateur nous aidera également à surmonter les barrières linguistiques en trouvant la meilleure réponse possible indépendamment de la langue utilisée et de là où elle se trouve sur le Web.
Nous voilà prévenus ! À noter en outre que la recherche universelle est déjà localisée dans 150 pays et se décline dans une centaine de langues !

Le reste du message concerne Google Health. Google informe aussi aujourd'hui qu'il ouvre son inventaire aux annonceurs tiers (en français)...


Partager sur Facebook

, , , , , ,

lundi 10 décembre 2007

Effet de levier des marques sur les recherches

Effet de levier des marques sur les recherches

Dans une étude commissionnée par Google, intitulée The Brand Lift of Search :


Enquiro Research, grâce à sa fameuse technique d'oculométrie (eye-tracking, qui consiste à capturer les mouvements de l'œil face à l'écran), dégage trois conclusions :
  1. Investir dans la publicité de marque augmente les performances de vos résultats sur les moteurs de recherche (Your investment in brand advertising increases with search)
  2. Annoncez sur les mots clés non connotés marque et connotés marque (Advertise on unbranded and branded keywords)
  3. Personnalisez et ciblez vos pubs en fonction des prospects qui n'ont aucune affinité établie avec la marque (Tailor your ad to prospects, those with no established brand affinity)

Autre chose qui m'a frappé : il est important de "fixer" la marque dès l'URL et dans le titre du résultat (plutôt que dans sa description, et, dans celle-ci, dès les premiers mots). Car dans la traçabilité du regard, on voit bien que l'œil se pose davantage sur la marque dans l'URL !


Cela explique pourquoi on a une augmentation de 16% de la sensibilisation à la marque si celle-ci est présente dans la publicité sponsorisée placée en haut des résultats, avec une progression de 8% sur les intentions d'achat vs. une réduction de 16% lorsque la marque n'apparaît pas dans les résultats.

Et même lorsque la marque est explicitement mentionnée dans la requête de l'internaute, sa présence dans la pub sponsorisée booste de 7% la propension à l'achat !


D'où la leçon essentielle que tire l'étude : Annoncez sur des mots clés connotés marque !

Un enseignement dont Google sera satisfait puisque, traduit en clair, ça veut dire "investissez davantage dans les AdWords (et enchérissez ;-)".

Ce que vous confirmera tout bon référenceur : le positionnement contextuel dans les moteurs dépend toujours du binôme liens sponsorisés + liens organiques. Juste une autre manière de pousser un peu le marketing viral...


Partager sur Facebook

, , , , , , , ,

lundi 26 novembre 2007

Powerset : recherche en langage naturel et Web sémantique

Powerset : recherche en langage naturel et Web sémantique

Je dédie ce billet à mon père, Bernard Le Ray, parti pour un monde meilleur il y a 35 ans aujourd'hui.

Est-ce l'avenir de la recherche sur le Web ? Est-ce que ce sera une alternative de poids à Google ?

Voilà plus d'un an que le lancement de l'outil était annoncé pour fin 2007, or nous y sommes. Mais apparemment Powerset n'est encore qu'en phase de pré-lancement.


La semaine dernière, son fondateur, Barney Pell, a donné une conférence intitulée : POWERSET - Natural Language and the Semantic Web


accompagnée d'une présentation fort intéressante, où il nous explique plusieurs des notions sous-jacentes à la vision ambitieuse de Powerset. Que l'on peut résumer comme suit : grâce à la recherche en langage naturel,

- interpréter le Web
- l'indexer
- interpréter la requête
- chercher
- trouver



Et pour trouver, on va puiser dans différentes sources intégrées :


Exemple : sites Web, flux, blogs, archives, métadonnées, vidéos, podcasts, bases de données, etc.

Entre parenthèses, ça me rappelle furieusement la recherche universelle selon Google et les évolutions prévues pour les moteurs de recherche en 2010...

Donc quelle serait la différence entre Google et Powerset ? La réponse est dans le titre de l'intervention de Barney Pell : langage naturel et Web sémantique.

Alors en quoi le TAL (Traitement Automatique des Langues), ou TALN (Traitement Automatique du Langage Naturel, ou Traitement Automatique des Langues Naturelles) (voir commentaires) peut-il aider à l'exploitation du Web sémantique ?

Déjà, le postulat de Pell est qu'à l'heure actuelle le Web sémantique ne réussit pas à exprimer tout son potentiel car, entre autres, les ressources et les langages dédiés sont chers à créer, d’où un manque d’applications viables, d’où la difficulté de monter en puissance et de fédérer une masse critique de développeurs et … d’utilisateurs, etc.

Par conséquent le langage naturel peut - et doit - permettre de réduire les efforts de développement, en créant des annotations à partir de textes non structurés d'une part, et en générant des ontologies de l'autre.

L'idée est de rendre les documents plus intelligents :

1) par la proximité sémantique et conceptuelle, pour passer d'un document simple contenant de mots clés, à un document vecteur de mots clés (shift from “doc as bag-of-keywords” to “doc as vector-of-keywords”),

2) par l'adjonction "hors page" de textes d'ancrage à un document donné (Adding off-page text to doc), et

3) en explorant la structure linguistique de chaque document, qui contient codifiées, selon Pell, les intentions des documents.

Puis l'indexeur sémantique "cracks the code" de la structure linguistique pour en extraire le sens, après quoi un TALN profond est appliqué à l'ensemble du corpus pour bâtir une représentation riche (ontologies).

Le nœud central de la recherche en langue naturelle étant de dégager un appariement des représentations intentions : les intentions des requêtes d’un côté, les intentions des documents de l’autre.

L'appariement qui en sort (match) est le résultat.

Cette notion d'appariement est fort bien illustrée dans ce document de 2002, signé Sylvie Dalbin :


Or s'il est vrai que certains considèrent le Web comme une gigantesque base de données où rechercher les intentions, attention cependant à ne pas faire de Powerset un moteur de divination plus ou moins farfelu.

Nous avons déjà un moteur d'intentions, dont les concepteurs nous expliquent très clairement où se situent, selon eux, les différences entre tags et intentions (via Olivier) :
Otavo’s core concept is to organize your information on intentions (we call quests) instead of tags. Tags are used as a secondary organizer.

What’s the difference between Tags and Intentions?

Tags are categories. As categories, a tag does not store HOW or WHY you would use the information tagged, just where it belongs in the grand scheme of things.

Intentions store HOW and WHY you want to use the information.
Que je traduirais ainsi :
L'idée centrale d'Otavo consiste à organiser vos informations autour des intentions (que nous appelons requêtes) plutôt qu'autour des mots clés. Les mots clés sont utilisés comme des unités secondaires d'organisation.

Donc quelles sont les différences entre les mots clés et les intentions ?

Les mots clés sont des catégories, et, en tant que tels, ils ne vous indiquent ni COMMENT ni POURQUOI vous souhaitez utiliser l'information qu'ils étiquettent, mais juste à quelle catégorie elle appartient dans le grand ordonnancement des choses.

Par contre les intentions sont porteuses du POURQUOI et du COMMENT vous souhaitez utiliser l'information.
Vous le voyez, je traduis "tags" par "mots clés", car les mots clés sont au centre de la reformulation des requêtes, en cartes mentales pour les utilisateurs, en ontologies pour les moteurs.

Voir ici pour mieux comprendre ce à quoi je me réfère.


Donc apparier les intentions entre celles contenues dans des milliards de documents fichiers sur Internet et celles des milliards de requêtes des internautes, qui plus est multilingues, c'est pas gagné. Et dire de Powerset que c'est le Google killer, comme on le voit un peu partout, me semble largement prématuré. Même s'il est clair que l'avenir est au Web sémantique, tout au moins en partie.


Scott Prevost, responsable produits chez Powerset, confiait en juillet a Francis Pisani « qu’une fois leur système au point pour l’anglais (...) il leur suffirait du travail d’une seule personne pendant deux ans (...) pour mettre au point la technologie dans une autre langue. »

Je veux bien le croire, mais bon courage. Car vu la complexité des langues, bonjour la tâche ! Et attention aux accents...

Liens connexes qui prévisualisent certaines fonctionnalités de Powerset :

Partager sur Facebook

, , , , , , , , , ,