jeudi 4 mai 2006

Indice de popularité : quel est votre score ?

Les enjeux d’une stratégie de liens

Chapitre IV

Les trois étapes de la mise en œuvre d'une stratégie de liens : Première étape


Avertissement : ce billet continue la série Stratégie de liens, qui est la traduction française du rapport « Linking Matters ». Pour ceux qui préfèrent, voir le chapitre original ; à noter qu'il peut y avoir quelques différences entre la version anglaise HTML, légèrement réaménagée par son auteur pour la mise en ligne, et la présente version française, qui traduit l'intégralité du rapport au format PDF.

IV. Indice de popularité : quel est votre score ?


Chronologie d’une stratégie de liens
Exercez-vous

1. Liens qui pointent aujourd’hui vers votre site
2. Liens qui pointent vers les sites de vos concurrents

Comment évaluer la qualité des liens ?
Quelle note donneriez-vous à chacun de ces trois liens ?
Tableau d'évaluation des liens ?

Pour mettre en œuvre une stratégie de liens, le temps à investir et les efforts à déployer dépendent des objectifs que vous vous êtes fixés. Vous pouvez décider de n’y consacrer que quelques jours, quelques semaines ou quelques mois, mais indépendamment du temps que vous aurez prévu d’y passer, les étapes à suivre seront toujours les mêmes. Seul change le niveau de détail. Voici donc un tableau du processus et des ressources à mobiliser :

Image © www.linkingmatters.com - 2003
Chronologie d’une stratégie de liens

Comme dans tout projet, une approche méthodique fournira de bien meilleurs résultats. Voici donc la séquence des étapes à suivre pour construire une stratégie de liens optimale.

Première étape de la mise en œuvre d'une stratégie de liens :
1. Liens qui pointent aujourd’hui vers votre site
2. Liens qui pointent vers les sites de vos concurrents

Deuxième étape de la mise en œuvre d'une stratégie de liens :
3. Autres sites susceptibles d’échanger des liens avec le vôtre
4. Raisons pour lesquelles des sites externes voudraient pointer vers vous
5. Objectifs de votre stratégie de liens
6. Convivialité de la procédure d’échange de liens sur votre site

Troisième étape de la mise en œuvre d'une stratégie de liens :
7. Liens que vous pourriez publier sur votre site
8. Demandes de liens entrants
9. Suivi des résultats

Supervision et ajustement de votre stratégie
Supervisez constamment les résultats de votre action et ajustez votre stratégie au fur et à mesure de vos expériences [Début]

Exercez-vous

Nous avons réuni en un fascicule dix exercices pour vous aider à planifier votre stratégie de liens et à la mettre en œuvre. Vous pouvez télécharger directement le document au format Word.

Comme meilleure façon de procéder, nous vous conseillons de lire rapidement l’ensemble du fascicule puis de passer le temps nécessaire sur chaque exercice en respectant la séquence des étapes.

[ Note à la traduction : outre visiter l’un des nombreux moteurs qui permettent de vérifier les indices de popularité, vu que le document original propose d'utiliser Google, Altavista, Hotbot, alors qu'Altavista n'existe plus, qu'Hotbot n'est plus représentatif et que, comme signalé dans un précédent billet, la syntaxe « link:www.monsite.com » de Google n'est pas significative, j'ai sauté l'explication sur ces trois moteurs.] [Début]

1. Liens qui pointent aujourd’hui vers votre site

Visitez un site comme www.linkpopularity.com, vous pourrez y tester plusieurs moteurs de recherche à la fois (essentiellement Google, Yahoo et MSN). Enregistrez-vous si vous souhaitez recevoir des mises à jour mensuelles.

Contrôlez ensuite les différents résultats en visitant chacun des sites qui pointent vers vous. Quelle est la nature de ces sites ? Pourquoi font-il pointer un lien vers le vôtre ? Quels sont les autres liens qu’ils proposent ?

Ainsi, l’étude de ces différents sites vous permettra de mieux comprendre le pourquoi du comment, et d’intégrer ensuite cette compréhension dans votre propre stratégie de liens. [Début]

2. Liens qui pointent vers les sites de vos concurrents

Analysez maintenant la situation concernant vos concurrents. Une bonne façon de procéder est d’utiliser un excellent logiciel gratuit, téléchargeable sur www.checkyourlinkpopularity.com. Installez-le puis saisissez votre URL et les adresses Web de vos concurrents, vous obtiendrez le tableau suivant :

www.Adscriptor.com : 1501 liens !
Les couleurs vous permettent de visualiser immédiatement l'importance de votre présence, de limitée à exceptionnelle :

Limited Presence - Major Player
Et qu’apprendrez-vous en étudiant la concurrence ? Beaucoup !
  1. Tout d’abord vous pourrez quantifier le nombre de sites qui pointent vers eux, et apprécier la qualité des liens, dont vous pourrez vous faire une idée de la valeur en termes d’e-marketing. Puis, en partant de l’indice de popularité de vos concurrents, il vous sera facile d’établir un tableau comparatif sur la base duquel mesurer votre propre évolution / amélioration.
  2. En second lieu, vous pourrez dresser une liste des sites cibles qui pointent vers vos concurrents, susceptibles de devenir pour votre propre site une bonne source de liens entrants potentiels.
  3. Troisièmement vous aurez une vision élargie des sites externes qui jouent un rôle important dans votre secteur d’activité. En testant l’indice de popularité des principaux sites parmi ceux qui ont des liens avec vos concurrents, vous pourrez repérer de nouveaux partenaires potentiels.
Vous pouvez enfin utiliser un logiciel pour vérifier l’état des liens de chacun de vos concurrents sur les différents moteurs de recherche. Il suffit de sélectionner un domaine, de cliquer avec le bouton droit de la souris et de choisir le moteur que vous voulez. Vous verrez alors apparaître une liste des liens entrants.

Naturellement, la qualité des liens que vous trouverez sera plus ou moins bonne. [Début]

Comment évaluer la qualité des liens ?

Rien de tel qu’un exemple pour illustrer notre propos :

[ Note à la traduction : naturellement, l’exemple qui suit est caduc, mais je le laisse tel quel car le fonctionnement reste le même. Lien à suivre pour voir l'illustration graphique originale.]

Supposez que vous êtes propriétaire d’un petit hôtel de luxe au cœur de Londres. Vous avez dressé une liste de vos concurrents directs en ligne et vous décidez de tester leur indice de popularité.

« One Aldwych » est l’un des hôtels qui offre des services similaires aux vôtres.

Donc, soit vous utilisez un logiciel gratuit pour vérifier la situation de chacun de vos concurrents, soit vous allez sur un site tel que www.linkpopularity.com. Si vous optez pour cette dernière solution, vous voyez que l’indice de popularité de votre concurrent est de 23 sur AltaVista, de 74 sur Google et de 15 sur Hotbot.

Puis, en activant les liens, vous voyez apparaître l’adresse des sites qui pointent vers onealdwych.com.

Examinons maintenant la valeur qualitative des liens affichés dans Google. Prenons le premier : Wealth24.com se décrit comme étant « le seul et unique répertoire sur le Web dédié au shopping de luxe et à la gestion de fortune ». Ce site propose donc de nombreux liens ne pointant pas uniquement vers des hôtels, mais également vers d’autres fournisseurs de biens et de services de luxe.

En déroulant la liste, vous trouvez ensuite ntlworld.com : il s’agit d’un profil très « people » d’un auteur et présentateur TV célèbre, Alan Titchmarsh. En parcourant l’article, vous découvrez alors qu’il énumère parmi ses lieux de gastronomie préféré le restaurant Indigo, qui se trouve à Onealdwych.

Voyons maintenant un troisième lien. Travelintelligence.net Celui-ci s’annonce très intéressant, puisqu’il liste plus de 70 écrivains touristes qui prodiguent leurs conseils à tous les voyageurs friands d’informations. En jetant un coup d’œil sur la page d’accueil, vous lirez des commentaires tels que celui-ci :

« Présentation d’articles écrits par des touristes extrêmement bien informés qui vous feront découvrir tous les bons coins. Un site incomparable constamment remis à jour, qui fait de l’organisation et de l’accomplissement de vos voyages une aventure riche en surprises. » The Telegraph [Début]

Quelle note donneriez-vous à chacun de ces trois liens ?

Une façon d’y parvenir est de noter chacun des sites d’après son indice de popularité. Toutefois, le plus important est de les examiner vous-même, en visitant un par un ceux qui vous semblent plus intéressants.
  • Wealth24.com propose beaucoup de liens vers des fournisseurs de services de luxe, qui englobent aussi les hôtels. On peut donc supposer qu’il serait assez facile d’y placer un lien, même s’il est probable qu’il générera peu de trafic.
  • Ntlworld.com n’a pas grand chose à voir avec les hôtels, le lien n’apparaissant que dans le cadre d’une interview accordée par un personnage en vue. Y mettre un lien ne présente aucun intérêt !
  • Travelintelligence.net, en revanche, est un magazine en ligne qui vise comme audience cible le monde du voyage. Donc, pour peu qu’il ait un trafic qualifié, un lien pointant de ce site vers le vôtre serait de tout premier choix ! Même s’il vous faudra vraisemblablement consentir des efforts supplémentaires pour obtenir d’abord un meilleur placement dans les moteurs des recherche. [Début]

Vous obtenez donc un tableau tel que celui-ci :


Progrès réalisés

À la fin de cette étape, vous avez terminé les deux premiers exercices. Vous devriez donc avoir mieux appréhendé la nature des liens pointant vers votre site et vers ceux de vos concurrents. [Début]

À venir : V. Maximisez votre capital Liens.


Partager sur Facebook

P.S. À noter également dans l'actualité de ces jours-ci, ce billet complémentaire de WebRankInfo intitulé : « Comment bien choisir sur quelle page un partenaire doit vous faire un lien » [Début]

, , , , ,

Google vs. Microsoft : la bataille de titans ne fait que commencer

Google vs. Microsoft : la bataille de titans ne fait que commencer

Dans cette bataille pour la suprématie sur Internet et pour contrôler l'information et la communication planétaires, les deux hypercompétiteurs fourbissent leurs armes, même si l'affrontement se fera moins sur les moyens que sur les fins.

Les moyens, au niveau logiciel et matériel :

- pour Google, développement d'une suite bureautique en ligne, commercialisation d'un PC bon marché et incursion dans la téléphonie, etc. etc. Verra-t-on enfin arriver le fameux WebTop, annoncé en son temps par Franck Poisson dans le cadre d'une approche IUI, ou « Interface Utilisateur d'Information » ?

- pour Microsoft, fermes de serveurs et 2 milliards de dollars débloqués pour investir tous azimuts, mais ce n'est qu'un début...

Les fins, au niveau du contenu et de l'audience :

- pour Google, qui jouit d'une avance considérable, continuité d'une stratégie déjà bien tracée et poursuite de la verticalisation annoncée (prochain volet probable : la santé) ; de nouvelles alliances sont également envisageables (Google - Skype ?)

- pour Microsoft :
Il est 3h du matin, je développerai une autre fois. Lire le communiqué de presse : « MSN Announces MSN Originals Content Initiative »

C'est tout nouveau, ça vient de sortir, mais je crois qu'on n'a pas fini d'en entendre parler... Extraits :
MSN Originals is focused on partnering with the best and brightest creative minds in the media industry to bring the new generation of storytelling online. (...)
By partnering with the media industry to produce original content, MSN is creating rich new opportunities for advertisers to integrate into and around the content itself. In addition to traditional display and streaming video advertising opportunities, advertisers can take advantage of in-content product integration, as well as be deeply involved in the early stages of content creation and production. (...)
MSN attracts more than 465 million unique users worldwide per month. With localized versions available globally in 42 markets and 21 languages, MSN is a world leader in delivering compelling programmed content experiences to consumers and online advertising opportunities to businesses worldwide.
[Traduction]
L'objectif de MSN Originals est de nouer des partenariats avec les meilleurs créateurs et les plus brillants esprits de l'industrie des médias, pour faire éclore une nouvelle génération de scénaristes en ligne. (...)
Grâce à ces nouveaux partenaires médias et à la production de contenus originaux, MSN sera en mesure de créer pour les publicitaires et les annonceurs des opportunités nouvelles et fructueuses, parfaitement intégrables à ces mêmes contenus. Outre la pub traditionnelle et la vidéo en temps réel sur Internet, les annonceurs pourront intégrer directement leurs produits/services au contenu, puisque dès le départ ils seront plus profondément impliqués dans les phases de création et de production. (...)
Partout dans le monde, MSN touche plus de 465 millions de visiteurs uniques chaque mois. Avec ses versions localisées globalement disponibles sur 42 marchés et dans 21 langues, MSN est l'un des leaders planétaires, capable d'offrir à sa clientèle B2C une expérience utilisateur unique et à sa clientèle B2B des atouts publicitaires en ligne incomparables.
En bref, ce qu'on appelle le publirédactionnel dans la presse (ou publireportage ou comme on voudra bien le nommer), revisité à la mode d'Internet. Une affaire de plus à suivre !

Enfin, des deux côtés, élargissement des activités à tous les secteurs des NTIC, en s'appuyant sur la R&D et la débauche/l'embauche des meilleurs spécialistes dans tous les domaines qui les intéressent.

Voilà, en quelques lignes, l'idée que je me fais de l'hypercompétition à laquelle nous allons assister, en bons spectateurs impuissants que nous sommes !

« This is hypercompetition, make no mistake », dixit Bill Gates, qui pense que Microsoft est largement sous-estimé, vis-à-vis de Google (« I think this is a rare case where we're being underestimated »), tout en reconnaissant que ses marges sont quelque peu rognées : « Margins get Googled », ce qui est une façon originale de l'admettre...


Partager sur Facebook

, , , , , ,

mercredi 3 mai 2006

Linkbait & linkbaiting en verlan : v7ndotcom elursrebmem

Linkbait & linkbaiting en verlan : v7ndotcom elursrebmem

Préambule
v7ndotcom elursrebmem
Les concours de positionnement
Les français font de la résistance
Conclusion

* * *

Préambule

Dans un précédent billet intitulé Linkbait & linkbaiting : une tentative de traduction, où j'essayais de définir le concept en français, j'énumérais les 5 principaux modes d'aller à la pêche aux liens. Je les rappelle pour mémoire :
  1. mode amusant, ou funny : jouer sur le pouvoir d'attraction du divertissement ou de l'humour
  2. mode polémique, ou controversial, contrary hooks, attack hooks : les sujets qui fâchent exercent forcément de l'attrait auprès de ceux qui se sentent concernés par le sujet, en pour ou en contre
  3. mode informationnel, ou informative, news hooks : informer, apprendre, serrer l'actualité au plus près, dénicher le scoop, etc.
  4. mode créatif, ou creative : mettre en ligne la nouveauté, inventer un concours, mettre un prix en jeu en payant de sa poche, etc.
  5. mode utile, ou resource hooks : offrir un outil innovant, proposer des liens qui sortent de l'ordinaire, etc. [Début]

* * *

v7ndotcom elursrebmem

Dans ce billet, je voudrais vous présenter le champion toutes catégories du linkbait créatif, qui nous fait le coup en verlan, cette fois, j'ai nommé John Scott, organisateur du v7ndotcom elursrebmem SEO Contest, concours de positionnement dans les pages de résultats de Google sur les mots clés « v7ndotcom elursrebmem », mi-imprononçables mi-reconnaissables, si on comprend l'anglais :
décortiqué, v7ndotcom elursrebmem donne v7ndotcom, qui fait partie de la grande familles des dot-coms, forme orale de v7n.com, le réseau de John Scott, et elursrebmem, l'envers (ou backwards) de members' rule, littéralement le règlement (rule) des membres (members).
Certes, ce n'est pas du pur verlan (à ne confondre ni avec le palindrome ni avec l'anacyclique), mais simplement le mot écrit à l'envers en inversant les lettres au lieu des syllabes.

En bref, le règlement que doivent suivre les participants au concours « v7ndotcom elursrebmem » est des plus simples :
  • soit faire un lien vers la page d'accueil de V7N
  • soit se contenter d'inscrire « We support v7n.com » sans mettre de lien
  • soit afficher une des bannières suivantes, avec ou sans lien (mais en aucun cas avec un lien pointant vers un autre site que www.v7n.com) :

  • v7ndotcom elursrebmem SEO Contest
  • finir classé dans les 5 premiers sur Google avec la requête « v7ndotcom elursrebmem » le 15 mai à midi, heure standard du Pacifique (PST)
Simple, mais efficace, si l'on en croit le nombre de rétroliens décomptés par Yahoo et MSN (le résultat de Google avec la syntaxe link:www.v7n.com est sans intérêt puisque Google n'affiche jamais le nombre exact de rétroliens qu'il comptabilise et utilise dans le calcul du PageRank) :

backlinks to www.v7n.com
Par conséquent, si l'on considère le nombre de participants au concours d'optimisation du positionnement (SEO contest), et le nombre actuel de résultats que Google donne sur la requête v7ndotcom elursrebmem (environ 4 720 000 occurrences), les chiffres de l'indice de popularité sont probablement très en-deçà de la vérité.
Or en sachant que John Scott déboursera moins de 2000 $ de sa poche pour récompenser les gagnants (les autres primes étant réparties entre plusieurs contributeurs), il est clair que le grand gagnant et vainqueur absolu du concours, c'est..., and the winner is... John Scott en personne !
Même l'iPod promis au premier, c'est pas lui qui le paie, donc il a de quoi être content !

iPod du gagnant du concours v7ndotcom elursrebmem
[Début]
* * *

Les concours de positionnement

v7ndotcom elursrebmem n'est pas le premier concours de positionnement, loin de là, on a déjà connu Tiger l'Osmose, Chocoku, Mangeur de cigogne, Séraphim Proudleduck, qui a fait récemment part de son intention de se présenter aux présidentielles 2007 avec son ami, Sorcier glouton, sans oublier Lumitra, Paesys ..., etc. Voici un petit résumé :

Concours de positionnement - SEO Contests
Ce genre de concours oppose aux adversaires farouches (c'est tout sauf des concours de référencement, ça n'apporte pas grand chose à la façon de référencer naturellement un site, ça pollue les résultats de moteurs de termes sans queue ni tête, etc.) des partisans acharnés (ça permet d'étudier le comportement des moteurs, leurs failles et la façon de les exploiter, de mieux comprendre les techniques de référencement, etc.), mais l'un chasse l'autre : v7ndotcom elursrebmem n'est pas encore terminé qu'arrivent déjà Spationaute Troglodyte et Oupoutaout 2006 (sur la requête cobraoupouaout, qui n'est pas encore référencée dans Google).

cobraoupouaout - 0 résultat !
En réalité, qu'on soit pour ou contre, il faut bien reconnaître que c'est un moyen pour les référenceurs pro ou amateurs, black hats ou white hats, de rivaliser d'ingéniosité et de déployer des trésors de savoir-faire et de fantaisie. Et si les anglo-saxons sont très forts, comme toujours, les français font comme Astérix et Obélix : ils résistent fièrement à l'envahisseur ! [Début]

* * *

Les français font de la résistance

Sus au v7ndotcom elursrebmem !
Rassemblés et guidés par la fameuse Taggle Team, un nom bien de chez nous ;-), tous marchent derrière l'étendard que brandit une marseillaise pour partir à l'assaut de ... Google. Et s'il reste des volontaires, vous pouvez toujours vous engager, le recrutement est encore possible :

Engagez-vous au v7ndotcom elursrebmem
[Début]
* * *

Conclusion

Plaisanterie mise à part, le linkbait, ou l'art d'appâter si l'on préfère, peut contribuer à positionner un site dans les moteurs s'il est utilisé à bon escient, et avec ce billet j'ai voulu tenter une expérience : il manque 12 jours aux résultats, avant aujourd'hui je n'ai jamais rien écrit sur v7ndotcom elursrebmem, je n'avais aucun lien vers v7n.com ni n'étais référencé dans Google sur la requête v7ndotcom elursrebmem, donc il sera intéressant de voir si cette seule et unique tentative suffit à classer Adscriptor dans les résultats avec ces mots clés, et si oui, dans quelle position... [Début]


P.S. Aux dernières nouvelles, on vient de me signaler qu'un portrait robot de la Taggle Team a été diffusé sur le Web :

Taggle Team - v7ndotcom elursrebmem SEO Contest
Inutile de chercher à me reconnaître, je n'y suis pas, moi je suis dessous, quand on a une tête comme ça, pourquoi se cacher ? :-)

je m'appelle v7ndotcom elursrebmem, et j'en suis fier !
Quoi ma gueule ! Mais qu'est-ce qu'elle a ma gueule ? [Début]

Tags : , , , , , ,

mardi 2 mai 2006

L'asymétrie de crédibilité dans l'information

Le sérieux et la qualité sont-ils des critères de crédibilité ? Je pose la question. Et esquisse une réponse : en théorie, oui. Dans la pratique et dans l’absolu, NON ! Démonstration empirique.

Récapitulatif des faits
Du cas particulier au cas général
1. Qu'est-ce que la crédibilité ?
2. Quand y a-t-il asymétrie de la crédibilité ?
Réplique à Jean de Chambure, Directeur Médias de l'Atelier

* * *

Récapitulatif des faits

La semaine dernière, j'expliquais dans le détail une histoire de plagiat manifeste commis par l'Atelier, qui se résume en deux images. L'info sortie par Silicon le 26 juillet 2004 :


L'actu publiée par l'Atelier le 27 avril 2006, près de deux ans plus tard :


Les parties en jaune sont entièrement pompées. Suite à la publication de mon billet, le 28 avril j'ai envoyé deux courriels pour demander des explications - le matin à Jean-Michel Billaut pour l'Atelier, et dans l'après-midi à la rédaction de Silicon -, dont voici la teneur :
Bonjour Monsieur Billaut,
Je me permets de vous adresser ce courriel après avoir vu que vous étiez président d'honneur de l'Atelier, dont je suis les actus quotidiennes avec beaucoup d'attention. Or j'ai été assez déconcerté par ce que j'ai découvert hier soir et que j'expose dans ce billet. C'est difficile à comprendre et j'espère que vous ou quelqu'un de l'atelier voudra bien réagir, tout au moins pour expliquer ce qui s'est passé, car un épisode comme ça peut vous faire douter durablement de la fiabilité d'une source d'information. Je visite assez régulièrement votre blog, et je suis sûr que vous comprendrez ce que je peux ressentir en tant que blogueur. Cordialement,...

* * *
Rédaction de Silicon - Objet : réaction - Bonjour,
Je voudrais vous demander votre avis sur un épisode qui m'a quelque peu déconcerté hier soir et que j'ai décrit ici. J'ai contacté l'Atelier mais personne ne m'a encore répondu.
Cordialement,...
Or 5 jours ont passé, et toujours aucune réponse, ni d'une part ni de l'autre. C'est bien beau de mettre une page de contacts, mais encore faudrait-il daigner répondre. Probable que M. Billaut est trop occupé à tourner ses vidéos (il a sorti 4 nouveaux billets durant ce même délai) pour avoir le temps d'être à l'écoute. Quant à Silicon, apparemment ils s'en foutent !

Voilà donc une affaire qui a le don de m'énerver, et beaucoup ! Maintenant, indépendamment de l'évolution du cas particulier, j'ai envie de généraliser pour élargir le cadre du débat, plus que jamais dans l'air du temps au moment où il est question d'instaurer une soi-disant « signature certifiée ». J'y reviendrai... [Début]

Du cas particulier au cas général

Je considère cette affaire grave pour plusieurs raisons :
  1. L'Atelier, émanation d'un des premiers groupes bancaires français (centre de veille technologique de BNP-Paribas), a pignon sur rue et jouit d'une réputation de sérieux et de qualité. Jusqu'à son slogan qui en dit long : « La référence en matière de veille technologique ».
    Or je suis désolé, mais quand on « sort une information », a fortiori plagiée, qu'on veut faire passer pour récente alors qu'elle date de 2 ans ou peu s'en faut, ce n'est plus de la veille, c'est de la vieille ! C'est du dépassé, de l'obsolète, du caduc, du suranné, de l'usagé, du has been, du ringard ou tout ce qu'on veut. Surtout sur Internet, où rien n'est plus facile que de recouper l'information, évanescente et volatile par excellence !
  2. Qui plus est, je ne sais pas combien ils ont d'abonnés à leur lettre d'info quotidienne, mais ça fait du monde (sûrement sans aucune mesure avec mes 55 lectrices et lecteurs de la journée d'hier) qui va lire ça sans se poser la question, à juste droit, en avalant pour argent comptant ce qui n'est que du réchauffé (voire du refroidi, depuis le temps).
  3. Un pareil épisode sème un doute durable (je parle pour moi) sur la fiabilité de la source, et plus encore dès lors qu'on ne daigne pas répondre à qui vous demande des explications, dont la moindre (nous nous sommes trompés, il s'est passé ci, il s'est passé ça, veuillez nous excuser) serait infiniment préférable à un silence interprétable au mieux comme du je-m'en-foutisme, au pire comme de l'indifférence, voire de la condescendance, coupable dans tous les cas.
  4. En une formule, il y a faute caractérisée, tromperie sur la marchandise, et plus la source fait autorité, plus le préjudice est grand ! [Début]

Asymétrie de la crédibilité dans l'information

Habituellement, il est souvent question d'asymétrie de l'information, mais, à ma connaissance, jamais d'asymétrie de la crédibilité de l'information. Je vais essayer de définir cette notion telle que je la conçois.

1. Qu'est-ce que la crédibilité ?

D'après le petit Robert, très sommairement, la crédibilité c'est « (c)e qui fait qu'une personne, une chose mérite d'être crue ».

Mais sur Internet, c'est beaucoup plus que ça ! C'est un concept clé, d'une importance majeure. Au centre de toute stratégie, de toute politique de communication. Ça vaut de l'or, la crédibilité, ou mieux encore : ça n'a pas de prix !

La crédibilité c'est d'abord une affaire de confiance, et aussi de cohérence. La crédibilité c'est un dialogue, dont les interlocuteurs pèsent et soupèsent tour à tour la qualité de la parole donnée, et reçue, où la première chose à faire est de se montrer capable d'honorer sa parole dès lors qu'on veut gagner la confiance de quelqu'un. La crédibilité, ça se mérite.

Dans une excellente étude intitulée : « Proposition d’une échelle de mesure de la crédibilité d’un signe de qualité », F. Larceneux s'appuie sur plusieurs auteurs pour énumérer « Les composantes de la crédibilité » (c'est moi qui mets en évidence) :
D’après Dean (1998), la littérature sur la crédibilité de la source a permis d’identifier trois dimensions d’attribution : l’expertise, la capacité à inspirer confiance et la valeur sociale perçue. En fait, de manière plus précise, pour être perçue comme crédible et prise en compte dans le processus de décision du consommateur, une source d’information doit paraître aux yeux du consommateur fiable, compétente et sincère (Hovland et Weiss, 1951). Ces trois dimensions se construisent autour d’un certain nombre d’antécédents de la crédibilité. Ainsi, la revue de littérature suivante est structurée selon les antécédents de la crédibilité dans les différents champs disciplinaires autour de ces trois dimensions plus une : (1) la confiance, (2) la sincérité (l’honnêteté, l’indépendance commerciale, la capacité à inspirer confiance, les bonnes intentions), (3) la compétence (l’expertise reconnue, la nature de l’émetteur), et (4) la fiabilité (la puissance financière, l’identification de l’émetteur, la vulnérabilité aux sanctions des consommateurs, les investissements en réputation, le fait d’exposer ses ventes au risque et le degré de diversification).
Ce n'est pas pour rien qu'il y a des tonnes de littérature sur la crédibilité dans le marketing, la publicité, où c'est une valeur fondamentale pour les marques, les produits, etc.

Quid de l'information sur le Web, donc, où l’info peut être considérée un produit (à mon avis c’est même le PREMIER produit disponible sur Internet en abondance) ? Pour faire un parallèle avec la pub, je citerais Ries & Ries, selon lesquels le plus gros problème de la publicité aujourd’hui, c’est qu’elle manque de crédibilité : tout simplement les gens ne croient plus les annonces publicitaires qu’ils lisent (ou voient ou entendent), et l’un des facteurs qui concourt à générer ce manque de crédibilité c’est le volume exponentiel de la pub. Trop c’est trop, trop de pub tue la pub, pourrait-on dire à la mode de chez nous…
Advertising lacks credibility. People just do not believe what they read (or see or hear) in an advertisement. (...) Contributing to the credibility problem, of course, is the volume of advertising.
Remplacez la pub par l'info, et vous avez « Trop c’est trop, trop d'info tue l'info, trop d'infos tuent l'info… »

D'où la nécessité de faire continuellement le tri dans cette profusion, de recouper, d'apprendre à discerner, structurer, hiérarchiser les signes, etc., pour crédibiliser l'info, au cas par cas. [Début]

2. Quand y a-t-il asymétrie de la crédibilité ?

La crédibilité - d’une source d’information dans le cas qui m’occupe – peut avoir deux origines : soit elle est objective, soit elle est subjective, avec en corollaire, soit elle est visible, soit elle est invisible :
  • Même objective à la source, elle peut être perçue crédible ou non par la cible
  • Même subjective pour la cible, la source peut être réellement crédible ou non

Il y a asymétrie lorsque :
  • la source objectivement crédible est subjectivement perçue comme non crédible
  • la source objectivement non crédible est subjectivement perçue comme crédible
auquel s’ajoute cet autre double problème, propre à Internet et aux médias de masse :
  • la source objectivement crédible est largement ignorée (il y a crédibilité sans notoriété / visibilité)
  • la source objectivement non crédible est largement suivie (notoriété / visibilité sans crédibilité)

Où se situe l'Atelier parmi ces hypothèses ? J'espère qu'ils voudront bien nous donner une indication. Quoi qu'il en soit, ça restera un épisode à mettre au compte des antécédents... [Début]



P.S. Il est presque 13h à l'heure où je publie ce billet, l'information incriminée est toujours en ligne, et je n'ai reçu aucune réponse. Mais cette fois j'écris à tout le monde. Allons-y...

[MàJ - 16h] Bon, trois heures après avoir ma prise de contact, je viens de recevoir un courriel de Jean de Chambure, Directeur Médias de l'Atelier, m'expliquant ce qui s'est passé et me demandant de ne pas reproduire son message. Donc, acte.

Ceci étant, j'observe deux choses :

1. J'aurais préféré qu'il réponde publiquement, après tout ce n'est pas une affaire entre lui et moi, mais plutôt entre l'Atelier et son lectorat, dont moi, et peut-être vous. Qu'il s'excuse auprès de la rédaction de Silicon.fr, c'est la moindre des choses. Mais auprès de ses lectrices et de ses lecteurs, ça serait pas mal non plus.

2. Il réfute en bloc mon « long commentaire sur la crédibilité de l'information en tant que telle ». C'est son droit, mais je persiste et je signe. Comme je le dis dans mon article, j'ai voulu élargir le cadre du débat en passant du cas particulier au cas général, et l'asymétrie de la crédibilité de l'information est un problème réel sur l'Internet, qui ne concerne pas uniquement l'Atelier, mais toutes les sources d'information sur le Web, dont moi, et peut-être vous.

JML

* * *


[MàJ II - 19h30'] Ou comment s'en tirer par une pirouette :


Il suffit de rajouter quelques phrases bien senties :
Erratum : Microsoft brevette le tchat télévisuel
Dans un article précédemment rédigé, nous avions oublié de citer la source de commentaires sur le sujet. Nos plus vives excuses auprès de notre confrère Silicon.fr pour cette erreur. Voici donc l'article corrigé. (...)
Déjà en 2004, nos confrères de Silicon en expliquaient le principe très simple : (...)
Et nos confrères de Silicon de noter les grandes ambitions que l'éditeur pourrait fonder sur ce brevet...
Ni vu ni connu, et c'est moi le méchant ;-) [Début]

Tags : , , , , , ,

Google vs. Microsoft : déclenchement des hostilités

Google vs. Microsoft : déclenchement des hostilités

Dans mon billet d'hier, j'écrivais :
Il va bientôt falloir que j'ouvre une catégorie Google vs. Microsoft pour compter les coups donnés, fourrés, pris et rendus par chacun des deux protagonistes (et Yahoo!, où est Yahoo !?)...
Je croyais pas si bien dire ! Bon, ben ça y est, c'est parti, les choses sérieuses commencent, Google vient d'attaquer Microsoft à la fois devant le Department of Justice américain et devant la Commission européenne au motif que la société de Redmond va commercialiser IE 7, la prochaine version d'Internet Explorer qui détient encore 85% des parts de marchés (après en avoir perdu env. 10% puisqu'il y a quelques temps encore le taux de pénétration d'IE était de 95% et des poussières), avec MSN Search par défaut.

Google, qui paye Mozilla Firefox et Opera pour être le moteur de recherche pré-configuré sur ces deux navigateurs, soutient que ce « paramétrage par défaut » est anti-concurrentiel vu la position dominante de Microsoft sur le marché des navigateurs (étroitement lié à Office...).

Déjà, en décembre 2005, Google était passé devant Microsoft en déboursant 1 milliard de dollars pour devenir le moteur de recherche attitré d'America Online (et en prenant 5% des parts d'AOL).

Microsoft rétorque que la configuration de défaut est très facile à modifier, ce à quoi Google, dont les arguments seraient pour le moins fragiles, selon certains observateurs, réplique que la plupart des utilisateurs ne s'en rendent même pas compte et laissent « naturellement » le paramétrage existant.

Désormais, les deux géants dialogueront par avocats interposés (imaginez s'ils sont contents les avocats de Microsoft et de Google, ils risquent pas de se retrouver chômeurs du jour au lendemain !). Certes, ce n'est pas la première fois que leurs avocats s'affrontent, puisque l'année dernière Microsoft n'avait pas apprécié que Google débauche Kai-Fu Lee, désormais en charge de l'implantation de Google en Chine. Steve Ballmer aurait même piqué plusieurs grosses colères (c'est un sanguin, l'ami Steve).

Quant à Yahoo, affecté tout autant que Google par le quasi-monopole de Microsoft, il faudra voir s'il prend des décisions à ce sujet.

Enfin, j'ai comme la vague impression que ce billet ne sera que le premier d'une longue série ! Car selon le New York Times, la rivalité entre les deux firmes a de bonnes raisons de devenir de plus en plus âpre, puisqu'il ne s'agit rien de moins que de modeler tout le futur de la compétition dans les TIC et de la façon dont les gens utiliseront les technologies de l'information et de la communication :
The rivalry between the companies is growing more combative, and with good reason: the outcome is likely to shape the future of competition in computing and the way people use information technology.
Comme le disait justement Serge Cheminade dans La guerre du savoir :
L'enjeu est immense. Il s'agit de favoriser l'évolution de l'ensemble de la connaissance humaine. Nous allons voir ici pourquoi et comment Internet va bouleverser notre quotidien, notre manière de penser. (...) N'oublions pas que ceux qui maîtrisent le mieux les connaissances sont ceux qui créent le plus de richesses, le plus d'emplois...
Suite au prochain épisode...

Sources en anglais (en français, ça va venir) :

New Microsoft Browser Raises Google's Hackles
Microsoft's IE 7 Serve Unfair Advantage Over Google & Yahoo?
Google fires double barrell at Microsoft IE7 search



Tags : , , , , , ,

lundi 1 mai 2006

Google : signaux faibles ou signaux forts ?


Deux infos parues hier à propos de Google ont particulièrement attiré mon attention :

1. Google News + Google Suggest
2. Alexa change de moteur

1. Google News + Google Suggest


Une brève intitulée Google adds Suggest to News dévoile que Google vient d'intégrer sa fonction Suggest à sa page d'actus (pour l'instant, uniquement en anglais).

Avec Google Suggest, dont j'ai déjà parlé ici et , « (l)orsque vous tapez une requête dans le champs de saisie, Google vous propose, en temps réel, des suggestions de mots ou expressions se rapprochant le plus possible de votre recherche. » Définition donnée par Zorgloob dans l'article annonçant la parution de l'outil.
Pour en savoir un peu plus sur le fonctionnement technique, lire ce billet (très technique et en anglais). Mais je m'intéresse moins à l'aspect technique qu'au choix des mots suggérés par Google, puisque les suggestions données sur Google News n'ont rien à voir avec celles proposées sur Google Suggest.

Google News :


Google Suggest :


Dans les deux exemples, je me suis contenté de saisir le « t », ce qui nous donne : tailor university accident, tailor university crash, tom cruise, tailor hicks, tracey temple, etc. pour Google News, et target, travelocity, tsunami, ticketmaster, t mobile, etc. pour Google Suggest. À noter également que Google Suggest indique le nombre d'occurrences, ce que ne fait pas Google News.

Donc, pourquoi ces différences ? En fait, également en réponse à un commentaire de JF Farny, qui se surprenait de l'absence apparente de Google News dans la stratégie de la firme - un « manque majeur » selon lui -, et souhaitait savoir ce que j'en pensais, je crois que Google News sert un peu de ballon d'essai à Google.

Les termes suggérés sont naturellement en rapport avec l'actualité, mais au-delà de l'aspect utilitaire pour l'internaute lambda, je pense que l'outil sert surtout à tester la réponse des gens et à étudier leur comportement. En effet, en marketing, les deux principales études comportementales portent sur ce que les gens font (comportements effectifs) et sur ce qu'ils pensent (comportements mentaux). Et avec l'ampleur du panel dont dispose Google, ces infos n'ont pas de prix ! Imaginez si au lieu de suggérer de simples mots, Google conseillait des marques ou des produits...

Donc avec Suggest, Google fait d'une pierre deux coups, probablement en vue d'intégrer les résultats de ses investigations aux fonctionnalités améliorées mises en place pour les AdWords :
Suggestions automatiques de mots clés – l'un des enjeux majeurs pour les annonceurs est de sélectionner les bons mots clés ; jusqu’à présent, nous avons toujours aidé les clients à optimiser leurs mots clés, par un processus manuel. Aujourd’hui nous souhaitons automatiser ce processus, pour proposer aux clients des mots clés susceptibles d'impacter leurs campagnes de façon significative. Une fonctionnalité qui permettra aux annonceurs d'améliorer facilement leurs résultats.
[Début]

* * *

2. Alexa change de moteur

La deuxième info titre Google Dumped by Amazon's Alexa for MSN Live: Google Dump #1, et nous explique que la technologie moteur d'Alexa ne sera plus fournie par Google, comme c'était le cas il y a quelques jours encore :

mais par ... MSN Live ! Il va bientôt falloir que j'ouvre une catégorie Google vs. Microsoft pour compter les coups donnés, fourrés, pris et rendus par chacun des deux protagonistes (et Yahoo!, où est Yahoo !?)...

Or Alexa (dont certaines fonctionnalités sont très très intéressantes) est détenue par Amazon, dont le moteur A9 est encore propulsé par Google. Encore, oui, mais pour combien de temps ?

Et le journaliste, Garrett French, ne se prive pas de mettre en rapport cette info avec les efforts récents d'eBay pour s'associer avec MSN ou Yahoo, en annonçant que la défection d'Alexa n'est que la première d'une longue série à venir, et que le grand gagnant de cette évolution pourrait bien être Ask, le moteur qui monte :
Ask is likely to emerge as the search partner of choice as Google increasingly alienates its former partners by competing with them directly.

« Il est probable qu'Ask deviendra le moteur de prédilection de tous les partenaires actuels de Google que la société de Moutain View est en train de s'aliéner au fur et à mesure qu'elle entre en concurrence directe avec eux. »

À suivre... (je me demande si c'est pas Google qui avait racheté Compaq, en son temps ;-) [Début]


P.S. Mise à jour instantanée : le temps de publier le billet, je viens de lire que ça y est, A9 aussi est passé à la concurrence !


On dirait que la contre-attaque s'organise... [Début]

Tags : , , , ,

dimanche 30 avril 2006

Google et la traduction automatique

Si vous cherchez le service de traduction automatique de Google, c'est par là :-)

Deuxième volet de cet article (trois mois plus tard)
Évolutions...
La réalité de la traduction automatique en 2014

[MàJ - 23 octobre 2007] Un an et demi après la rédaction de ce billet, Google abandonne Systran au profit de son propre système de traduction. Cf. Google, traducteur automatique.

* * *

La puissance de Google est vraiment impressionnante ! La lecture d'un article de ZDNet me permet de revenir sur l'un des aspects de Google que j'avais déjà découvert lors de la présentation 2006 d'Eric Schmidt aux analystes financiers (ce n'était que le mois dernier, et pourtant j'ai l'impression qu'un an a déjà passé !) et qui m'avait intrigué : les ambitions annoncées de Google dans la traduction automatique (lire en fin de diapo 3).
Or un billet paru avant-hier sur le blog du centre de recherche de Google nous en dit plus :
« Because we want to provide everyone with access to all the world's information, including information written in every language, one of the exciting projects at Google Research is machine translation. » (Puisque notre mission consiste à permettre à quiconque d'avoir accès à toute l'information mondiale, notamment l'information écrite dans toutes les langues, l'un des projets les plus ambitieux que conduit notre centre de recherches porte sur la traduction automatique.)
Depuis plus de 20 ans que je lis des tonnes de textes sur la traduction en général, et sur la traduction automatique en particulier, je peux vous dire que le sujet m'intéresse !

De la machine à traduire au phonétographe (ancêtre de la dictée vocale), les premières recherches sur la traduction automatique datent de l'après-guerre et précèdent de plus d'une décennie le développement d'Arpanet. Aujourd'hui on parle plus volontiers de traitement automatique des langues, ou de traitement automatique du langage naturel : TAL / TALN. À ne pas confondre avec les logiciels de TAO, ou traduction assistée par ordinateur, que nous utilisons quotidiennement en traduction professionnelle.

À l'heure actuelle, sur Internet, les systèmes de traduction automatique sont nombreux, vous en trouverez un bon aperçu ici, même si Christophe Asselin devra bientôt modifier son info sur l'outil de traduction de Google (Google utilise la technologie Systran), également intégré dans la barre d'outils de la firme.

En gros, Systran (System Translation), qui est à l'origine de tout le système de traduction automatique de l'Union européenne, excusez du peu !, fait appel à une technologie à base de règles (très sommairement : règles morphologiques, syntaxiques, sémantiques, grammaticales, règles heuristiques de rattachement pour associer les termes entre eux, règles logiques, etc. etc.) appliquées à des vocabulaires et des grammaires définis.

Google, en revanche, a choisi une autre approche :
« (W)e feed the computer with billions of words of text, both monolingual text in the target language, and aligned text consisting of examples of human translations between the languages. We then apply statistical learning techniques to build a translation model. We have achieved very good results in research evaluations. »
qui consiste à gaver les machines de milliards de mots de texte (ce n'est pas la matière première qui lui manque !), ce qu'on appelle la linguistique de corpus (parallèles, alignés ou non), en associant des corpus (ou corpora pour les puristes) monolingues à des bi-textes (en prenant par exemple un site bilingue, ou tri- ou n-lingue, dont les textes sont segmentés puis alignés afin de fournir une mémoire de traduction) pour y appliquer ensuite des techniques d'apprentissage statistiques permettant de construire des modèles de traduction.

Et c'est là où Google est très fort, puisque, dernier arrivé dans ce domaine (où les places sont chères, par ailleurs), il se classe premier en devançant IBM, etc., et en se détachant très nettement de Systran, aussi bien pour la paire linguistique chinois-anglais :


qu'arabe-anglais :


Voir les résultats officiels de l'évaluation sur la traduction automatique faite par le National Institute of Standards and Technology : NIST 2005 - Machine Translation Evaluation Official Results, dont une prochaine édition aura lieu dans deux mois, à suivre donc, comme nous le conseille Google en concluant le billet mentionné plus haut : do stay tuned for more exciting developments.

Pour sûr qu'on va rester « branchés ». Quand je vous parlais de la puissance de Google, vraiment impressionnant !


Partager sur Facebook

[MàJ - 15 juin 2006] Voici deux exemples pour vous donner une idée des résultats de la TA :

1. En consultant mes statistiques, j'ai vu que mon billet sur la dérive publicitaire sur Internet et les incohérences de Google avait été traduit par un visiteur américain sur l'outil de TA de Yahoo (Babelfish). Or une partie de ce billet étant une traduction d'un article paru sur The Motley Fool, j'ai trouvé intéressant de comparer l'original en anglais et sa retraduction du français à l'anglais. Le résultat me semble assez probant :

Mon billet traduit par Yahoo Babelfish Extrait de l'article original de Seth Jayson
Did you already make a research on Internet lately ? Then you will undoubtedly have observed the lack of quality of the results, including at the competitors of Google such as Yahoo! or Ask.com ? And their new design changes nothing there. I am pained by it as much as you. Me also I remained wedged hours and hours in the reels of these farms of bonds, these splogs and other " scraper sites " : sites which seem to have contents, (...), whereas actually, generally it is recycled material coming without their knowledge of other content providers, assembled by automated processes. Any of you try searching lately? Notice the astounding lack of quality across the board, even at revamped competitors like Yahoo! (Nasdaq: YHOO) and IAC/InterActiveCorp's (Nasdaq: IACI) Ask.com? I feel your pain. I, too, have spent hours stuck in the revolving door of link farms, splogs, and scraper sites. These sites look like they contain content, (…). If there is some content there, it's often recycled material from other providers, compiled by an automated process.
The hurluberlus which create this kind of sites have one objective : you to bring to click on the sponsored bonds of Google AdSense. The jokers who create these sites have one goal: Trying to get you to click on a Google AdSense link.
Naturally, these sites do not respect of anything the commercial conditions provided by Google, which does not prevent that they hatch per million. Make just a research on " adsense ready web site " and you will have an idea of this miteuse industry, as discrete as an elephant in a porcelain store, which extracts a maximum of profits from the phenomenon. Of course, such sites run contrary to Google's terms of service, but that hasn't stopped zillions of them from popping up. In fact, a search on "adsense ready web site" will give you a glimpse of the often-sleazy, bigger-than-a-cottage, scraper-site industry that's sprung up to try to capitalize on the phenomenon.
How Google is it killing goose that lays the golden eggs. How Google killed the golden goose.
The problems are numerous, and all the éradiquer could be expensive Google (when well even it would not be impossible). The first concerns the good old man plagiarism. There are multiple problems here, all of which will be costly (if not impossible) for Google to eradicate. The first issue is good old-fashioned thievery.
The majority of these Spam boxes do not have that to attract the barge cliquor, but also to facilitate to the fraud with the clicks on a large scale (...) Besides the public generally the purpose of no idea is from what occurs, even if the Net surfers more informed a little are well-informed. We are unaware of of them only the true proportions. Of aucuns advance a rather restricted percentage of clicks; others say half straightforwardly. In any event, Google, which has very to lose if the things are as badly as certain journalists citizens denounce it, minimizes the figures considerably. Many of these spamsites are set up not just to catch us individual clickers, but also to facilitate larger-scale click fraud (...)Most of the public is entirely clueless about this situation, but people who pay attention to the space know this problem exists. Only its extent is unknown. Some say low teens as a percentage of clicks; others shoot for half. Of course, Google, which has a ton to lose if things are as bad as some outspoken Netizens believe, consistently lowballs the number.
Another factor facilitating this explosion of spammé contents and fraud to the clicks is the seizure of Google on the level of research on Internet, which one can roughly speaking estimate at 60%, in fact a quasi-monopoly. For as much, the consistent argument with saying that the market is enough large to be corrected all alone on the matter is somewhat naive. Without competition and information, the markets do not correct anything the whole, and I do not think that there are today serious competitors able to make the weight. For the moment. The other enabler for the explosion of spam content and click fraud is Google's roughly 60% stranglehold on Web search, which gives it a pretty effective monopoly. That's why I find the "self-correcting market" arguments regarding click fraud more than a tad naive. Markets don't correct without competition and information, and I don't think there's enough of either here to make a difference. Yet.
Take the case of the advertisers ofAdWords which believe that their results are diluted because of the fraud to the clicks. Be sure that they know that the biddings on their key words should cost them less, but can be made hear ? And can they allow it when there are of them thousands and thousands of other loans to be paid more because: (A) they are unaware of all the problem ; (b) they know it only too, but are able thanks to the fraud with the clicks to recover a part of what they spend on other side ? Take AdWords advertisers who believe their results are being watered down by click fraud. Sure, they know they should bid lower on keywords to try to reflect that, but are they going to do it? Can they afford to, with so many others out there who bid high because (a) they don't know about the problem, or (b) they know much more than they should, and they're able to use click fraud to recoup some of what they're paying out?
I do not know the answers, and nor even all the questions. But if the problem is as serious as some fear it, it is all the model of income set up by Google which could suffer from it, even the whole of the business of the pay-per-click. While waiting for the explosion of the farms of bonds and the splogs shows clearly that the fraud with the clicks is juicy and flourishing, at the expense of all the Net surfers. Except of Google. For the moment, there still. I don't know the answers -- or even all of the questions. But if this problem is as bad as some fear, it could eventually put a major crimp in Google's entire revenue model, if not the entire pay-per-click business. I would argue that the explosion of link farms and spamblogs is pretty decent evidence that the click-fraud biz is not only alive and well, but also thriving at the expense of all of us. Except Google. For now, anyway.
Never more ! No mas!
One can believe or not that all these sites bourriels which make trade of AdSense are honest or defrauders in mass, but me that of which I is sure it is that it is necessary to thank Google for this situation. There is indeed no reason to put on line this kind of sites if one cannot draw an income thanks to the model from it from business set up by Google. And with Yahoo! and the other loans to enter the dance, I do not believe that one will see the tendency to be reversed as soon as. Whether or not you believe that the junk sites out there peddling AdSense ads are honest commerce or capitalizing on large-scale click fraud, there's little doubt in my mind that we've got Google to thank for it. There's simply no reason for people to set up these sites if they can't skim dough via third-hand revenue sharing enabled by Google's business model. With Yahoo! and others set to get in on the same gig, I don't think we'll see this trend abate.
I hope only that all that predicts of a return to good old days, now that the blogosphère am likely to lose always more his importance, considering whom it starts to be co-opted by all the traffickers of AdSense and to be diluted quickly. Result : the information providers known for their qualite/fiability - of which much is undoubtedly blogs - will gain there in importance. And as soon as they carry out the capacity of their information, they will want less and less that Google money plunders them and makes on the back of the reputation which they will have put such an amount of labour and energy to be built. I think that bodes for a return to the old days -- that the blogosphere that's being so rapidly diluted and co-opted by these AdSense shenanigans will become a lot less important. As a result, trusted information providers -- and some will doubtlessly be blogs -- will become more important. As they realize the power of their information, they'll be a lot less willing to allow Google to skim dollars off the content and reputation they've worked to build.

2. Vous pouvez également consulter le site d'assistance de Microsoft, où « les fiches d'aide rédigées en anglais sont accessibles dans d'autres langues grâce à la traduction automatique «brute» (sans révision humaine). Ce n'est pas d'une qualité extraordinaire mais généralement ça suffit amplement à dépanner l'utilisateur lambda. Pour un traducteur, travailler à partir de cette traduction automatique ne me semble pas si différent que de travailler à partir de mémoires de traduction avec correspondance approximative (fuzzy matching). » Source : Eurêka.

Suite : Google RS2, traducteur automatique de troisième génération
Évolutions...

, , , , ,