mardi 2 mai 2006

L'asymétrie de crédibilité dans l'information

Le sérieux et la qualité sont-ils des critères de crédibilité ? Je pose la question. Et esquisse une réponse : en théorie, oui. Dans la pratique et dans l’absolu, NON ! Démonstration empirique.

Récapitulatif des faits
Du cas particulier au cas général
1. Qu'est-ce que la crédibilité ?
2. Quand y a-t-il asymétrie de la crédibilité ?
Réplique à Jean de Chambure, Directeur Médias de l'Atelier

* * *

Récapitulatif des faits

La semaine dernière, j'expliquais dans le détail une histoire de plagiat manifeste commis par l'Atelier, qui se résume en deux images. L'info sortie par Silicon le 26 juillet 2004 :


L'actu publiée par l'Atelier le 27 avril 2006, près de deux ans plus tard :


Les parties en jaune sont entièrement pompées. Suite à la publication de mon billet, le 28 avril j'ai envoyé deux courriels pour demander des explications - le matin à Jean-Michel Billaut pour l'Atelier, et dans l'après-midi à la rédaction de Silicon -, dont voici la teneur :
Bonjour Monsieur Billaut,
Je me permets de vous adresser ce courriel après avoir vu que vous étiez président d'honneur de l'Atelier, dont je suis les actus quotidiennes avec beaucoup d'attention. Or j'ai été assez déconcerté par ce que j'ai découvert hier soir et que j'expose dans ce billet. C'est difficile à comprendre et j'espère que vous ou quelqu'un de l'atelier voudra bien réagir, tout au moins pour expliquer ce qui s'est passé, car un épisode comme ça peut vous faire douter durablement de la fiabilité d'une source d'information. Je visite assez régulièrement votre blog, et je suis sûr que vous comprendrez ce que je peux ressentir en tant que blogueur. Cordialement,...

* * *
Rédaction de Silicon - Objet : réaction - Bonjour,
Je voudrais vous demander votre avis sur un épisode qui m'a quelque peu déconcerté hier soir et que j'ai décrit ici. J'ai contacté l'Atelier mais personne ne m'a encore répondu.
Cordialement,...
Or 5 jours ont passé, et toujours aucune réponse, ni d'une part ni de l'autre. C'est bien beau de mettre une page de contacts, mais encore faudrait-il daigner répondre. Probable que M. Billaut est trop occupé à tourner ses vidéos (il a sorti 4 nouveaux billets durant ce même délai) pour avoir le temps d'être à l'écoute. Quant à Silicon, apparemment ils s'en foutent !

Voilà donc une affaire qui a le don de m'énerver, et beaucoup ! Maintenant, indépendamment de l'évolution du cas particulier, j'ai envie de généraliser pour élargir le cadre du débat, plus que jamais dans l'air du temps au moment où il est question d'instaurer une soi-disant « signature certifiée ». J'y reviendrai... [Début]

Du cas particulier au cas général

Je considère cette affaire grave pour plusieurs raisons :
  1. L'Atelier, émanation d'un des premiers groupes bancaires français (centre de veille technologique de BNP-Paribas), a pignon sur rue et jouit d'une réputation de sérieux et de qualité. Jusqu'à son slogan qui en dit long : « La référence en matière de veille technologique ».
    Or je suis désolé, mais quand on « sort une information », a fortiori plagiée, qu'on veut faire passer pour récente alors qu'elle date de 2 ans ou peu s'en faut, ce n'est plus de la veille, c'est de la vieille ! C'est du dépassé, de l'obsolète, du caduc, du suranné, de l'usagé, du has been, du ringard ou tout ce qu'on veut. Surtout sur Internet, où rien n'est plus facile que de recouper l'information, évanescente et volatile par excellence !
  2. Qui plus est, je ne sais pas combien ils ont d'abonnés à leur lettre d'info quotidienne, mais ça fait du monde (sûrement sans aucune mesure avec mes 55 lectrices et lecteurs de la journée d'hier) qui va lire ça sans se poser la question, à juste droit, en avalant pour argent comptant ce qui n'est que du réchauffé (voire du refroidi, depuis le temps).
  3. Un pareil épisode sème un doute durable (je parle pour moi) sur la fiabilité de la source, et plus encore dès lors qu'on ne daigne pas répondre à qui vous demande des explications, dont la moindre (nous nous sommes trompés, il s'est passé ci, il s'est passé ça, veuillez nous excuser) serait infiniment préférable à un silence interprétable au mieux comme du je-m'en-foutisme, au pire comme de l'indifférence, voire de la condescendance, coupable dans tous les cas.
  4. En une formule, il y a faute caractérisée, tromperie sur la marchandise, et plus la source fait autorité, plus le préjudice est grand ! [Début]

Asymétrie de la crédibilité dans l'information

Habituellement, il est souvent question d'asymétrie de l'information, mais, à ma connaissance, jamais d'asymétrie de la crédibilité de l'information. Je vais essayer de définir cette notion telle que je la conçois.

1. Qu'est-ce que la crédibilité ?

D'après le petit Robert, très sommairement, la crédibilité c'est « (c)e qui fait qu'une personne, une chose mérite d'être crue ».

Mais sur Internet, c'est beaucoup plus que ça ! C'est un concept clé, d'une importance majeure. Au centre de toute stratégie, de toute politique de communication. Ça vaut de l'or, la crédibilité, ou mieux encore : ça n'a pas de prix !

La crédibilité c'est d'abord une affaire de confiance, et aussi de cohérence. La crédibilité c'est un dialogue, dont les interlocuteurs pèsent et soupèsent tour à tour la qualité de la parole donnée, et reçue, où la première chose à faire est de se montrer capable d'honorer sa parole dès lors qu'on veut gagner la confiance de quelqu'un. La crédibilité, ça se mérite.

Dans une excellente étude intitulée : « Proposition d’une échelle de mesure de la crédibilité d’un signe de qualité », F. Larceneux s'appuie sur plusieurs auteurs pour énumérer « Les composantes de la crédibilité » (c'est moi qui mets en évidence) :
D’après Dean (1998), la littérature sur la crédibilité de la source a permis d’identifier trois dimensions d’attribution : l’expertise, la capacité à inspirer confiance et la valeur sociale perçue. En fait, de manière plus précise, pour être perçue comme crédible et prise en compte dans le processus de décision du consommateur, une source d’information doit paraître aux yeux du consommateur fiable, compétente et sincère (Hovland et Weiss, 1951). Ces trois dimensions se construisent autour d’un certain nombre d’antécédents de la crédibilité. Ainsi, la revue de littérature suivante est structurée selon les antécédents de la crédibilité dans les différents champs disciplinaires autour de ces trois dimensions plus une : (1) la confiance, (2) la sincérité (l’honnêteté, l’indépendance commerciale, la capacité à inspirer confiance, les bonnes intentions), (3) la compétence (l’expertise reconnue, la nature de l’émetteur), et (4) la fiabilité (la puissance financière, l’identification de l’émetteur, la vulnérabilité aux sanctions des consommateurs, les investissements en réputation, le fait d’exposer ses ventes au risque et le degré de diversification).
Ce n'est pas pour rien qu'il y a des tonnes de littérature sur la crédibilité dans le marketing, la publicité, où c'est une valeur fondamentale pour les marques, les produits, etc.

Quid de l'information sur le Web, donc, où l’info peut être considérée un produit (à mon avis c’est même le PREMIER produit disponible sur Internet en abondance) ? Pour faire un parallèle avec la pub, je citerais Ries & Ries, selon lesquels le plus gros problème de la publicité aujourd’hui, c’est qu’elle manque de crédibilité : tout simplement les gens ne croient plus les annonces publicitaires qu’ils lisent (ou voient ou entendent), et l’un des facteurs qui concourt à générer ce manque de crédibilité c’est le volume exponentiel de la pub. Trop c’est trop, trop de pub tue la pub, pourrait-on dire à la mode de chez nous…
Advertising lacks credibility. People just do not believe what they read (or see or hear) in an advertisement. (...) Contributing to the credibility problem, of course, is the volume of advertising.
Remplacez la pub par l'info, et vous avez « Trop c’est trop, trop d'info tue l'info, trop d'infos tuent l'info… »

D'où la nécessité de faire continuellement le tri dans cette profusion, de recouper, d'apprendre à discerner, structurer, hiérarchiser les signes, etc., pour crédibiliser l'info, au cas par cas. [Début]

2. Quand y a-t-il asymétrie de la crédibilité ?

La crédibilité - d’une source d’information dans le cas qui m’occupe – peut avoir deux origines : soit elle est objective, soit elle est subjective, avec en corollaire, soit elle est visible, soit elle est invisible :
  • Même objective à la source, elle peut être perçue crédible ou non par la cible
  • Même subjective pour la cible, la source peut être réellement crédible ou non

Il y a asymétrie lorsque :
  • la source objectivement crédible est subjectivement perçue comme non crédible
  • la source objectivement non crédible est subjectivement perçue comme crédible
auquel s’ajoute cet autre double problème, propre à Internet et aux médias de masse :
  • la source objectivement crédible est largement ignorée (il y a crédibilité sans notoriété / visibilité)
  • la source objectivement non crédible est largement suivie (notoriété / visibilité sans crédibilité)

Où se situe l'Atelier parmi ces hypothèses ? J'espère qu'ils voudront bien nous donner une indication. Quoi qu'il en soit, ça restera un épisode à mettre au compte des antécédents... [Début]



P.S. Il est presque 13h à l'heure où je publie ce billet, l'information incriminée est toujours en ligne, et je n'ai reçu aucune réponse. Mais cette fois j'écris à tout le monde. Allons-y...

[MàJ - 16h] Bon, trois heures après avoir ma prise de contact, je viens de recevoir un courriel de Jean de Chambure, Directeur Médias de l'Atelier, m'expliquant ce qui s'est passé et me demandant de ne pas reproduire son message. Donc, acte.

Ceci étant, j'observe deux choses :

1. J'aurais préféré qu'il réponde publiquement, après tout ce n'est pas une affaire entre lui et moi, mais plutôt entre l'Atelier et son lectorat, dont moi, et peut-être vous. Qu'il s'excuse auprès de la rédaction de Silicon.fr, c'est la moindre des choses. Mais auprès de ses lectrices et de ses lecteurs, ça serait pas mal non plus.

2. Il réfute en bloc mon « long commentaire sur la crédibilité de l'information en tant que telle ». C'est son droit, mais je persiste et je signe. Comme je le dis dans mon article, j'ai voulu élargir le cadre du débat en passant du cas particulier au cas général, et l'asymétrie de la crédibilité de l'information est un problème réel sur l'Internet, qui ne concerne pas uniquement l'Atelier, mais toutes les sources d'information sur le Web, dont moi, et peut-être vous.

JML

* * *


[MàJ II - 19h30'] Ou comment s'en tirer par une pirouette :


Il suffit de rajouter quelques phrases bien senties :
Erratum : Microsoft brevette le tchat télévisuel
Dans un article précédemment rédigé, nous avions oublié de citer la source de commentaires sur le sujet. Nos plus vives excuses auprès de notre confrère Silicon.fr pour cette erreur. Voici donc l'article corrigé. (...)
Déjà en 2004, nos confrères de Silicon en expliquaient le principe très simple : (...)
Et nos confrères de Silicon de noter les grandes ambitions que l'éditeur pourrait fonder sur ce brevet...
Ni vu ni connu, et c'est moi le méchant ;-) [Début]

Tags : , , , , , ,

Google vs. Microsoft : déclenchement des hostilités

Google vs. Microsoft : déclenchement des hostilités

Dans mon billet d'hier, j'écrivais :
Il va bientôt falloir que j'ouvre une catégorie Google vs. Microsoft pour compter les coups donnés, fourrés, pris et rendus par chacun des deux protagonistes (et Yahoo!, où est Yahoo !?)...
Je croyais pas si bien dire ! Bon, ben ça y est, c'est parti, les choses sérieuses commencent, Google vient d'attaquer Microsoft à la fois devant le Department of Justice américain et devant la Commission européenne au motif que la société de Redmond va commercialiser IE 7, la prochaine version d'Internet Explorer qui détient encore 85% des parts de marchés (après en avoir perdu env. 10% puisqu'il y a quelques temps encore le taux de pénétration d'IE était de 95% et des poussières), avec MSN Search par défaut.

Google, qui paye Mozilla Firefox et Opera pour être le moteur de recherche pré-configuré sur ces deux navigateurs, soutient que ce « paramétrage par défaut » est anti-concurrentiel vu la position dominante de Microsoft sur le marché des navigateurs (étroitement lié à Office...).

Déjà, en décembre 2005, Google était passé devant Microsoft en déboursant 1 milliard de dollars pour devenir le moteur de recherche attitré d'America Online (et en prenant 5% des parts d'AOL).

Microsoft rétorque que la configuration de défaut est très facile à modifier, ce à quoi Google, dont les arguments seraient pour le moins fragiles, selon certains observateurs, réplique que la plupart des utilisateurs ne s'en rendent même pas compte et laissent « naturellement » le paramétrage existant.

Désormais, les deux géants dialogueront par avocats interposés (imaginez s'ils sont contents les avocats de Microsoft et de Google, ils risquent pas de se retrouver chômeurs du jour au lendemain !). Certes, ce n'est pas la première fois que leurs avocats s'affrontent, puisque l'année dernière Microsoft n'avait pas apprécié que Google débauche Kai-Fu Lee, désormais en charge de l'implantation de Google en Chine. Steve Ballmer aurait même piqué plusieurs grosses colères (c'est un sanguin, l'ami Steve).

Quant à Yahoo, affecté tout autant que Google par le quasi-monopole de Microsoft, il faudra voir s'il prend des décisions à ce sujet.

Enfin, j'ai comme la vague impression que ce billet ne sera que le premier d'une longue série ! Car selon le New York Times, la rivalité entre les deux firmes a de bonnes raisons de devenir de plus en plus âpre, puisqu'il ne s'agit rien de moins que de modeler tout le futur de la compétition dans les TIC et de la façon dont les gens utiliseront les technologies de l'information et de la communication :
The rivalry between the companies is growing more combative, and with good reason: the outcome is likely to shape the future of competition in computing and the way people use information technology.
Comme le disait justement Serge Cheminade dans La guerre du savoir :
L'enjeu est immense. Il s'agit de favoriser l'évolution de l'ensemble de la connaissance humaine. Nous allons voir ici pourquoi et comment Internet va bouleverser notre quotidien, notre manière de penser. (...) N'oublions pas que ceux qui maîtrisent le mieux les connaissances sont ceux qui créent le plus de richesses, le plus d'emplois...
Suite au prochain épisode...

Sources en anglais (en français, ça va venir) :

New Microsoft Browser Raises Google's Hackles
Microsoft's IE 7 Serve Unfair Advantage Over Google & Yahoo?
Google fires double barrell at Microsoft IE7 search



Tags : , , , , , ,

lundi 1 mai 2006

Google : signaux faibles ou signaux forts ?


Deux infos parues hier à propos de Google ont particulièrement attiré mon attention :

1. Google News + Google Suggest
2. Alexa change de moteur

1. Google News + Google Suggest


Une brève intitulée Google adds Suggest to News dévoile que Google vient d'intégrer sa fonction Suggest à sa page d'actus (pour l'instant, uniquement en anglais).

Avec Google Suggest, dont j'ai déjà parlé ici et , « (l)orsque vous tapez une requête dans le champs de saisie, Google vous propose, en temps réel, des suggestions de mots ou expressions se rapprochant le plus possible de votre recherche. » Définition donnée par Zorgloob dans l'article annonçant la parution de l'outil.
Pour en savoir un peu plus sur le fonctionnement technique, lire ce billet (très technique et en anglais). Mais je m'intéresse moins à l'aspect technique qu'au choix des mots suggérés par Google, puisque les suggestions données sur Google News n'ont rien à voir avec celles proposées sur Google Suggest.

Google News :


Google Suggest :


Dans les deux exemples, je me suis contenté de saisir le « t », ce qui nous donne : tailor university accident, tailor university crash, tom cruise, tailor hicks, tracey temple, etc. pour Google News, et target, travelocity, tsunami, ticketmaster, t mobile, etc. pour Google Suggest. À noter également que Google Suggest indique le nombre d'occurrences, ce que ne fait pas Google News.

Donc, pourquoi ces différences ? En fait, également en réponse à un commentaire de JF Farny, qui se surprenait de l'absence apparente de Google News dans la stratégie de la firme - un « manque majeur » selon lui -, et souhaitait savoir ce que j'en pensais, je crois que Google News sert un peu de ballon d'essai à Google.

Les termes suggérés sont naturellement en rapport avec l'actualité, mais au-delà de l'aspect utilitaire pour l'internaute lambda, je pense que l'outil sert surtout à tester la réponse des gens et à étudier leur comportement. En effet, en marketing, les deux principales études comportementales portent sur ce que les gens font (comportements effectifs) et sur ce qu'ils pensent (comportements mentaux). Et avec l'ampleur du panel dont dispose Google, ces infos n'ont pas de prix ! Imaginez si au lieu de suggérer de simples mots, Google conseillait des marques ou des produits...

Donc avec Suggest, Google fait d'une pierre deux coups, probablement en vue d'intégrer les résultats de ses investigations aux fonctionnalités améliorées mises en place pour les AdWords :
Suggestions automatiques de mots clés – l'un des enjeux majeurs pour les annonceurs est de sélectionner les bons mots clés ; jusqu’à présent, nous avons toujours aidé les clients à optimiser leurs mots clés, par un processus manuel. Aujourd’hui nous souhaitons automatiser ce processus, pour proposer aux clients des mots clés susceptibles d'impacter leurs campagnes de façon significative. Une fonctionnalité qui permettra aux annonceurs d'améliorer facilement leurs résultats.
[Début]

* * *

2. Alexa change de moteur

La deuxième info titre Google Dumped by Amazon's Alexa for MSN Live: Google Dump #1, et nous explique que la technologie moteur d'Alexa ne sera plus fournie par Google, comme c'était le cas il y a quelques jours encore :

mais par ... MSN Live ! Il va bientôt falloir que j'ouvre une catégorie Google vs. Microsoft pour compter les coups donnés, fourrés, pris et rendus par chacun des deux protagonistes (et Yahoo!, où est Yahoo !?)...

Or Alexa (dont certaines fonctionnalités sont très très intéressantes) est détenue par Amazon, dont le moteur A9 est encore propulsé par Google. Encore, oui, mais pour combien de temps ?

Et le journaliste, Garrett French, ne se prive pas de mettre en rapport cette info avec les efforts récents d'eBay pour s'associer avec MSN ou Yahoo, en annonçant que la défection d'Alexa n'est que la première d'une longue série à venir, et que le grand gagnant de cette évolution pourrait bien être Ask, le moteur qui monte :
Ask is likely to emerge as the search partner of choice as Google increasingly alienates its former partners by competing with them directly.

« Il est probable qu'Ask deviendra le moteur de prédilection de tous les partenaires actuels de Google que la société de Moutain View est en train de s'aliéner au fur et à mesure qu'elle entre en concurrence directe avec eux. »

À suivre... (je me demande si c'est pas Google qui avait racheté Compaq, en son temps ;-) [Début]


P.S. Mise à jour instantanée : le temps de publier le billet, je viens de lire que ça y est, A9 aussi est passé à la concurrence !


On dirait que la contre-attaque s'organise... [Début]

Tags : , , , ,

dimanche 30 avril 2006

Google et la traduction automatique

Si vous cherchez le service de traduction automatique de Google, c'est par là :-)

Deuxième volet de cet article (trois mois plus tard)
Évolutions...
La réalité de la traduction automatique en 2014

[MàJ - 23 octobre 2007] Un an et demi après la rédaction de ce billet, Google abandonne Systran au profit de son propre système de traduction. Cf. Google, traducteur automatique.

* * *

La puissance de Google est vraiment impressionnante ! La lecture d'un article de ZDNet me permet de revenir sur l'un des aspects de Google que j'avais déjà découvert lors de la présentation 2006 d'Eric Schmidt aux analystes financiers (ce n'était que le mois dernier, et pourtant j'ai l'impression qu'un an a déjà passé !) et qui m'avait intrigué : les ambitions annoncées de Google dans la traduction automatique (lire en fin de diapo 3).
Or un billet paru avant-hier sur le blog du centre de recherche de Google nous en dit plus :
« Because we want to provide everyone with access to all the world's information, including information written in every language, one of the exciting projects at Google Research is machine translation. » (Puisque notre mission consiste à permettre à quiconque d'avoir accès à toute l'information mondiale, notamment l'information écrite dans toutes les langues, l'un des projets les plus ambitieux que conduit notre centre de recherches porte sur la traduction automatique.)
Depuis plus de 20 ans que je lis des tonnes de textes sur la traduction en général, et sur la traduction automatique en particulier, je peux vous dire que le sujet m'intéresse !

De la machine à traduire au phonétographe (ancêtre de la dictée vocale), les premières recherches sur la traduction automatique datent de l'après-guerre et précèdent de plus d'une décennie le développement d'Arpanet. Aujourd'hui on parle plus volontiers de traitement automatique des langues, ou de traitement automatique du langage naturel : TAL / TALN. À ne pas confondre avec les logiciels de TAO, ou traduction assistée par ordinateur, que nous utilisons quotidiennement en traduction professionnelle.

À l'heure actuelle, sur Internet, les systèmes de traduction automatique sont nombreux, vous en trouverez un bon aperçu ici, même si Christophe Asselin devra bientôt modifier son info sur l'outil de traduction de Google (Google utilise la technologie Systran), également intégré dans la barre d'outils de la firme.

En gros, Systran (System Translation), qui est à l'origine de tout le système de traduction automatique de l'Union européenne, excusez du peu !, fait appel à une technologie à base de règles (très sommairement : règles morphologiques, syntaxiques, sémantiques, grammaticales, règles heuristiques de rattachement pour associer les termes entre eux, règles logiques, etc. etc.) appliquées à des vocabulaires et des grammaires définis.

Google, en revanche, a choisi une autre approche :
« (W)e feed the computer with billions of words of text, both monolingual text in the target language, and aligned text consisting of examples of human translations between the languages. We then apply statistical learning techniques to build a translation model. We have achieved very good results in research evaluations. »
qui consiste à gaver les machines de milliards de mots de texte (ce n'est pas la matière première qui lui manque !), ce qu'on appelle la linguistique de corpus (parallèles, alignés ou non), en associant des corpus (ou corpora pour les puristes) monolingues à des bi-textes (en prenant par exemple un site bilingue, ou tri- ou n-lingue, dont les textes sont segmentés puis alignés afin de fournir une mémoire de traduction) pour y appliquer ensuite des techniques d'apprentissage statistiques permettant de construire des modèles de traduction.

Et c'est là où Google est très fort, puisque, dernier arrivé dans ce domaine (où les places sont chères, par ailleurs), il se classe premier en devançant IBM, etc., et en se détachant très nettement de Systran, aussi bien pour la paire linguistique chinois-anglais :


qu'arabe-anglais :


Voir les résultats officiels de l'évaluation sur la traduction automatique faite par le National Institute of Standards and Technology : NIST 2005 - Machine Translation Evaluation Official Results, dont une prochaine édition aura lieu dans deux mois, à suivre donc, comme nous le conseille Google en concluant le billet mentionné plus haut : do stay tuned for more exciting developments.

Pour sûr qu'on va rester « branchés ». Quand je vous parlais de la puissance de Google, vraiment impressionnant !


Partager sur Facebook

[MàJ - 15 juin 2006] Voici deux exemples pour vous donner une idée des résultats de la TA :

1. En consultant mes statistiques, j'ai vu que mon billet sur la dérive publicitaire sur Internet et les incohérences de Google avait été traduit par un visiteur américain sur l'outil de TA de Yahoo (Babelfish). Or une partie de ce billet étant une traduction d'un article paru sur The Motley Fool, j'ai trouvé intéressant de comparer l'original en anglais et sa retraduction du français à l'anglais. Le résultat me semble assez probant :

Mon billet traduit par Yahoo Babelfish Extrait de l'article original de Seth Jayson
Did you already make a research on Internet lately ? Then you will undoubtedly have observed the lack of quality of the results, including at the competitors of Google such as Yahoo! or Ask.com ? And their new design changes nothing there. I am pained by it as much as you. Me also I remained wedged hours and hours in the reels of these farms of bonds, these splogs and other " scraper sites " : sites which seem to have contents, (...), whereas actually, generally it is recycled material coming without their knowledge of other content providers, assembled by automated processes. Any of you try searching lately? Notice the astounding lack of quality across the board, even at revamped competitors like Yahoo! (Nasdaq: YHOO) and IAC/InterActiveCorp's (Nasdaq: IACI) Ask.com? I feel your pain. I, too, have spent hours stuck in the revolving door of link farms, splogs, and scraper sites. These sites look like they contain content, (…). If there is some content there, it's often recycled material from other providers, compiled by an automated process.
The hurluberlus which create this kind of sites have one objective : you to bring to click on the sponsored bonds of Google AdSense. The jokers who create these sites have one goal: Trying to get you to click on a Google AdSense link.
Naturally, these sites do not respect of anything the commercial conditions provided by Google, which does not prevent that they hatch per million. Make just a research on " adsense ready web site " and you will have an idea of this miteuse industry, as discrete as an elephant in a porcelain store, which extracts a maximum of profits from the phenomenon. Of course, such sites run contrary to Google's terms of service, but that hasn't stopped zillions of them from popping up. In fact, a search on "adsense ready web site" will give you a glimpse of the often-sleazy, bigger-than-a-cottage, scraper-site industry that's sprung up to try to capitalize on the phenomenon.
How Google is it killing goose that lays the golden eggs. How Google killed the golden goose.
The problems are numerous, and all the éradiquer could be expensive Google (when well even it would not be impossible). The first concerns the good old man plagiarism. There are multiple problems here, all of which will be costly (if not impossible) for Google to eradicate. The first issue is good old-fashioned thievery.
The majority of these Spam boxes do not have that to attract the barge cliquor, but also to facilitate to the fraud with the clicks on a large scale (...) Besides the public generally the purpose of no idea is from what occurs, even if the Net surfers more informed a little are well-informed. We are unaware of of them only the true proportions. Of aucuns advance a rather restricted percentage of clicks; others say half straightforwardly. In any event, Google, which has very to lose if the things are as badly as certain journalists citizens denounce it, minimizes the figures considerably. Many of these spamsites are set up not just to catch us individual clickers, but also to facilitate larger-scale click fraud (...)Most of the public is entirely clueless about this situation, but people who pay attention to the space know this problem exists. Only its extent is unknown. Some say low teens as a percentage of clicks; others shoot for half. Of course, Google, which has a ton to lose if things are as bad as some outspoken Netizens believe, consistently lowballs the number.
Another factor facilitating this explosion of spammé contents and fraud to the clicks is the seizure of Google on the level of research on Internet, which one can roughly speaking estimate at 60%, in fact a quasi-monopoly. For as much, the consistent argument with saying that the market is enough large to be corrected all alone on the matter is somewhat naive. Without competition and information, the markets do not correct anything the whole, and I do not think that there are today serious competitors able to make the weight. For the moment. The other enabler for the explosion of spam content and click fraud is Google's roughly 60% stranglehold on Web search, which gives it a pretty effective monopoly. That's why I find the "self-correcting market" arguments regarding click fraud more than a tad naive. Markets don't correct without competition and information, and I don't think there's enough of either here to make a difference. Yet.
Take the case of the advertisers ofAdWords which believe that their results are diluted because of the fraud to the clicks. Be sure that they know that the biddings on their key words should cost them less, but can be made hear ? And can they allow it when there are of them thousands and thousands of other loans to be paid more because: (A) they are unaware of all the problem ; (b) they know it only too, but are able thanks to the fraud with the clicks to recover a part of what they spend on other side ? Take AdWords advertisers who believe their results are being watered down by click fraud. Sure, they know they should bid lower on keywords to try to reflect that, but are they going to do it? Can they afford to, with so many others out there who bid high because (a) they don't know about the problem, or (b) they know much more than they should, and they're able to use click fraud to recoup some of what they're paying out?
I do not know the answers, and nor even all the questions. But if the problem is as serious as some fear it, it is all the model of income set up by Google which could suffer from it, even the whole of the business of the pay-per-click. While waiting for the explosion of the farms of bonds and the splogs shows clearly that the fraud with the clicks is juicy and flourishing, at the expense of all the Net surfers. Except of Google. For the moment, there still. I don't know the answers -- or even all of the questions. But if this problem is as bad as some fear, it could eventually put a major crimp in Google's entire revenue model, if not the entire pay-per-click business. I would argue that the explosion of link farms and spamblogs is pretty decent evidence that the click-fraud biz is not only alive and well, but also thriving at the expense of all of us. Except Google. For now, anyway.
Never more ! No mas!
One can believe or not that all these sites bourriels which make trade of AdSense are honest or defrauders in mass, but me that of which I is sure it is that it is necessary to thank Google for this situation. There is indeed no reason to put on line this kind of sites if one cannot draw an income thanks to the model from it from business set up by Google. And with Yahoo! and the other loans to enter the dance, I do not believe that one will see the tendency to be reversed as soon as. Whether or not you believe that the junk sites out there peddling AdSense ads are honest commerce or capitalizing on large-scale click fraud, there's little doubt in my mind that we've got Google to thank for it. There's simply no reason for people to set up these sites if they can't skim dough via third-hand revenue sharing enabled by Google's business model. With Yahoo! and others set to get in on the same gig, I don't think we'll see this trend abate.
I hope only that all that predicts of a return to good old days, now that the blogosphère am likely to lose always more his importance, considering whom it starts to be co-opted by all the traffickers of AdSense and to be diluted quickly. Result : the information providers known for their qualite/fiability - of which much is undoubtedly blogs - will gain there in importance. And as soon as they carry out the capacity of their information, they will want less and less that Google money plunders them and makes on the back of the reputation which they will have put such an amount of labour and energy to be built. I think that bodes for a return to the old days -- that the blogosphere that's being so rapidly diluted and co-opted by these AdSense shenanigans will become a lot less important. As a result, trusted information providers -- and some will doubtlessly be blogs -- will become more important. As they realize the power of their information, they'll be a lot less willing to allow Google to skim dollars off the content and reputation they've worked to build.

2. Vous pouvez également consulter le site d'assistance de Microsoft, où « les fiches d'aide rédigées en anglais sont accessibles dans d'autres langues grâce à la traduction automatique «brute» (sans révision humaine). Ce n'est pas d'une qualité extraordinaire mais généralement ça suffit amplement à dépanner l'utilisateur lambda. Pour un traducteur, travailler à partir de cette traduction automatique ne me semble pas si différent que de travailler à partir de mémoires de traduction avec correspondance approximative (fuzzy matching). » Source : Eurêka.

Suite : Google RS2, traducteur automatique de troisième génération
Évolutions...

, , , , ,

samedi 29 avril 2006

Optimisation du positionnement dans les pages de résultats de Google

Optimisez votre positionnement dans les pages de résultats de Google

Préambule
INTRODUCTION
1. Les rétroliens
2. L'ancienneté
3. Le contenu
4. Le comportement dans les résultats
CONCLUSION
Ressources

* * *

Préambule

Traduction autorisée d'un billet de Dave Davies, intitulé Search Engine Optimization for Google (où l'on voit que l'anglais synthétise résolument plus que le français, 5 mots contre 10 !), publié sur l'Internet Search Engine Database le 19-04-2006.

Cet article, troisième partie d'une série de quatre billets consacrés à l'optimisation des sites Web auprès des trois moteurs de recherche majeurs, nous donne quelques conseils sur l'optimisation de notre positionnement dans les pages de résultats de Google.

* * *


INTRODUCTION

Pour positionner notre site aux meilleures places sur Google, de même que sur les principaux autres moteurs, différents facteurs doivent être pris en compte. Pour Google, les plus importants sont :
  1. les rétroliens
    • Ancienneté des liens
    • Emplacement des liens
    • Texte d'ancrage et format des liens
    • Pertinence des sites qui pointent vers le vôtre
    • PageRank
  2. l'ancienneté
  3. le contenu
  4. le comportement dans les résultats [Début]

1. Les rétroliens

Les rétroliens sont un facteur clé pour obtenir un bon positionnement sur Google, encore plus importants que chez Yahoo ou Microsoft, puisque la méthode de Google pour calculer le poids des rétroliens est très différente de celle des deux autres moteurs. Il y a quelques temps, gagner des liens était essentiellement une question de chiffres, et plus vous aviez de liens, meilleur était votre positionnement. En fait, c'était aussi simple que ça.

Or aujourd'hui, il semble que Google ait affiné son algorithme de recherche pour déterminer quels liens valent plus que d'autres, en fonction de l'échelle d'importance attribuée à certains critères de calcul. Parmi les facteurs clés servant à pondérer la valeur des liens qui vont contribuer au positionnement de votre site :
  • L'ancienneté des liens - Comme pour les noms de domaine, les liens prennent du poids avec l'âge. Sur une page Web donnée, les liens qui comptent plus sont ceux qui s'y trouvent depuis plus longtemps. En gros, si vous développez votre réseau de liens aujourd'hui, vous n'en verrez les résultats que dans quelques mois, puisqu'il semble que la pondération s'améliore avec l'âge : dans un mois, votre lien aura une pondération partielle, dans deux mois il vaudra un peu plus, etc., et dans 5 ou 6 mois il sera au mieux de sa forme.
  • L'emplacement des liens - Pour Google, un indicateur de la valeur d'un lien est sa localisation sur la page. Un lien enfoui dans le footer d'une page n'aura virtuellement aucun poids, contrairement au même lien en haut de page, par exemple là où les visiteurs pourront immédiatement le visualiser.
    Autre facteur de localisation : le positionnement du lien par rapport à son environnement, un lien situé dans un pavé de contenu ayant plus de poids que le même dans une page dédiée aux échanges de liens ou dans un annuaire avec titre et description, puisque le lien fondu dans un rédactionnel indique qu'il s'agit d'un lien organique, plus naturel.
  • Le texte d'ancrage et le format des liens - Le texte de l'ancre du lien lui-même est important, inutile de le dire. Si vous ciblez la phrase clé « sociétés de référencement », mieux vaut utiliser ce texte à l'identique dans l'ancre du lien, témoignage d'une pertinence majeure entre ces mots clés et votre site. Soyez prudents, toutefois : il ne s'agit pas de générer des milliers de liens ayant tous le même libellé, ce qui serait pour le moins suspect. Modifiez autant que possible le texte de vos ancres, en y incluant d'autres mots, et tôt ou tard vos efforts seront récompensés.
    Le format du texte d'ancrage compte également, puisqu'un lien en gras ou en italique signifie l'intention évidente d'attirer l'attention du visiteur, un élément auquel Google accordera donc plus d'importance.
  • La pertinence des sites qui pointent vers le vôtre - Autre facteur clé : si le sujet de votre site est le référencement, un lien provenant d'un site qui parle de bien-être aura moins d'importance que s'il s'agit d'un site offrant des ressources inhérentes à votre secteur.
  • Le PageRank - Bien que la valeur du PageRank semble toujours plus sujette à caution, elle reste cruciale dans le cadre d'une stratégie de liens : entre un lien provenant d'un site ayant un PageRank 5 et un autre ayant un PageRank 2, il est clair que le premier pèse infiniment plus que le second. [Début]

2. L'ancienneté

Dans un brevet déposé en 2004, Google prévenait les référenceurs et les webmasters que l'ancienneté était un facteur de premier plan. Or depuis Google est aussi devenu registreur, ce qui lui permet d'avoir accès à toutes les données et de vérifier l'ancienneté d'un domaine, qui l'a enregistré, qui l'héberge, etc.
Donc plus votre domaine est âgé, plus Google le considère légitime et, partant, plus cet élément aura d'impact sur son positionnement potentiel. Idem pour la durée d'enregistrement. [Début]

3. Le contenu

Lorsqu'il est question de contenu, Google est encore plus attentif que Yahoo ou Microsoft. Même si « le contenu est roi » peut sembler un stéréotype, ce facteur a toujours son importance. Plus vous avez de contenu sur votre site, plus quelqu'un sera à même d'y trouver l'information qu'il recherche. Donc, plus votre contenu est riche, plus Google pensera que les internautes pourront y trouver ce qu'ils cherchent.
Ça ne veut pas dire pour autant que vous devez construire un site de 100 000 pages sur les patates en vous accrochant à tout et n'importe quoi. Votre contenu doit être pertinent, et de préférence bien écrit. Car s'il est vrai qu'un moteur n'est pas capable de juger votre style, vos visiteurs, eux, le sont. D'où l'importance de rédiger à la fois pour les moteurs et pour les internautes. Mais nous y reviendrons...

En général, un blog est une bonne solution pour ajouter facilement du contenu pertinent, pour peu que vous y dédiez un peu de temps (quelques minutes par jour devraient suffire) en postant régulièrement des infos, intéressantes et à jour, sur votre secteur d'activité.

La densité des mots clés compte moins chez Google que chez Yahoo ou Microsoft, même si ce facteur fait aussi partie du jeu du référencement. Et, comme tous les facteurs susceptibles de compter peu ou prou, il doit être pris en considération, sauf peut-être pour des sites moins compétitifs. Si vous ciblez « bed & breakfast à Trifouillis-les-Oies », ne pas être pertinent dans tous les secteurs, passe encore, mais beaucoup de webmasters ne peuvent pas se le permettre. Comme déjà spécifié dans mes précédents articles sur Microsoft et Yahoo, il serait risqué pour moi d'affirmer quelle est la densité optimale, vu que cet optimum peut varier d'un site à l'autre, d'un sujet à l'autre, et fluctuer au fur et à mesure de la mise à jour des algorithmes des moteurs. Ce paramètre doit donc être réexaminé chaque mois, et à chaque fois qu'une mise à jour a lieu. [Début]

4. Le comportement dans les résultats
Comment se comporte votre site dans les résultats est un facteur de progression - ou de régression -, destiné à prendre de plus en plus d'importance au fil du temps. Si votre site ressort sur une phrase spécifique et que personne ne clique dessus, cela pourrait faire chuter son positionnement. Pire encore : votre site est cliqué, et Google détecte après quelques secondes que l'internaute revient sur la page de résultats pour en chercher un autre, alors votre positionnement pourrait chuter davantage.

Pour cette raison, en écrivant les URL et les titres de vos pages et de vos sites, prenez garde à les rédiger pour cibler autant les internautes que les moteurs de recherche. Car si vous voulez un bon référencement sur Google, il faut aussi que les internautes cliquent sur vos liens, faute de quoi vous serez moins bien positionné. C'est un peu la logique du chien qui se mord la queue, mais ce n'en est pas moins vrai pour autant.

Assurez-vous enfin que lorsque les visiteurs qui cliquent vos liens atterrissent sur vos pages, ils puissent y trouver, soit l'information qu'ils sont venus y chercher, soit l'indication claire de là où elle se trouve. Cela semble évident au plan de l'usabilité, mais vu le nombre de sites qui violent ce principe de base, il est toujours bon de le rappeler.
Donc, lorsque vous travaillez à votre référencement, n'oubliez jamais de considérer votre site du point de vue de l'utilisateur, ou mieux encore, d'assurer un suivi de la navigation de vos visiteurs, pour savoir s'ils arrivent à trouver rapidement ce qu'ils cherchent : vous avez au plus trois secondes pour capter leur attention, un délai impératif à respecter.
Et si pour ça vous devez faire appel à un concepteur-développeur pour améliorer et accélérer la navigation sur votre site, il vous en coûtera toujours moins cher que de perdre votre positionnement dans les moteurs avec le manque à gagner qui s'ensuit. [Début]

CONCLUSION

Des trois principaux moteurs de recherche, Google est celui dont l'algorithme est le plus sophistiqué. Vous devez donc le traiter en tant que tel. Les petits trucs ne fonctionnent pas, et même lorsque ça marche, en général ce n'est jamais pour longtemps. Prenez déjà un bon départ :
  • Construisez un site sain et robuste, riche en contenu de qualité et convivial, facile à naviguer et capable d'attirer des visiteurs humains
  • Optimisez la densité de vos mots clés et vérifiez la qualité des liens qui pointent vers vous
Une fois passé le délai d'ancienneté nécessaire et incompressible, soyez sûr que le fruit de vos efforts sera récompensé par Google. [Début]

(c) Dave Davies et ISEdb COM

Traduction (c) Jean-Marie Le Ray - 2006


P.S. Cette traduction est aussi un clin d'oeil à l'ami Mike Bastin, dont je ne sais s'il préfère être décrit comme traducteur ou comme référenceur, qui m'a fait la gentillesse de me mettre un lien avec en texte d'ancrage (puisqu'on en parle) : « blog qui reprend une grande quantité de traductions de documents exclusifs écrits par les plus grands SEO anglophones »...


Ressources pertinentes

L'article de Dave se termine en citant des ressources clés, mais proposées pour un public anglophone. Permettez-moi donc de vous en proposez d'autres, anglo-saxonnes, certes, mais toujours traduites par mes soins (de la plus ancienne à la plus récente) :
- Bloguer, commenter : rédiger, impacter, captiver !
- Stratégies de liens (série interrompue plus longtemps que prévu - Google oblige ! -, que je ne vais pas tarder à reprendre, et dont la Webographie sera essentiellement consacrée à des ressources en langue française)
- Stratégies de liens vs. stratégies de trafic : évoluer avec son temps

Bonne lecture... [Début]


Tags : , , , , , ,

jeudi 27 avril 2006

Histoires de brevets : après Google, Microsoft

Histoires de brevets : après Google, Microsoft

Après Google, voici quelques histoires de brevets signées Microsoft !

Première histoire

Je suis abonné à la lettre d'info quotienne de l'Atelier, une société du Groupe BNP-Paribas qui se définit « La référence en matière de veille technologique » et offre en général un point de vue différent sur l'actualité, que je répute sérieuse et de qualité en dépit d'un niveau d'interactivité pratiquement nul.

Donc, dans le numéro de ce soir, une info a attiré mon attention, catégorie Inventions : Microsoft brevette le tchat télévisuel, qui commence ainsi :
Microsoft vient de se voir reconnaître un brevet pour un système d’affichage de fenêtre de chat...
et se développe en 7 paragraphes :


Or le numéro du brevet n'étant pas mentionné, piqué par la curiosité j'ai voulu en savoir davantage. Prenant une phrase significative, j'ai soumis à Google la requête suivante : Microsoft a obtenu du très officiel US Patent and Trademark Office (USPTO), tout content de trouver le numéro recherché dès le premier résultat, mais un peu étonné quand même d'y retrouver aussi ma phrase à l'identique...


Je n'étais pas au bout de mes surprises ! Extraits.

Silicon (1er paragraphe - sur 5) :
Le brevet 6.766.524 que Microsoft a obtenu du très officiel US Patent and Trademark Office (USPTO), le bureau américain des brevets et des marques, couvre un "système et méthode pour encourager les spectateurs à regarder les programmes de télévision".
L'Atelier (2e partie du 5e paragraphe - sur 7) :
Le brevet que Microsoft a obtenu du très officiel US Patent and Trademark Office (USPTO), le bureau américain des brevets et des marques, couvre un "système et méthode pour encourager les spectateurs à regarder les programmes de télévision".

Silicon (2e paragraphe - sur 5) :
Le principe en est simple. Le téléspectateur est invité à l'issue d'un programme ou d'une publicité TV à se connecter à une page Web pour répondre à des questions portant sur le contenu du programme et gagner des points ou des cadeaux.
L'Atelier (4e paragraphe - sur 7) :
Le principe en est simple. Le téléspectateur est invité à l'issue d'un programme ou d'une publicité TV à se connecter à une page Web pour répondre à des questions portant sur le contenu du programme et gagner des points ou des cadeaux.

Silicon (3e paragraphe - sur 5) :
Rien de bien original, direz-vous, et qui existe déjà. Certes, mais la démarche est suffisamment attractive pour que Microsoft ait pensé à la déposer et cherche à en tirer profit.
L'Atelier (2e partie du 6e paragraphe - sur 7) :
À l'ère des Médias Center, la démarche est suffisamment attractive pour que Microsoft ait pensé à la déposer et cherche à en tirer profit.

Silicon (4e paragraphe - sur 5) :
Et l'éditeur pourrait fonder de grandes ambitions sur ce brevet… Tout d'abord, il est lié à MSN TV, le service de télévision en ligne que Microsoft cherche à promouvoir, et qui exploite les terminaux Internet ou 'set-top box''. Ensuite, parce que ce système préfigure un nouveau mode d'interaction avec le spectateur pour le futur de l'iTV, l'interactive TV.
L'Atelier (7e paragraphe - sur 7) :
Car l'éditeur pourrait fonder de grandes ambitions sur ce brevet... Tout d'abord, il est lié à MSN TV, le service de télévision en ligne que Microsoft cherche à promouvoir, et qui exploite les terminaux Internet ou "set-top box". Ensuite, parce que ce système préfigure un nouveau mode d'interaction avec le spectateur pour le futur de l'iTV, l'interactive TV.

Sans commentaires... si ce n'est que l'Atelier a publié son actu aujourd'hui (jeudi 27 avril 2006), alors que Silicon.fr a sorti l'info, sans l'ombre d'un doute, le ... lundi 26 juillet 2004 (reprise un mois plus tard sur cafeduweb.com, voir une trace ici) !


Après tout, peut-être bien que le journaliste a confondu avec un brevet d'Apple !

* * *

Deuxième histoire

Beaucoup plus grave et dont les conséquences pourraient être bien plus sérieuses...

En faisant mes recherches sur le fameux brevet n° 6.766.524, je suis tombé sur une autre info, qui concerne la validité reconnue début janvier 2006, du brevet de Microsoft portant sur le système FAT, ou table d'allocation des fichiers, une brique fondamentale de MS-DOS qui permet de gérer l'allocation des fichiers sur les disques durs.


Microsoft pourrait donc décider de faire passer à la caisse tous les acteurs concernés (et ça fait du monde...), d'où l'impossibilité probable de maintenir la gratuité des distributions Linux sous licence GPL, un risque considérable pour le développement futur des logiciels libres.
The decision will have a major effect on open source software, such as that represented by Linux. If Microsoft decides to charge Linux developers and users usage fees for FAT, it could become impossible to continue to distribute Linux free of charge under the general public license (GPL) system. At present, Microsoft has yet to comment on the possibility of collecting FAT patent fees for Linux.
Affaire à suivre...

* * *

Troisième histoire

Cette fois, pour changer un peu, Microsoft a perdu contre ... Eolas ! Voir un bout d'explication en français, et un bout de conclusion en anglais. Je savais bien que Maître Eolas était le meilleur !


P.S. Cher Maître, j'ignorais que l'étymologie de votre patronyme signifiât « Embedded Objects Linked Across Systems », fort romantique au demeurant ;-)

Google et Mozilla, même combat : sus à Microsoft !

Google et Mozilla, même combat : sus à Microsoft !

(de Gozilla à Goozilla ?...)


Source du logo : Google fait la promotion de Firefox

Deux mois et demi après la sortie en version Bêta 2 Preview d'Internet Explorer 7, Microsoft annonce la deuxième mouture d'IE7 disponible au téléchargement, toujours en Bêta 2 :


La firme de Bill Gates, probablement fatiguée de se placer deuxième aussi avec les navigateurs, a pompé sur le navigateur de Mozilla les meilleures fonctionnalités (la navigation par onglets, pour en citer une) de celui-ci, tout en annonçant candidement avoir développé IE 7 en réaction au succès de Firefox :

The rise of Firefox was a wake-up call for Microsoft. The result? IE7.
Or la riposte n'a pas tardé, même si elle arrive de là où on ne l'attendait pas vraiment, à savoir de Google, qui a décidé de prendre le mal à la racine et de proposer à tous les fréquentateurs de Google U.S. naviguant avec Internet Explorer de télécharger la Google Bar + Firefox ! Et comme le souligne le président de l'association Mozilla Europe depuis 2003, Christian Nitot :
C'est la première fois que Google mentionne un produit tiers sur sa page d'accueil, laquelle doit être affichée un nombre incalculable de fois par jour.
De son côté, Paul Kim, Director Marketing Produit de Mozilla, a qualifié le 25 avril de « bonne journée », on le comprend !


Cet événement restera-t-il unique ou crééra-t-il un précédent ? L'avenir nous le dira...

Il faut dire aussi que Google s'est peut-être énervé de découvrir certaines extensions pas très catholiques d'IE 7 (source : Nikozen Référencement) :


Je cite : « Doorway Page Wizard guides you through a step by step process to create highly optimized doorway pages for your website. » Donc, pour la somme modique de 49,95 $, le guide à la construction de pages satellites vous accompagne étape par étape pour doter votre site Web de pages satellites hyper optimisées...

À comparer avec les Informations Google destinées aux administrateurs de sites Web, section « Conseils concernant la qualité - Recommandations précises : »

* Évitez les pages satellites (« doorway ») créées exclusivement pour les robots de moteur de recherche ou d'autres solutions telles que les programmes d'affiliation sans véritable contenu informatif. !

Certes, il est vrai que Microsoft ne développe pas directement ces extensions, mais quand même, ça fait désordre ; et si c'est là le seul moyen de concurrencer les extensions Firefox, c'est encore pire ;-)

Dans un autre ordre d'idée, celles et ceux qui veulent participer à la destruction d'Internet Explorer pourront toujours tester ça :


Donc si certains voient rouge, d'autres rient jaune :


Et pour peu que tous réussissent ardemment à inciter les utilisateurs d'IE à passer à Firefox, ça leur fera un bon moyen de monétiser leurs pages / sites Web ! Après tout, business is business, et ce n'est sûrement ni Google ni Microsoft qui diront le contraire...


Tags : , , , , , ,