Pages

dimanche 30 avril 2006

Google et la traduction automatique

Si vous cherchez le service de traduction automatique de Google, c'est par là :-)

Deuxième volet de cet article (trois mois plus tard)
Évolutions...
La réalité de la traduction automatique en 2014

[MàJ - 23 octobre 2007] Un an et demi après la rédaction de ce billet, Google abandonne Systran au profit de son propre système de traduction. Cf. Google, traducteur automatique.

* * *

La puissance de Google est vraiment impressionnante ! La lecture d'un article de ZDNet me permet de revenir sur l'un des aspects de Google que j'avais déjà découvert lors de la présentation 2006 d'Eric Schmidt aux analystes financiers (ce n'était que le mois dernier, et pourtant j'ai l'impression qu'un an a déjà passé !) et qui m'avait intrigué : les ambitions annoncées de Google dans la traduction automatique (lire en fin de diapo 3).
Or un billet paru avant-hier sur le blog du centre de recherche de Google nous en dit plus :
« Because we want to provide everyone with access to all the world's information, including information written in every language, one of the exciting projects at Google Research is machine translation. » (Puisque notre mission consiste à permettre à quiconque d'avoir accès à toute l'information mondiale, notamment l'information écrite dans toutes les langues, l'un des projets les plus ambitieux que conduit notre centre de recherches porte sur la traduction automatique.)
Depuis plus de 20 ans que je lis des tonnes de textes sur la traduction en général, et sur la traduction automatique en particulier, je peux vous dire que le sujet m'intéresse !

De la machine à traduire au phonétographe (ancêtre de la dictée vocale), les premières recherches sur la traduction automatique datent de l'après-guerre et précèdent de plus d'une décennie le développement d'Arpanet. Aujourd'hui on parle plus volontiers de traitement automatique des langues, ou de traitement automatique du langage naturel : TAL / TALN. À ne pas confondre avec les logiciels de TAO, ou traduction assistée par ordinateur, que nous utilisons quotidiennement en traduction professionnelle.

À l'heure actuelle, sur Internet, les systèmes de traduction automatique sont nombreux, vous en trouverez un bon aperçu ici, même si Christophe Asselin devra bientôt modifier son info sur l'outil de traduction de Google (Google utilise la technologie Systran), également intégré dans la barre d'outils de la firme.

En gros, Systran (System Translation), qui est à l'origine de tout le système de traduction automatique de l'Union européenne, excusez du peu !, fait appel à une technologie à base de règles (très sommairement : règles morphologiques, syntaxiques, sémantiques, grammaticales, règles heuristiques de rattachement pour associer les termes entre eux, règles logiques, etc. etc.) appliquées à des vocabulaires et des grammaires définis.

Google, en revanche, a choisi une autre approche :
« (W)e feed the computer with billions of words of text, both monolingual text in the target language, and aligned text consisting of examples of human translations between the languages. We then apply statistical learning techniques to build a translation model. We have achieved very good results in research evaluations. »
qui consiste à gaver les machines de milliards de mots de texte (ce n'est pas la matière première qui lui manque !), ce qu'on appelle la linguistique de corpus (parallèles, alignés ou non), en associant des corpus (ou corpora pour les puristes) monolingues à des bi-textes (en prenant par exemple un site bilingue, ou tri- ou n-lingue, dont les textes sont segmentés puis alignés afin de fournir une mémoire de traduction) pour y appliquer ensuite des techniques d'apprentissage statistiques permettant de construire des modèles de traduction.

Et c'est là où Google est très fort, puisque, dernier arrivé dans ce domaine (où les places sont chères, par ailleurs), il se classe premier en devançant IBM, etc., et en se détachant très nettement de Systran, aussi bien pour la paire linguistique chinois-anglais :


qu'arabe-anglais :


Voir les résultats officiels de l'évaluation sur la traduction automatique faite par le National Institute of Standards and Technology : NIST 2005 - Machine Translation Evaluation Official Results, dont une prochaine édition aura lieu dans deux mois, à suivre donc, comme nous le conseille Google en concluant le billet mentionné plus haut : do stay tuned for more exciting developments.

Pour sûr qu'on va rester « branchés ». Quand je vous parlais de la puissance de Google, vraiment impressionnant !


Partager sur Facebook

[MàJ - 15 juin 2006] Voici deux exemples pour vous donner une idée des résultats de la TA :

1. En consultant mes statistiques, j'ai vu que mon billet sur la dérive publicitaire sur Internet et les incohérences de Google avait été traduit par un visiteur américain sur l'outil de TA de Yahoo (Babelfish). Or une partie de ce billet étant une traduction d'un article paru sur The Motley Fool, j'ai trouvé intéressant de comparer l'original en anglais et sa retraduction du français à l'anglais. Le résultat me semble assez probant :

Mon billet traduit par Yahoo Babelfish Extrait de l'article original de Seth Jayson
Did you already make a research on Internet lately ? Then you will undoubtedly have observed the lack of quality of the results, including at the competitors of Google such as Yahoo! or Ask.com ? And their new design changes nothing there. I am pained by it as much as you. Me also I remained wedged hours and hours in the reels of these farms of bonds, these splogs and other " scraper sites " : sites which seem to have contents, (...), whereas actually, generally it is recycled material coming without their knowledge of other content providers, assembled by automated processes. Any of you try searching lately? Notice the astounding lack of quality across the board, even at revamped competitors like Yahoo! (Nasdaq: YHOO) and IAC/InterActiveCorp's (Nasdaq: IACI) Ask.com? I feel your pain. I, too, have spent hours stuck in the revolving door of link farms, splogs, and scraper sites. These sites look like they contain content, (…). If there is some content there, it's often recycled material from other providers, compiled by an automated process.
The hurluberlus which create this kind of sites have one objective : you to bring to click on the sponsored bonds of Google AdSense. The jokers who create these sites have one goal: Trying to get you to click on a Google AdSense link.
Naturally, these sites do not respect of anything the commercial conditions provided by Google, which does not prevent that they hatch per million. Make just a research on " adsense ready web site " and you will have an idea of this miteuse industry, as discrete as an elephant in a porcelain store, which extracts a maximum of profits from the phenomenon. Of course, such sites run contrary to Google's terms of service, but that hasn't stopped zillions of them from popping up. In fact, a search on "adsense ready web site" will give you a glimpse of the often-sleazy, bigger-than-a-cottage, scraper-site industry that's sprung up to try to capitalize on the phenomenon.
How Google is it killing goose that lays the golden eggs. How Google killed the golden goose.
The problems are numerous, and all the éradiquer could be expensive Google (when well even it would not be impossible). The first concerns the good old man plagiarism. There are multiple problems here, all of which will be costly (if not impossible) for Google to eradicate. The first issue is good old-fashioned thievery.
The majority of these Spam boxes do not have that to attract the barge cliquor, but also to facilitate to the fraud with the clicks on a large scale (...) Besides the public generally the purpose of no idea is from what occurs, even if the Net surfers more informed a little are well-informed. We are unaware of of them only the true proportions. Of aucuns advance a rather restricted percentage of clicks; others say half straightforwardly. In any event, Google, which has very to lose if the things are as badly as certain journalists citizens denounce it, minimizes the figures considerably. Many of these spamsites are set up not just to catch us individual clickers, but also to facilitate larger-scale click fraud (...)Most of the public is entirely clueless about this situation, but people who pay attention to the space know this problem exists. Only its extent is unknown. Some say low teens as a percentage of clicks; others shoot for half. Of course, Google, which has a ton to lose if things are as bad as some outspoken Netizens believe, consistently lowballs the number.
Another factor facilitating this explosion of spammé contents and fraud to the clicks is the seizure of Google on the level of research on Internet, which one can roughly speaking estimate at 60%, in fact a quasi-monopoly. For as much, the consistent argument with saying that the market is enough large to be corrected all alone on the matter is somewhat naive. Without competition and information, the markets do not correct anything the whole, and I do not think that there are today serious competitors able to make the weight. For the moment. The other enabler for the explosion of spam content and click fraud is Google's roughly 60% stranglehold on Web search, which gives it a pretty effective monopoly. That's why I find the "self-correcting market" arguments regarding click fraud more than a tad naive. Markets don't correct without competition and information, and I don't think there's enough of either here to make a difference. Yet.
Take the case of the advertisers ofAdWords which believe that their results are diluted because of the fraud to the clicks. Be sure that they know that the biddings on their key words should cost them less, but can be made hear ? And can they allow it when there are of them thousands and thousands of other loans to be paid more because: (A) they are unaware of all the problem ; (b) they know it only too, but are able thanks to the fraud with the clicks to recover a part of what they spend on other side ? Take AdWords advertisers who believe their results are being watered down by click fraud. Sure, they know they should bid lower on keywords to try to reflect that, but are they going to do it? Can they afford to, with so many others out there who bid high because (a) they don't know about the problem, or (b) they know much more than they should, and they're able to use click fraud to recoup some of what they're paying out?
I do not know the answers, and nor even all the questions. But if the problem is as serious as some fear it, it is all the model of income set up by Google which could suffer from it, even the whole of the business of the pay-per-click. While waiting for the explosion of the farms of bonds and the splogs shows clearly that the fraud with the clicks is juicy and flourishing, at the expense of all the Net surfers. Except of Google. For the moment, there still. I don't know the answers -- or even all of the questions. But if this problem is as bad as some fear, it could eventually put a major crimp in Google's entire revenue model, if not the entire pay-per-click business. I would argue that the explosion of link farms and spamblogs is pretty decent evidence that the click-fraud biz is not only alive and well, but also thriving at the expense of all of us. Except Google. For now, anyway.
Never more ! No mas!
One can believe or not that all these sites bourriels which make trade of AdSense are honest or defrauders in mass, but me that of which I is sure it is that it is necessary to thank Google for this situation. There is indeed no reason to put on line this kind of sites if one cannot draw an income thanks to the model from it from business set up by Google. And with Yahoo! and the other loans to enter the dance, I do not believe that one will see the tendency to be reversed as soon as. Whether or not you believe that the junk sites out there peddling AdSense ads are honest commerce or capitalizing on large-scale click fraud, there's little doubt in my mind that we've got Google to thank for it. There's simply no reason for people to set up these sites if they can't skim dough via third-hand revenue sharing enabled by Google's business model. With Yahoo! and others set to get in on the same gig, I don't think we'll see this trend abate.
I hope only that all that predicts of a return to good old days, now that the blogosphère am likely to lose always more his importance, considering whom it starts to be co-opted by all the traffickers of AdSense and to be diluted quickly. Result : the information providers known for their qualite/fiability - of which much is undoubtedly blogs - will gain there in importance. And as soon as they carry out the capacity of their information, they will want less and less that Google money plunders them and makes on the back of the reputation which they will have put such an amount of labour and energy to be built. I think that bodes for a return to the old days -- that the blogosphere that's being so rapidly diluted and co-opted by these AdSense shenanigans will become a lot less important. As a result, trusted information providers -- and some will doubtlessly be blogs -- will become more important. As they realize the power of their information, they'll be a lot less willing to allow Google to skim dollars off the content and reputation they've worked to build.

2. Vous pouvez également consulter le site d'assistance de Microsoft, où « les fiches d'aide rédigées en anglais sont accessibles dans d'autres langues grâce à la traduction automatique «brute» (sans révision humaine). Ce n'est pas d'une qualité extraordinaire mais généralement ça suffit amplement à dépanner l'utilisateur lambda. Pour un traducteur, travailler à partir de cette traduction automatique ne me semble pas si différent que de travailler à partir de mémoires de traduction avec correspondance approximative (fuzzy matching). » Source : Eurêka.

Suite : Google RS2, traducteur automatique de troisième génération
Évolutions...

, , , , ,

samedi 29 avril 2006

Optimisation du positionnement dans les pages de résultats de Google

Optimisez votre positionnement dans les pages de résultats de Google

Préambule
INTRODUCTION
1. Les rétroliens
2. L'ancienneté
3. Le contenu
4. Le comportement dans les résultats
CONCLUSION
Ressources

* * *

Préambule

Traduction autorisée d'un billet de Dave Davies, intitulé Search Engine Optimization for Google (où l'on voit que l'anglais synthétise résolument plus que le français, 5 mots contre 10 !), publié sur l'Internet Search Engine Database le 19-04-2006.

Cet article, troisième partie d'une série de quatre billets consacrés à l'optimisation des sites Web auprès des trois moteurs de recherche majeurs, nous donne quelques conseils sur l'optimisation de notre positionnement dans les pages de résultats de Google.

* * *


INTRODUCTION

Pour positionner notre site aux meilleures places sur Google, de même que sur les principaux autres moteurs, différents facteurs doivent être pris en compte. Pour Google, les plus importants sont :
  1. les rétroliens
    • Ancienneté des liens
    • Emplacement des liens
    • Texte d'ancrage et format des liens
    • Pertinence des sites qui pointent vers le vôtre
    • PageRank
  2. l'ancienneté
  3. le contenu
  4. le comportement dans les résultats [Début]

1. Les rétroliens

Les rétroliens sont un facteur clé pour obtenir un bon positionnement sur Google, encore plus importants que chez Yahoo ou Microsoft, puisque la méthode de Google pour calculer le poids des rétroliens est très différente de celle des deux autres moteurs. Il y a quelques temps, gagner des liens était essentiellement une question de chiffres, et plus vous aviez de liens, meilleur était votre positionnement. En fait, c'était aussi simple que ça.

Or aujourd'hui, il semble que Google ait affiné son algorithme de recherche pour déterminer quels liens valent plus que d'autres, en fonction de l'échelle d'importance attribuée à certains critères de calcul. Parmi les facteurs clés servant à pondérer la valeur des liens qui vont contribuer au positionnement de votre site :
  • L'ancienneté des liens - Comme pour les noms de domaine, les liens prennent du poids avec l'âge. Sur une page Web donnée, les liens qui comptent plus sont ceux qui s'y trouvent depuis plus longtemps. En gros, si vous développez votre réseau de liens aujourd'hui, vous n'en verrez les résultats que dans quelques mois, puisqu'il semble que la pondération s'améliore avec l'âge : dans un mois, votre lien aura une pondération partielle, dans deux mois il vaudra un peu plus, etc., et dans 5 ou 6 mois il sera au mieux de sa forme.
  • L'emplacement des liens - Pour Google, un indicateur de la valeur d'un lien est sa localisation sur la page. Un lien enfoui dans le footer d'une page n'aura virtuellement aucun poids, contrairement au même lien en haut de page, par exemple là où les visiteurs pourront immédiatement le visualiser.
    Autre facteur de localisation : le positionnement du lien par rapport à son environnement, un lien situé dans un pavé de contenu ayant plus de poids que le même dans une page dédiée aux échanges de liens ou dans un annuaire avec titre et description, puisque le lien fondu dans un rédactionnel indique qu'il s'agit d'un lien organique, plus naturel.
  • Le texte d'ancrage et le format des liens - Le texte de l'ancre du lien lui-même est important, inutile de le dire. Si vous ciblez la phrase clé « sociétés de référencement », mieux vaut utiliser ce texte à l'identique dans l'ancre du lien, témoignage d'une pertinence majeure entre ces mots clés et votre site. Soyez prudents, toutefois : il ne s'agit pas de générer des milliers de liens ayant tous le même libellé, ce qui serait pour le moins suspect. Modifiez autant que possible le texte de vos ancres, en y incluant d'autres mots, et tôt ou tard vos efforts seront récompensés.
    Le format du texte d'ancrage compte également, puisqu'un lien en gras ou en italique signifie l'intention évidente d'attirer l'attention du visiteur, un élément auquel Google accordera donc plus d'importance.
  • La pertinence des sites qui pointent vers le vôtre - Autre facteur clé : si le sujet de votre site est le référencement, un lien provenant d'un site qui parle de bien-être aura moins d'importance que s'il s'agit d'un site offrant des ressources inhérentes à votre secteur.
  • Le PageRank - Bien que la valeur du PageRank semble toujours plus sujette à caution, elle reste cruciale dans le cadre d'une stratégie de liens : entre un lien provenant d'un site ayant un PageRank 5 et un autre ayant un PageRank 2, il est clair que le premier pèse infiniment plus que le second. [Début]

2. L'ancienneté

Dans un brevet déposé en 2004, Google prévenait les référenceurs et les webmasters que l'ancienneté était un facteur de premier plan. Or depuis Google est aussi devenu registreur, ce qui lui permet d'avoir accès à toutes les données et de vérifier l'ancienneté d'un domaine, qui l'a enregistré, qui l'héberge, etc.
Donc plus votre domaine est âgé, plus Google le considère légitime et, partant, plus cet élément aura d'impact sur son positionnement potentiel. Idem pour la durée d'enregistrement. [Début]

3. Le contenu

Lorsqu'il est question de contenu, Google est encore plus attentif que Yahoo ou Microsoft. Même si « le contenu est roi » peut sembler un stéréotype, ce facteur a toujours son importance. Plus vous avez de contenu sur votre site, plus quelqu'un sera à même d'y trouver l'information qu'il recherche. Donc, plus votre contenu est riche, plus Google pensera que les internautes pourront y trouver ce qu'ils cherchent.
Ça ne veut pas dire pour autant que vous devez construire un site de 100 000 pages sur les patates en vous accrochant à tout et n'importe quoi. Votre contenu doit être pertinent, et de préférence bien écrit. Car s'il est vrai qu'un moteur n'est pas capable de juger votre style, vos visiteurs, eux, le sont. D'où l'importance de rédiger à la fois pour les moteurs et pour les internautes. Mais nous y reviendrons...

En général, un blog est une bonne solution pour ajouter facilement du contenu pertinent, pour peu que vous y dédiez un peu de temps (quelques minutes par jour devraient suffire) en postant régulièrement des infos, intéressantes et à jour, sur votre secteur d'activité.

La densité des mots clés compte moins chez Google que chez Yahoo ou Microsoft, même si ce facteur fait aussi partie du jeu du référencement. Et, comme tous les facteurs susceptibles de compter peu ou prou, il doit être pris en considération, sauf peut-être pour des sites moins compétitifs. Si vous ciblez « bed & breakfast à Trifouillis-les-Oies », ne pas être pertinent dans tous les secteurs, passe encore, mais beaucoup de webmasters ne peuvent pas se le permettre. Comme déjà spécifié dans mes précédents articles sur Microsoft et Yahoo, il serait risqué pour moi d'affirmer quelle est la densité optimale, vu que cet optimum peut varier d'un site à l'autre, d'un sujet à l'autre, et fluctuer au fur et à mesure de la mise à jour des algorithmes des moteurs. Ce paramètre doit donc être réexaminé chaque mois, et à chaque fois qu'une mise à jour a lieu. [Début]

4. Le comportement dans les résultats
Comment se comporte votre site dans les résultats est un facteur de progression - ou de régression -, destiné à prendre de plus en plus d'importance au fil du temps. Si votre site ressort sur une phrase spécifique et que personne ne clique dessus, cela pourrait faire chuter son positionnement. Pire encore : votre site est cliqué, et Google détecte après quelques secondes que l'internaute revient sur la page de résultats pour en chercher un autre, alors votre positionnement pourrait chuter davantage.

Pour cette raison, en écrivant les URL et les titres de vos pages et de vos sites, prenez garde à les rédiger pour cibler autant les internautes que les moteurs de recherche. Car si vous voulez un bon référencement sur Google, il faut aussi que les internautes cliquent sur vos liens, faute de quoi vous serez moins bien positionné. C'est un peu la logique du chien qui se mord la queue, mais ce n'en est pas moins vrai pour autant.

Assurez-vous enfin que lorsque les visiteurs qui cliquent vos liens atterrissent sur vos pages, ils puissent y trouver, soit l'information qu'ils sont venus y chercher, soit l'indication claire de là où elle se trouve. Cela semble évident au plan de l'usabilité, mais vu le nombre de sites qui violent ce principe de base, il est toujours bon de le rappeler.
Donc, lorsque vous travaillez à votre référencement, n'oubliez jamais de considérer votre site du point de vue de l'utilisateur, ou mieux encore, d'assurer un suivi de la navigation de vos visiteurs, pour savoir s'ils arrivent à trouver rapidement ce qu'ils cherchent : vous avez au plus trois secondes pour capter leur attention, un délai impératif à respecter.
Et si pour ça vous devez faire appel à un concepteur-développeur pour améliorer et accélérer la navigation sur votre site, il vous en coûtera toujours moins cher que de perdre votre positionnement dans les moteurs avec le manque à gagner qui s'ensuit. [Début]

CONCLUSION

Des trois principaux moteurs de recherche, Google est celui dont l'algorithme est le plus sophistiqué. Vous devez donc le traiter en tant que tel. Les petits trucs ne fonctionnent pas, et même lorsque ça marche, en général ce n'est jamais pour longtemps. Prenez déjà un bon départ :
  • Construisez un site sain et robuste, riche en contenu de qualité et convivial, facile à naviguer et capable d'attirer des visiteurs humains
  • Optimisez la densité de vos mots clés et vérifiez la qualité des liens qui pointent vers vous
Une fois passé le délai d'ancienneté nécessaire et incompressible, soyez sûr que le fruit de vos efforts sera récompensé par Google. [Début]

(c) Dave Davies et ISEdb COM

Traduction (c) Jean-Marie Le Ray - 2006


P.S. Cette traduction est aussi un clin d'oeil à l'ami Mike Bastin, dont je ne sais s'il préfère être décrit comme traducteur ou comme référenceur, qui m'a fait la gentillesse de me mettre un lien avec en texte d'ancrage (puisqu'on en parle) : « blog qui reprend une grande quantité de traductions de documents exclusifs écrits par les plus grands SEO anglophones »...


Ressources pertinentes

L'article de Dave se termine en citant des ressources clés, mais proposées pour un public anglophone. Permettez-moi donc de vous en proposez d'autres, anglo-saxonnes, certes, mais toujours traduites par mes soins (de la plus ancienne à la plus récente) :
- Bloguer, commenter : rédiger, impacter, captiver !
- Stratégies de liens (série interrompue plus longtemps que prévu - Google oblige ! -, que je ne vais pas tarder à reprendre, et dont la Webographie sera essentiellement consacrée à des ressources en langue française)
- Stratégies de liens vs. stratégies de trafic : évoluer avec son temps

Bonne lecture... [Début]


Tags : , , , , , ,

jeudi 27 avril 2006

Histoires de brevets : après Google, Microsoft

Histoires de brevets : après Google, Microsoft

Après Google, voici quelques histoires de brevets signées Microsoft !

Première histoire

Je suis abonné à la lettre d'info quotienne de l'Atelier, une société du Groupe BNP-Paribas qui se définit « La référence en matière de veille technologique » et offre en général un point de vue différent sur l'actualité, que je répute sérieuse et de qualité en dépit d'un niveau d'interactivité pratiquement nul.

Donc, dans le numéro de ce soir, une info a attiré mon attention, catégorie Inventions : Microsoft brevette le tchat télévisuel, qui commence ainsi :
Microsoft vient de se voir reconnaître un brevet pour un système d’affichage de fenêtre de chat...
et se développe en 7 paragraphes :


Or le numéro du brevet n'étant pas mentionné, piqué par la curiosité j'ai voulu en savoir davantage. Prenant une phrase significative, j'ai soumis à Google la requête suivante : Microsoft a obtenu du très officiel US Patent and Trademark Office (USPTO), tout content de trouver le numéro recherché dès le premier résultat, mais un peu étonné quand même d'y retrouver aussi ma phrase à l'identique...


Je n'étais pas au bout de mes surprises ! Extraits.

Silicon (1er paragraphe - sur 5) :
Le brevet 6.766.524 que Microsoft a obtenu du très officiel US Patent and Trademark Office (USPTO), le bureau américain des brevets et des marques, couvre un "système et méthode pour encourager les spectateurs à regarder les programmes de télévision".
L'Atelier (2e partie du 5e paragraphe - sur 7) :
Le brevet que Microsoft a obtenu du très officiel US Patent and Trademark Office (USPTO), le bureau américain des brevets et des marques, couvre un "système et méthode pour encourager les spectateurs à regarder les programmes de télévision".

Silicon (2e paragraphe - sur 5) :
Le principe en est simple. Le téléspectateur est invité à l'issue d'un programme ou d'une publicité TV à se connecter à une page Web pour répondre à des questions portant sur le contenu du programme et gagner des points ou des cadeaux.
L'Atelier (4e paragraphe - sur 7) :
Le principe en est simple. Le téléspectateur est invité à l'issue d'un programme ou d'une publicité TV à se connecter à une page Web pour répondre à des questions portant sur le contenu du programme et gagner des points ou des cadeaux.

Silicon (3e paragraphe - sur 5) :
Rien de bien original, direz-vous, et qui existe déjà. Certes, mais la démarche est suffisamment attractive pour que Microsoft ait pensé à la déposer et cherche à en tirer profit.
L'Atelier (2e partie du 6e paragraphe - sur 7) :
À l'ère des Médias Center, la démarche est suffisamment attractive pour que Microsoft ait pensé à la déposer et cherche à en tirer profit.

Silicon (4e paragraphe - sur 5) :
Et l'éditeur pourrait fonder de grandes ambitions sur ce brevet… Tout d'abord, il est lié à MSN TV, le service de télévision en ligne que Microsoft cherche à promouvoir, et qui exploite les terminaux Internet ou 'set-top box''. Ensuite, parce que ce système préfigure un nouveau mode d'interaction avec le spectateur pour le futur de l'iTV, l'interactive TV.
L'Atelier (7e paragraphe - sur 7) :
Car l'éditeur pourrait fonder de grandes ambitions sur ce brevet... Tout d'abord, il est lié à MSN TV, le service de télévision en ligne que Microsoft cherche à promouvoir, et qui exploite les terminaux Internet ou "set-top box". Ensuite, parce que ce système préfigure un nouveau mode d'interaction avec le spectateur pour le futur de l'iTV, l'interactive TV.

Sans commentaires... si ce n'est que l'Atelier a publié son actu aujourd'hui (jeudi 27 avril 2006), alors que Silicon.fr a sorti l'info, sans l'ombre d'un doute, le ... lundi 26 juillet 2004 (reprise un mois plus tard sur cafeduweb.com, voir une trace ici) !


Après tout, peut-être bien que le journaliste a confondu avec un brevet d'Apple !

* * *

Deuxième histoire

Beaucoup plus grave et dont les conséquences pourraient être bien plus sérieuses...

En faisant mes recherches sur le fameux brevet n° 6.766.524, je suis tombé sur une autre info, qui concerne la validité reconnue début janvier 2006, du brevet de Microsoft portant sur le système FAT, ou table d'allocation des fichiers, une brique fondamentale de MS-DOS qui permet de gérer l'allocation des fichiers sur les disques durs.


Microsoft pourrait donc décider de faire passer à la caisse tous les acteurs concernés (et ça fait du monde...), d'où l'impossibilité probable de maintenir la gratuité des distributions Linux sous licence GPL, un risque considérable pour le développement futur des logiciels libres.
The decision will have a major effect on open source software, such as that represented by Linux. If Microsoft decides to charge Linux developers and users usage fees for FAT, it could become impossible to continue to distribute Linux free of charge under the general public license (GPL) system. At present, Microsoft has yet to comment on the possibility of collecting FAT patent fees for Linux.
Affaire à suivre...

* * *

Troisième histoire

Cette fois, pour changer un peu, Microsoft a perdu contre ... Eolas ! Voir un bout d'explication en français, et un bout de conclusion en anglais. Je savais bien que Maître Eolas était le meilleur !


P.S. Cher Maître, j'ignorais que l'étymologie de votre patronyme signifiât « Embedded Objects Linked Across Systems », fort romantique au demeurant ;-)

Google et Mozilla, même combat : sus à Microsoft !

Google et Mozilla, même combat : sus à Microsoft !

(de Gozilla à Goozilla ?...)


Source du logo : Google fait la promotion de Firefox

Deux mois et demi après la sortie en version Bêta 2 Preview d'Internet Explorer 7, Microsoft annonce la deuxième mouture d'IE7 disponible au téléchargement, toujours en Bêta 2 :


La firme de Bill Gates, probablement fatiguée de se placer deuxième aussi avec les navigateurs, a pompé sur le navigateur de Mozilla les meilleures fonctionnalités (la navigation par onglets, pour en citer une) de celui-ci, tout en annonçant candidement avoir développé IE 7 en réaction au succès de Firefox :

The rise of Firefox was a wake-up call for Microsoft. The result? IE7.
Or la riposte n'a pas tardé, même si elle arrive de là où on ne l'attendait pas vraiment, à savoir de Google, qui a décidé de prendre le mal à la racine et de proposer à tous les fréquentateurs de Google U.S. naviguant avec Internet Explorer de télécharger la Google Bar + Firefox ! Et comme le souligne le président de l'association Mozilla Europe depuis 2003, Christian Nitot :
C'est la première fois que Google mentionne un produit tiers sur sa page d'accueil, laquelle doit être affichée un nombre incalculable de fois par jour.
De son côté, Paul Kim, Director Marketing Produit de Mozilla, a qualifié le 25 avril de « bonne journée », on le comprend !


Cet événement restera-t-il unique ou crééra-t-il un précédent ? L'avenir nous le dira...

Il faut dire aussi que Google s'est peut-être énervé de découvrir certaines extensions pas très catholiques d'IE 7 (source : Nikozen Référencement) :


Je cite : « Doorway Page Wizard guides you through a step by step process to create highly optimized doorway pages for your website. » Donc, pour la somme modique de 49,95 $, le guide à la construction de pages satellites vous accompagne étape par étape pour doter votre site Web de pages satellites hyper optimisées...

À comparer avec les Informations Google destinées aux administrateurs de sites Web, section « Conseils concernant la qualité - Recommandations précises : »

* Évitez les pages satellites (« doorway ») créées exclusivement pour les robots de moteur de recherche ou d'autres solutions telles que les programmes d'affiliation sans véritable contenu informatif. !

Certes, il est vrai que Microsoft ne développe pas directement ces extensions, mais quand même, ça fait désordre ; et si c'est là le seul moyen de concurrencer les extensions Firefox, c'est encore pire ;-)

Dans un autre ordre d'idée, celles et ceux qui veulent participer à la destruction d'Internet Explorer pourront toujours tester ça :


Donc si certains voient rouge, d'autres rient jaune :


Et pour peu que tous réussissent ardemment à inciter les utilisateurs d'IE à passer à Firefox, ça leur fera un bon moyen de monétiser leurs pages / sites Web ! Après tout, business is business, et ce n'est sûrement ni Google ni Microsoft qui diront le contraire...


Tags : , , , , , ,

mercredi 26 avril 2006

Le business des noms de domaine : les taste-domaines

Le business des noms de domaine : les taste-domaines

Dans la foulée du précédent billet sur les noms de domaine, je voudrais aborder un problème dont on n'a encore que peu d'échos sur le Web francophone, mais qui pourrait bien faire de plus en plus de vagues dans les semaines et les mois à venir. J'ai nommé le « Domain Tasting », un phénomène que dénonce avec force Bob Parsons, PDG du premier Registrar américain, GoDaddy.com, qu’il appelle « the Add/drop scheme ».

Voyons un peu de quoi il s'agit et quelle terminologie nous pourrions utiliser : pour ma part je choisirais « le modèle j'essaie - je prends/je jette », à savoir que j'enregistre le domaine et je le mets sur une page parking, puis si je vois que le trafic (essentiellement en saisie directe, ou type-in) peut devenir rentable je le prends, sinon je le « jette » et l'ICANN me rembourse obligeamment mes frais d'enregistrement...

Je n'ai trouvé que très peu d'infos en français, sauf deux sources vraiment dignes d'intérêt, qui expliquent assez bien le mécanisme, ici et . La première met l'accent sur la faillite du mode de gouvernance de l'ICANN, la seconde sur l’alarme lancée par le registre du .ORG (en anglais). Si vous en connaissez d'autres, merci de bien vouloir me les signaler.

La combine, assez simple, consiste à profiter du délai de grâce (Add Grace Period) de 5 jours concédé depuis 2003 par l'ICANN à toute personne qui, s'apercevant d'une erreur d'enregistrement, peut alors annuler la procédure et récupérer sa mise. Cela se passe sur le second marché des noms de domaine, une espèce de Bourse où se mêlent les noms arrivés à expiration et ceux dont leurs propriétaires veulent se débarrasser, le plus souvent en les vendant.

Or dans cette Bourse aux domaines, essentiellement fréquentée par courtiers, vendeurs, acheteurs, spéculateurs, agrégateurs, domaineurs et/ou registreurs, le volume des négociations est de plus en plus considérable : selon un document (en anglais) de l'OCDE déclassé le mois dernier (de confidentiel à public), qui reprend les sources d'un rapport publié par VeriSign en juin 2005, sur 12 mois (juin 2004-2005), près de 1 700 000 000 (1 milliard 700 millions !!!) de domaines ont été « ajoutés » (Add) au système de Registre commun (SRS - Shared Registry System) :

Chiffres en hausse, puisque Ipwalk.com situe maintenant la fourchette entre 1 000 000 et 1 400 000 domaines par jour :


On comprend d'ailleurs mieux que les spécialistes du taste-domaines aient hâte de tester ceux qui marchent le mieux au vu des enjeux économiques sous-jacents : 3 des 5 plus gros registreurs ont déclaré fin 2005 qu'ils gagnaient entre 5 et 8 millions de dollars par an grâce à la « monétisation des noms de domaine stationnés » !

Source Joi Ito :
According to Ram Mohan from Afilias, 3 of the big 5 registrars say that they make over $5m-$8m / year from parked domain monetization pages.
Mais écoutons la mise en garde de Bob Parsons, qui prédit une explosion du phénomène si rien n'est fait, et dont les infos sont de première main, parfaitement à jour et encore plus impressionnantes que ce qui précède (traduction autorisée) :
Il est crucial de bien appréhender l'énormité du problème : le 31 mars 2006, 764 672 .COM ont été enregistrés, dont seuls 61 169 ont été retenus après expiration de la période de grâce de 5 jours. Ce qui signifie que 703 503 de ces noms (soit 92%) ont été « jetés » ensuite — et remboursés par l'ICANN (c'est moi qui ajoute et souligne).

La part du lion revient aux registreurs (probablement à hauteur de 99%) qui participent à ce petit jeu.

Sur la semaine du 27 mars au 2 avril 2006, 5 822 881 .COM été enregistrés, dont 455 918 ont été retenus et 5 366 963 (soit 92,1%) jetés.

Là encore, 99% de ces domaines ont été abandonnés par les registreurs
(qui ont récupéré ensuite leur mise, c'est toujours moi qui souligne).

Et le phénomène ne va qu'en s'amplifiant : au jour d'aujourd'hui, j'estime que plus de 3 500 000 .COM sont ainsi pris/jetés chaque jour. Pour mettre ces chiffres en perspective, il suffit de penser qu'au 2 avril, le total des .COM enregistrés dans le monde était de 48 868 756.

De mars 2005 à mars 2006, l'ampleur du problème a été multipliée par 15 !

En effet, en mars 2005, au total 3 243 967 .COM ont été enregistrés, dont 1 851 778 qui ont été abandonnés durant la période de grâce (la plupart dans le cadre de cette approche « je prends/je jette »).


Donc, en un an à peine, le phénomème a explosé, puisqu'en mars 2006, 29 894 290 .COM ont été enregistrés, un chiffre faramineux, dont 27 660 668 (soit 92,5%) abandonnés ensuite.

L'affaire est devenue si juteuse que chaque jour de plus en plus de sociétés réclament leur part du gâteau. Et ce qui ne concernait hier que les .COM s'étend maintenant aux .NET et .ORG.


En conclusion, si rien n'est fait, le désastre va prendre des proportions gigantesques. Une prise de conscience s'impose...
Voilà. Dans mon précédent billet, il était déjà question des abus des registreurs, cela ne fait que corroborer les faits. Quant à Bob Parsons, qui avait déjà épinglé la grande manigance autour du .EU, en disant que c'était même pire que ce qu'il croyait (ici et ), et continue de dénoncer les accords entre l'ICANN et Verisign, cette fois, on ne pourra pas dire de la source qu'elle n'est pas fiable !

Que celles et ceux qui ne connaissent pas GoDaddy.com consultent le dernier rapport de Verisign (en anglais). Sur les 465 registreurs analysés (grand absent de la liste : Google...), seuls 10 « font » plus de 1 million de domaines, .COM et . NET confondus (dans les proportions suivantes) :



Source : ICANN/VeriSign (information fournie aux termes des accords en vigueur entre VeriSign et l’ICANN, qui s’engage à garder le Rapport confidentiel avant que ne se soit écoulé un délai de 3 mois à compter du mois de publication. Donc, celui-ci concernant la situation au 31 décembre 2005, il n’a été publié que début d’avril.)

Que dire de plus ? Sinon que dans la vie réelle comme dans la vie virtuelle, on nous prend toujours pour des cons ! Là, au moins, il y a continuité...



P.S. [MàJ - 30-04-06] Suite au signalement de Patrick Mevzek en commentaire, voici une capture d'écran plus éloquente que les mots, où l'on voit en rouge le pic des suppressions des domaines avant l'expiration des 5 jours, et l'amplification du phénomène à partir d'octobre 2005 :



[MàJ 2 - 22-05-06] Après le domain tasting, voici le domain kiting.

Tags : , , , , , , , ,

mardi 25 avril 2006

Google et le business des noms de domaine - II

Google et le business des noms de domaine - Du type-in au typo-in...

Chose promise, chose due : suite annoncée du billet Google et le business des noms de domaine, publié le 5 février dernier, dans lequel je tentais de décrire succinctement le service « AdSense for domains » de Google et les incursions de la firme de Mountain View dans la sémantique contextuelle.

Le billet se terminait sur le chapitre Du type-in au typo-in..., un sujet brûlant qui concerne les trois volets de la saisie directe (ou type-in, c'est-à-dire lorsque vous écrivez directement un nom de domaine dans la barre d'adresse du navigateur) :
  1. les noms de marque
  2. les coquilles
  3. les noms communs génériques
Les domaines associés aux points 1. et 2. sont habituellement qualifiés de cybersquatting et typosquatting, ce qui se comprend lorsque les noms incriminés portent atteinte aux droits d'une marque, d'une personnalité ou autre. L'AFNIC est très active sur le sujet.
Or ces concepts sont-ils aussi applicables aux noms communs génériques et aux coquilles portant sur des noms communs génériques ? Et n'y a-t-il pas là un marché légal, dès lors que les noms de marque ne sont pas touchés ? Il serait urgent de répondre à ces questions, vu que l'émergence des noms de domaine multilingues (ou accentués, ou IDN) ne va pas tarder à soulever de nombreux conflits, faute d'une législation claire en la matière.
Apparemment, comme toujours, les positions diffèrent du tout au tout des deux côtés de l'Atlantique. J'ai aussi lu quelque part (je ne me souviens plus de la source) que ce mode de recherche est davantage pratiqué par les anglo-saxons que par les francophones, autre signe des diversités nombreuses qui caractérisent les différentes « cultures Web ».

L'occasion de revenir sur la question m'est donnée par une actu sortie hier, dont le titre traduit est « Le dispositif anti-typosquatting de Microsoft pourrait faire du tort à Google » (Microsoft's anti-typosquatting ploy could hurt Google), qui annonce peut-être de nouveaux grands chamboulements :

En bref, il s'agit d'une fonctionnalité nommée Typo-Patrol, intégrée à un logiciel développé par le centre de recherche de Microsoft : Strider URL Tracer, qui vous permet de générer des typos (ou coquilles, ou fautes de frappe, etc.) à la volée à partir d'une URL quelconque, puis de sélectionner les noms que vous voulez vérifier et de tracer ensuite les résultats qui vous intéressent en ouvrant les adresses correspondantes dans Internet Explorer.

Pour avoir une idée de ce qu'est un générateur de typos, entrez un nom quelconque (anglais de préférence) dans le champ ci-dessous :

Keyword Typo Generator Tool © SEO Chat™

Keyword
or keyterm


On trouve plusieurs outils de ce type sur Internet, en voici un autre.

Donc, toujours selon l'article mentionné plus haut, le business des noms de domaine avec coquilles (typo DNs) représenterait plus de 3 millions de sites (!), soit près de 4 % du parc mondial des domaines enregistrés, autant d'usines à monétiser : soit avec les AdSense, soit en redirigeant les visiteurs vers des sites pornos, soit pour capter les courriels à des fins de phishing ou autres...

Le journaliste, Stuart Corner (qui répète telle quelle l'info d'IpWalk), rapporte le cas de Disney, qui compterait plus de 1 500 variantes à lui seul !
For only Disney-related .com domain names, Ipwalk found over 260 typo variations of the popular "disneychannel.com", owned by DomainCar, all of them leading to ad pages. "The actual number is bound to be much higher, since the examination used a limited set of typos," it noted. "Additionally, 957 domain names contained the word 'disney', and 338 domain names contained the test set of seven 'disney' typos."
Juste pour faire un exemple avec dysney.com :

À noter la subtilité de cette page, où l'on vous prévient seulement que ce nom a été réservé, sans plus. Mais en attendant, il est fort probable qu'en ne trouvant pas ce que l'on cherche notre regard soit attiré par l'une des annonces et que notre curiosité naturelle fasse le reste...

Ce qui est intéressant aussi, c'est de noter que ce système a toutes les apparences de la légalité. On vous prévient qu'aucun pourriel ne sera expédié depuis ce domaine, mais que si c'était le cas, il faudrait les prévenir immédiatement...

Quant à Dotzup, autre acteur de ce marché, la lecture de leur manifeste nous éclaire encore plus sur ce désir de faire du business avec les typos tout en restant dans la légalité :
  • Notice the absence of Trademarks
  • Notice the absence of Pending Deletes
  • Notice the absence of gambling, adult, offensive, or obnoxious
Tout en précisant : « Notice that we do very nicely with misspells. » (en gros, Observez que nous faisons de bonnes affaires avec les coquilles, sous-entendu : légalement). D'ailleurs, quand on voit les chiffres annoncés :

on comprend bien que l'affaire est juteuse et que mieux vaut essayer de légitimiser ce business plutôt que de s'enliser dans des procès sans fin.

Autre exemple : DomainSponsor, aujourd'hui Revenue.net, qui annonce un pactole de +5 milliards de pages affichées par mois sur son réseau :

Over 5 billion impressions per month ! Pour imaginer le C.A., vous n'avez plus qu'à tenter d'appliquer la formule Google... :-)

Alors voilà, si Microsoft s'en mêle, comme le souligne l'article, c'est le commencement de la fin pour les typosquatters, en conséquence de quoi les gros fournisseurs de pub sur les pages parking de domaines vont s'en ressentir, notamment Sedo et Google :
Microsoft’s initiative could be the beginning of the end for typo-squatting, which in turn could hurt providers of ad pages such as Sedo and Google who would lose exposure of their ad pages
Dans un autre registre, Sedo semble vouloir se démarquer totalement :
As advertiser awareness of direct navigation continues to rise, value will be concentrated in domains that offer an attractive advertising platform-- namely, category-owning, commercially-oriented generic domains-- at the expense of domains where most businesses would not want to see their advertisements-- eg, typos and potential TM domains.
de même que DomainCar :

Our system finds pre-owned, usually expired and preregistered domains using computer formulas. We don't look at each domain we register. If a domain we have affects you or your trademark dont't hesitate to contact us so we can resolve the issue immediately.
* * *
Affaire à suivre, donc, que cet autre conflit potentiel entre les intérêts respectifs de Google et Microsoft, qui en a probablement marre d'être toujours à la traîne...

D'autant plus qu'il est étonnant de constater que les plus gros enregistreurs de noms de domaine génériques (avec ou sans coquilles) sont ... les Registrars, c'est-à-dire les centres d'enregistrement eux-mêmes ! Comme le mentionne Domaine.info :
D'autres personnes (spécialement les Registrars : bureaux d'enregistrement) ont su voir la poule aux oeufs d'or et ont enregistré massivement tous les noms possibles et imaginables en .com à partir du moment où ils pouvaient venir à l'esprit de quelqu'un, dans la bonne ou mauvaise orthographe.
(...)
Les fameux Registrars : bureaux d'enregistrements. Plus de 70% des noms les plus génériques et intéressants vont directement dans la base des bureaux d'enregistrement pour être revendus ou exploités pour leurs qualités en tant que mots-clefs. Même s'ils ne sont pas aussi génériques et intuitifs que ceux en .com ou .fr, quelques clics par an suffiraient à amortir les frais d'acquisition. Le temps du premier arrivé premier servi est bien révolu. Il faudra désormais parler de : Premier Registrar venu, Premier Registrar servi !
Enfin, sur cette orientation vers la légalité, je reprendrai un exemple que fait l'AFNIC dans son avertissement sur les noms de domaine internationalisés (IDN) (qui date quand même de février 2003, je note au passage), à propos des problèmes juridiques susceptibles de se poser :
...parce que l'ouverture des noms « IDN » pourrait entraîner une vague de dépôts portant préjudice aux détenteurs de marques - ou simplement de noms « ASCII » traditionnels qui risqueraient ensuite de souffrir des nuisances causées par ces tiers en termes de captation de trafic par exemple (café.fr venant capter les visiteurs de cafe.fr).
en concluant sur quelques questions :
  1. Depuis plus de trois ans qu'il est possible d'enregistrer des IDN pour moins de 10 euros par an, pourquoi le titulaire de cafe.fr n'a-t-il donc pas enregistré café.fr ?
  2. Si l'on suit ce raisonnement pernicieux, qu'est-ce qui empêcherait cafe.fr de poursuivre aussi cafes.fr au motif des « nuisances causées ... en termes de captation de trafic » ?
  3. Dès lors que café.fr est en mesure de développer un site différent de celui de cafe.fr, en vertu de quel fondement juridique le second pourrait-il reprocher au premier d'avoir enregistré un nom de domaine, alors que lui-même aurait largement eu le temps et l'opportunité de « se protéger » ?
  4. Etc. etc., la liste n'est pas exhaustive...




[MàJ - 30-04-06] Un article long et détaillé écrit par deux journalistes du Washington Post est paru aujourd'hui sous le titre « Typed too fast? Google profits from your typo », qui confirme les faits :
The Washington Post found hundreds of active Web sites showing Google ads at addresses that appear to be misspelled variations of well-known company names, known as "typo-domains." Their owners are known as "typosquatters."
The Post generated roughly 100 random misspellings of "www.earthlink.net" and found 38 sites using variations of the Earthlink name "parked" at a Google-owned service called Oingo.com. All 38, which includes "dearthlink.net" and "rearthlink.net," serve Google ads.
Traduction rapide :

Fautes de frappe ? Google profite de vos coquilles
Le Washington Post a trouvé des centaines de sites Web actifs qui affichent des pubs de Google sur des adresses Web jouant avec les variantes orthographiques de noms de sociétés connues, les « typo-domains » aux mains des « typosquatters ».
Après avoir généré de façon aléatoire 100 variantes avec coquilles de « www.earthlink.net », nous avons trouvé 38 sites stationnés sur des pages parking hébergées par le service Oingo.com, contrôlé par Google. Sur ces 38 sites, qui comprennent des noms comme « dearthlink.net » and « rearthlink.net », tous affichent des pubs Google.

Quant au site Oingo.com, il renvoie ici :


preuve que la sémantique contextuelle de Google est bien au point, et dont le lien signalé sur le graphique renvoie à son tour vers le service « AdSense for domains » de la société.

Tags : , , , , , , , , ,

samedi 22 avril 2006

Adscriptor, recherche d'identité

Toujours en quête de sens, j'ai réfléchi à l'identité de ce blog, différente de celle-ci ou celle-là, même s'il s'agit d'autant de fragments qui composent le puzzle de ma présence sur Internet, dont j'ignore encore beaucoup de facettes mais dont je sais le dénominateur commun, qui se résume en un mot :

COMMUNICATION

Pour citer les auteurs du Mercator, j'entends par communication « l'ensemble des signaux émis en direction » de clients (existants ou potentiels), de prospects, de prescripteurs ou de toute autre « cible », voire de vous qui me lisez :-)

De même que pour un produit ou une marque, définis « comme étant l’idée que s'(en) font toutes les parties concernées », plus mon blog aura une identité claire, plus il sera aisément reconnaissable et « identifiable ».

La visibilité est notamment une question d'image, un adage qui vaut sur Internet encore plus qu'ailleurs, et elle doit se traduire par une signalétique cohérente : identité visuelle (logo, charte graphique, etc.) et signature (slogan, accroche, etc.).

Je me suis donc appliqué à inventer l'une et l'autre, en utilisant un petit programme sympa (Logo Creator) pour la première, et mon imagination pour la seconde. Après quelques tentatives et un peu de réflexion, voilà ce que ça donne :

Adscriptor - le Web à la loupe
N'étant pas graphiste (et n'ayant jamais su dessiner), j'ai juste fait appel à mon goût et mon intuition, qui me suggère cette analyse sommaire :

Logo :
La symbolique du A a toujours été forte, et la mienne (diamétralement opposée à celle de Rimbaud) représente le commencement, l'Alpha des grecs, dans une vision totalisante, puisque l'Alpha implique naturellement l'Omega (sous-entendu mais pas moins présent), le principe et la fin, un concept vraiment très proche de la nature et l'essence de l'Internet, au sens anthropologique.

Slogan :
Ads & Marketing Translator initialement, une accroche désormais trop restreinte puisque mon approche souhaite embrasser la Toile lato sensu, sous la lentille grossissante (l'aspect de verre qui éclaire le A, au centre d'un globe) de ma curiosité sans confins, d'où « le Web à la loupe »...

Quant à l'impression d'ensemble qui s'en dégage, je l'ai voulue empreinte de sobriété, discrète et non envahissante, en laissant une part prépondérante à l'écriture. Ai-je réussi ?

En espérant que des gens plus compétents que moi pourront me donner leur avis, je reste ouvert à toutes critiques et suggestions.


P.S. À propos de cette fameuse quête de sens qui m'obsède depuis qu'est apparue la révolution Internet, je viens de lire une phrase qui éclaire tout à fait mon questionnement :
Dans les sciences humaines enfin, le cyberespace et les NTIC bouleversent la compréhension de la place de l’homme au sein de ce nouveau système.
Elle est extraite d'un livre qui paraît ces jours-ci, intitulé « Le Nouveau pouvoir des internautes », téléchargeable et dont je vous recommande vivement la lecture. Les auteurs en sont François-Xavier et Cécile Hussherr, Marie-Estelle Carrasco, voir le dossier de presse ici.

Oui, telle est bien la question : « Quelle est ma place au sein de ce nouveau système, quel est le sens de ma présence sur Internet ? »
  • Vous êtes-vous déjà posé la ou les même(s) question(s) ?
  • Y avez-vous apporté une ou des réponse(s) ?
  • Pourriez-vous la ou les partager ?

, , , , , ,

Microsoft, le Poulidor du Web

Microsoft, le Poulidor du Web

Où l'on reparle de GDrive grâce à ... Microsoft !

Par la voix de Ray Ozzie, qui dévoile dans une interview à la CNN la prochaine mise en service de Live Drive :

Microsoft is planning to use its server farms to offer anyone huge amounts of online storage of digital data. It even has a name for that future service: Live Drive. With Live Drive, all your information - movies, music, tax information, a high-definition videoconference you had with your grandmother, whatever - could be accessible from anywhere, on any device.

« Microsoft prévoit d'utiliser ses fermes de serveurs pour mettre à la disposition de tous d'énormes capacités de stockage en ligne des données numériques. Nom de baptême du futur service : Live Drive, grâce auquel toutes vos informations - films, musiques, données fiscales, la dernière vidéoconférence à haute définition que vous avez eue avec votre grand-mère ou tout ce que vous voudrez - pourront être accessibles de partout et depuis toutes les plateformes. »

Et d'ajouter :
Google apparently has similar plans. An internal memo accidentally posted online in March spoke of company efforts to "store 100 percent of user data" and mentions an unannounced Net-storage system called GDrive.
(Google is rumored to have a million servers around the world and, according to a knowledgeable source, is already the top electricity user in at least one large U.S. state. Google would not comment.)

« Apparemment, les plans de Google sont identiques. Une fuite interne mise en ligne par inadvertance au mois de mars mentionnait déjà les efforts déployés par Google pour « stocker 100 % des données utilisateur » ainsi que GDrive, un nouveau système de stockage sur Internet dont personne ne savait encore rien.
(Il paraît que Google a des millions de serveurs un peu partout sur la planète. Selon une source bien informée, la firme serait le plus gros consommateur d'énergie électrique dans au moins l'un des plus grands États d'Amérique. Aucun commentaire de Google à ce sujet.)
 »

Certes, quand Microsoft dit « à la disposition de tous », il est clair qu'il faut sous-entendre « de tous ceux qui paieront », mais il est probable que le service de Google sera payant aussi. À moins que...

En conclusion, ce qui me frappe dans cette histoire, c'est que Microsoft a toujours l'air d'avoir un coup de retard, et dans la gigantesque partie d'échec économique et pas seulement qui est en train de se jouer (voir les efforts actuels d'EBay pour s'associer avec MSN ou Yahoo), un coup de retard ça peut vite être fatal.

Cette annonce suit de peu la création de Live Academic pour tenter de concurrencer Google Scholar, mais comme l'observe justement Olivier Andrieu :
MSN devrait quand même faire attention. Lorsqu'on s'appelle "Microsoft", qu'on le veuille ou non, on part auprès de certaines personnes avec un certain handicap au niveau du capital sympathie, notamment auprès des utilisateurs du Mac et des logiciels "open source". (...) On a l'impression que MSN va parfois à l'encontre de cette voie et c'est vraiment dommage lorsqu'on désire s'attaquer à un concurrent dont l'hégémonie sera difficile (mais certainement pas impossible) à contrer...

Que l'hégémonie de Google ne soit pas impossible à contrer, passe encore, mais que le challenger soit Microsoft, ce serait fort étonnant : efficacité et souplesse pour le premier, plantages à répétition et usine à gaz pour le second, y a pas photo ! Ça m'étonne pas que Ballmer s'énerve (cliquez sur le lien, puis en bas à gauche de l'écran, 1'14'' de pur plaisir. Garanti !)...

Bah, autrefois, sur les routes du Tour de France, les supporters lançaient des « vas-y PouPou », aujourd'hui ceux qui aiment MSN pourront toujours crier « vas-y Bilou », je crois pas que ça suffise pour qu'il gagne.


P.S. D'aucuns s'étonneront peut-être que je ne mentionne pratiquement jamais Yahoo, c'est juste que je trouve Yahoo ennuyeux !

, , , ,