dimanche 25 novembre 2007

End of advertising as we know it

The end of advertising as we know it

« La fin de la pub telle qu'on la connaît aujourd'hui », est le titre d'un livre blanc publié par IBM (via Simon Wakeman), qui commence fort :
The next 5 years will hold more change for the advertising industry than the previous 50 did.

Dans les 5 prochaines années, l'industrie publicitaire traversera plus de bouleversements qu'au cours des 50 qui ont précédé.
Dans ses 4 composantes essentielles : comment la pub est vendue, créée, consommée et tracée, ou mesurée (how advertising is sold, created, consumed and tracked).

D'entrée de jeu, ça pose le problème ! Avec au centre des enjeux, la confirmation d'Internet comme média à part entière et le Top 4 de la pub pour les années à venir :


  1. la téléphonie mobile
  2. Internet
  3. la télé interactive
  4. les jeux
Liste dans laquelle on ne retrouve aucun des 5 grands médias traditionnels :
  1. la presse
  2. le cinéma
  3. la radio
  4. la télé
  5. l'affichage
Mais une image vaut mieux que les mots !


Courbes des dépenses publicitaires Internet vs. télé, en net déclin...

De même, la répartition des usages par tranches d'âge est intéressante. Et même si elle ne porte que sur les US, je crois qu'on peut aisément la transposer telle quelle dans les économies occidentales, voire asiatiques.

En outre elle fait apparaître un déplacement vers de nouvelles formes d'implications qui gagnent en importance au fil des semaines, à savoir les réseaux sociaux et le contenu généré par l'utilisateur (UGC), avec un taux de contribution croissant qui va bientôt reléguer la règle des 1% au rang des antiquités.


Déplacement qui s'accompagne d'un glissement sémantique, puisque selon IBM nous sommes en train de passer de la pub mesurable à l'affichage vers une pub mesurable en termes d'impact (impression-based advertising vs. impact-based advertising) :


Nous le voyons bien avec Facebook et ses tentatives de Social ads et de pubs par recommandations qui bouleversent tant les idées reçues et nous n'en sommes qu'au début (j'aurai l'occasion d'y revenir)...

Au point que les utilisateurs commencent à opposer leurs droits à des conditions d'utilisation un peu trop à sens unique.

Quoi qu'il en soit, l'impact de tout cela sur l'ensemble de la chaîne ne manquera pas de se faire sentir...


Donc, face aux 4 scénarios envisagés


et à leurs évolutions possibles


IBM recommande 3 grandes sphères d'innovation


autant du côté des consommateurs que des modèles économiques et des nouveaux usages et pratiques à inventer en termes d'infrastructures sous-jacentes et de conception/création.

Voir également le résumé et le communiqué de presse. Un livre blanc à lire et analyser dans son intégralité. J'espère que ce bref billet vous en donnera l'envie.


Partager sur Facebook

, , , , , , , , ,

samedi 24 novembre 2007

Live Documents

Live Documents by Microsoft InstaColl

Dans la guerre des suites bureautique en ligne, une société indienne basée à Bangalore, InstaColl, vient de frapper un grand coup en annonçant le lancement de Live-Documents, qui s'inspire à la fois du nom Live et du triptyque gagnant d'Office : Word, Excel et PowerPoint, en concurrence directe avec Microsoft Office Live Workspace.


Voici donc un nouveau front qui s'ouvre pour Microsoft. J'imagine déjà Ballmer nous faisant un pétage de plomb en règle et vociférant "putain, je vais les tuer"...

D'autant qu'ils se paient bien sa tête dans leur avertissement légal :
While our products are built primarily around the Microsoft Office suite, Microsoft Corporation was not involved in any way in the development of these solutions and does not endorse them in any formal way. Please see our IP Disclaimer for more information.

(Note: That said, since Sabeer Bhatia is a co-founder, a very small part of the millions that he received from Microsoft for Hotmail.com funded our development efforts - so thank you Microsoft!).

Alors que nos produits ont essentiellement été élaborés autour de la suite Office de Microsoft, la société Microsoft n'a été impliquée en aucune manière dans le développement de notre solution pas plus qu'elle ne la cautionne d'une façon ou d'une autre. Veuillez consulter notre avertissement sur les droits de propriété intellectuelle pour plus d'information.

(N.B. : Ceci dit, Sabeer Bhatia étant cofondateur de notre société, une petite partie des millions que Microsoft lui a versés pour l'acquisition d'Hotmail.com a permis de financer le développement de nos produits. Donc merci Microsoft !).
On appréciera l'humour à la touche très British :-)

Apparemment, tout a été étudié dans les moindres détails, puisque lorsque Techcrunch a dévoilé le service en septembre 2006, il n'était pas du tout question de marcher sur les plate-bandes de Microsoft.

Or aujourd'hui, l'aspect "propriété intellectuelle" est particulièrement subtil, puisque comme l'explique InstaColl, il est légalement impossible de breveter le "look & feel" de l'interface graphique d'un logiciel, une jurisprudence qui s'appuie sur la victoire de ... Microsoft contre Apple, après que Bill & Ball aient copié la présentation en icônes du système d'exploitation de Macintosh pour l'utiliser dans Windows.

Ce qu'on appelle un retour de bâton...

Et ce n'est pas tout. Car la suite s'annonce totalement compatible avec Office 2007, la dernière version qui, elle, n'est pas compatible avec ... Office 2003 !

Ainsi 32 ingénieurs de Bangalore, la Silicon Valley indienne, ont mis 4 ans pour "craquer" le code d'Office 2007, la plus importante évolution du système depuis 10 ans, dont le développement a nécessité le travail de 2000 programmateurs Microsoft pendant trois ans !

Le tout ayant débouché sur la mise en ligne libre de la suite pour les particuliers, avec 100 Mo d'espace gratuit à la clé. Comme le scande le slogan, Office on the Web, Fast, Free, Esay...


Le mode de fonctionnement est particulièrement intéressant, puisque si vous utilisez déjà la suite Microsoft, tout marche de la même manière, en ligne et hors ligne ! Avec la dimension collaborative en plus.

Très justement, Nicholas Carr souligne en outre que le service a été lancé en Inde, que la presse indienne s'en est largement fait l'écho, et qu'en fin de compte il vaut mieux pour Microsoft que ce soient ses produits à être copiés plutôt que ceux de ses concurrents (Needless to say, India is a vast and largely untapped market for Microsoft and other software firms. Should a web-based, non-Microsoft version of Office gain traction there, it would be a big headache for the company).

Décidément, les temps changent !

En attendant, moi qui ne suis pas encore passé à Office 2007, je crois que je viens de résoudre mes problèmes de compatibilité ! Donc pour paraphraser InstaColl, merci Microsoft !


Partager sur Facebook

P.S. Dans ses 10 raisons de ne pas utiliser Google Apps !, Microsoft avançait que les applis de Google étaient des "logiciels inaboutis", perpétuellement en version bêta, qui manquaient de "certaines fonctionnalités essentielles", etc.

Je serais curieux de savoir ce qu'ils vont dire maintenant...

Autre conséquence probable, dès la semaine prochaine, l'action Microsoft devrait en prendre un sérieux coup, avec vraisemblablement un applatissement de l'encéphalogramme. :-) Car c'est quand même une partie significative de son chiffre d'affaires menacée de plein fouet !

D'après moi bien supérieure à 1% sur le moyen-long terme. Sans compter que le capital sympathie dont bénéficie Microsoft dans le monde est plutôt au ras des pâquerettes...

, , , , , , ,

vendredi 23 novembre 2007

Les blogs de proximité : Marchex raccourcit les distances

Les blogs de proximité : Marchex raccourcit les distances et investit la sphère locale

Avec l'initiative OpenList de Marchex (qui a interpellé Hubert Guillaud), nous avons vu récemment que la société avait « enregistré environ 80 000 noms de domaine correspondant aux codes postaux américains ».

Or on dirait que leurs intentions se précisent, grâce à cette info de Justin Carder (via DomainBameNews), responsable de l'équipe Marchex MyZip Team.

Il nous dévoile que Marchex veut mettre en place un réseau de blogs de proximité (ou de voisinage, de quartier : neighborhood blogs), rassemblés autour de la marque MyZip (traduction : mon code postal) (le site renvoie pour l'instant sur OpenList).

L'expérience va commencer avec la région de Seattle, et la société a mis en ligne un formulaire de recherche pour trouver des blogueurs volontaires, qui seront rémunérés 50$ par mois et recevront des conseils et les outils nécessaires (la plateforme de blogging, je suppose) en vue de mener à bien l'expérimentation. Le "rendement" devrait être de 5 billets par semaine. Ça fait pas cher du billet, je vous l'accorde. :-)

Soit dit en passant, entre blogging de proximité, de voisinage et de quartier, je ne sais vraiment pas lequel choisir, je trouve que les trois formules sont adaptées, sans pour autant limiter les options : si vous avez d'autres idées de dénomination, merci de les indiquer en commentaire.

Ceci étant, il est clair que le but du jeu est d'étendre ce concept de blogging local à l'ensemble des États-Unis, comme la société le précise :
We're looking for one person in each ZIP code in our Seattle trial region to write about their neighborhood for the MyZip Network. We're also preparing to have MyZip in every neighborhood in the United States, so if you don't live in the Seattle area but are interested in being part of MyZip.net, please register.
Be the Blogger !


C'est ce que l'on peut voir sur un exemple de lander, terme à double sens entre land, la terre, le terroir, enraciné dans le local, et landing page, la page où atterrit l'internaute...


Les deux idées centrales mises en avant par Marchex sont  :
  1. Neighborhood blogging is valuable and should be rewarded (Le blogging de proximité est une initiative de valeur, qui doit être récompensée)
  2. The reward should benefit the community as well as the writer (La "récompense" doit profiter autant à la communauté qu'au blogueur)
Personnellement, et indépendamment du succès qu'aura - ou pas - cette action commerciale, c'est une dimension du blogging qui me plaît beaucoup, et que je trouve a priori plus convaincante que certains portails d'information locale (j'en ai un en tête mais j'arrive pas à me rappeler le nom).

Même si la question récurrente sur le Web est déjà posée avant que le premier blog soit lancé : quel modèle économique pour la mise en œuvre d'un tel réseau ? Car si Marchex tire les marrons du feu, pourquoi pas. Mais sans bénéfices concrets - financiers ou autres - pour les blogueurs participants, qui seraient les colonnes portantes d'un tel projet, l'édifice risque vite de s'écrouler et de n'être plus que ruines avant d'avoir été bâti. Le local peut pourtant être porteur de promesses sur le Web...

À rapprocher conceptuellement des actions visant à révéler l'hyperlocal ou promouvoir le blog d'expression locale, dont Xavier de Mazenod est l'un des porte-parole (il me dira si je me trompe). D'ailleurs j'aimerais beaucoup avoir son avis éclairé sur la question.


Partager sur Facebook

, , , , , , , , ,

Facebook : positionnement d'Adscriptor sur Google


7 conseils pour vous positionner dans la première page de résultats de Google

Prise de conscience et commentaire de Tom :
Sacré référencement !
chapeau bas d'un SEO ;)
Ma réplique :
Merci pour ton commentaire, je crois que j'y répondrai par un billet...
Chose dont se réjouissais Jean-François, pour « lire (m)on avis sur les efforts de référencement que ce joli résultat implique ! :-) »

Dont acte.

En replaçant d'abord les différents événements dans leur contexte.

* * *

Depuis le début de ce blog jusqu'à fin septembre 2007, je n'ai abordé Facebook que de manière indirecte, à 4 reprises :
  1. le 2 août à propos de Netvibes
  2. le 17 sur le widget Where I've been
  3. les 25 et 26 septembre, en parlant de Microsoft
Puis, le 7 octobre, j'ai publié le premier billet intégralement dédié à Facebook et son décalogue, suivi le lendemain d'une version anglaise, juste histoire de rassembler mes idées sur la question.

Le même jour, le 8 octobre donc, j'ai rédigé ce que je considère comme mon véritable premier article sur la société de Mark Zuckerberg, tout simplement intitulé Facebook.

C'est ce billet qui sort en première page des résultats de Google, depuis environ deux semaines.
Ce qui signifie qu'en un mois, un billet parti de rien, pratiquement sans aucun background sur l'argument, exception faite pour quelques rares billets traitant la question de façon plutôt indirecte et superficielle, réussit à se placer dans les dix premiers sur des dizaines de millions de résultats, et ce sur la requête la plus "chaude" du moment. Comment est-ce possible ?
Comme je le disais à Jean-François, j'ai ma petite idée, rien d'empirique, tout juste quelques intuitions. [Début]

* * *

Primo, il faut se souvenir que depuis le mois de mai dernier, date à laquelle Zuckerberg a ouvert son réseau aux développeurs, la rumeur autour de Facebook est allée crescendo.

Donc la première question que je me suis posée a été "et maintenant, que pourrais-je dire de nouveau sans ressasser toujours les mêmes choses" ?

Que dire d'original sur un sujet pour lequel tous les médias - Internet, presse, télé, radio - font de la surenchère d'information, pas toujours de qualité il est vrai, puisqu'ils ont souvent tendance à simplifier à outrance, comme s'ils s'adressaient à des débiles.

Par conséquent, mon premier but a consisté à créer du contenu original et de qualité pour tenter d'expliquer, d'abord à moi-même, le phénomène Facebook. Où je me suis inscrit pour avoir une vision "de l'intérieur".

Mon billet a été diversement apprécié, voir entre autres le commentaire de Rod le hibou :
Enorme jeviens d’aller voir l’analyse … donc en gros (huhu), faut ecrire 30 pages Word pour comprendre l’interet de Facebook et savoir l’utiliser : à quand la sortie de “Facebook pour les nuls ?” … le web 2.0 = simplicité les enfants, pas des dissertations pour comprendre l’utilité d’un projet. 31 ans que je vis sans Facebook, et je vivrai sans sans souci. Pour certains c’est une question de vie ou de mort : nickel. Chacun doit trouver son but dans la vie. Mais de la à écrire des pamphlets explicatifs, faut vraiment avoir rien à foutre :)
Sic ! Chacun ses opinions, n'est-ce pas ?

Donc, contenu original et de qualité, premier point.

Deuxième point : ce n'est pas un billet isolé.


Dans la foulée j'en ai écrit 25 autres, 19 en octobre et 6 en novembre jusqu'à aujourd'hui, celui-ci exclu, dont 16 qui ont Facebook pour argument principal, et 9 où il en est question de manière plus ou moins directe.

Ajoutés à ceux qui les ont précédés, cela fait un ensemble de 30 billets écrits en deux mois. Non pas 30 pages, comme se désespère Rod le Hibou, mais 30 billets de 30 pages :-)

Sur le même sujet ! Il faut dire aussi que je suis long à comprendre... Et vu que j'ai rien à foutre, au moins j'ai trouvé de quoi occuper mes journées. Tout s'explique.

Pour autant ce deuxième point implique deux critères essentiels :

1) fréquence de publication,
2) création d'une taille critique.


Sur le 1), nous savons que Google a horreur des sites statiques, et les blogs sont parfaits pour créer un contenu dynamique. Sur le 2), j'entends par "taille critique" le fait de générer une information abondante (où la qualité va de pair avec la quantité, c'est clair) autour d'un argument donné.

Pas facile de quantifier précisément cette "taille critique", puisque de toute façon seuls Google et ses algorithmes la connaissent, et de plus elle doit varier en fonction des sujets, du moment, des circonstances, et d'une série d'autres critères impossibles à déterminer (tout au moins pour moi).

Pour être générique, disons que la masse d'information doit être suffisante pour cerner le sujet avec un seuil minimal de pertinence et d'exhaustivité.

Dernier point : être en phase avec l'actualité.

Chose probablement plus facile avec un blog qu'avec un site, puisque les blogueurs sont immanquablement sollicités et inspirés par les événements qui passent à leur portée, en ligne ou hors ligne.

L'idéal serait même d'anticiper cette actualité, voire de se livrer parfois à quelques exercices de prospective ou de mise en perspective.

À défaut, il est primordial de savoir rebondir, vite : la réactivité à l'info est cruciale. Il m'arrive souvent d'écrire dans l'urgence car je sais que l'occasion perdue est difficilement rattrapable. C'est d'ailleurs davantage une contrainte qu'un plaisir, mais qui a dit que bloguer était de tout repos ?

Ceci explique pourquoi en ce moment Facebook est mon premier sujet d'actualité !


Comme vous le voyez sur cette capture d'écran, les 622 réactions sont les liens retours calculés à ce jour par Technorati, en sachant que seuls les six derniers mois sont pris en compte.

Même si à vrai dire ce décompte varie considérablement avec celui de Google, qui répertorie plusieurs centaines de liens uniquement sur les billets que j'ai consacrés à Facebook au mois d'octobre.


Autant de facteurs conjugués qui expliqueraient pourquoi Adscriptor ressort si bien dans Google sur la requête "Facebook".

Car les rétroliens sont encore et toujours pour le PageRank l'un des plus importants critères afin d'optimiser son positionnement dans les pages de résultats de Google.

Ainsi, pour les 309 billets rédigés à ce jour, celui-ci inclu, Google répertorie globalement 17229 liens qui pointent vers les billets d'Adscriptor, dont 8559 vers la page d'accueil.


En conclusion, pour résumer cette première étape :
La production d'une info originale et de qualité (je me jette des fleurs, mais comme on dit, on n'est jamais aussi bien servi que par soi-même ;-), fraîche - c'est-à-dire en phase avec l'actu, fréquemment mise à jour -, et en quantité suffisante, a souvent pour conséquence la création de nombreux backlinks.
[Début]

* * *

Mais ce n'est qu'un début. Car c'est là qu'entrent en jeu au moins deux autres critères attentivement pondérés par les algorithmes de Google, qui évaluent en permanence les pages indexées :

1. le taux de clic
2. le taux de rebond


Le premier est ainsi défini : le nombre de fois où un lien est cliqué par rapport au nombre de fois où ce lien est affiché. Or il est évident que plus un lien est bien positionné, plus il sera cliqué...

Et grâce à l'outil de Google pour les Webmasters, je sais que mon taux de clics est élevé, puisque sur la requête "Facebook", qui représente 94% de mon taux d'affichage, le lien est cliqué dans 89% des cas !


Ensuite, une fois le lien cliqué, intervient le taux de rebond, ou bounce factor, que je vais m'efforcer d'expliquer sans m'enfoncer dans des détails techniques.

Si vous avez installé Google Webmasters Tools et/ou Google analytics sur votre blog/site, vous comprendrez facilement ô combien Google dispose de stats détaillées sur le comportement de vos visiteurs en général, et sur le vôtre en particulier...

Par exemple, en calculant du 25 septembre au 22 novembre, laps de temps qui contient pratiquement tous mes billets sur Facebook, Adscriptor totalise en deux mois 44967 pages vues, dont 19916 se réfèrent - sur les 10 premières URL visitées - aux 4 billets les plus lus sur Facebook (entre parenthèses, le temps moyen passé sur la page par visiteur) :

Facebook (2'22'')
Facebook : le décalogue ! (3'38'')
Facebook annonce Facebook Ads (3'45'')
La pub sur Facebook : Google Adsense ? (3'51'')

Pour un total de 13'36'' sur 4 pages, soit une moyenne de 3 minutes 24 secondes par page.


Or là nous touchons à un point crucial, à savoir le dilemme "faire court vs. faire long" sur un blog. En général, la majorité des marketers préconisent des billets courts (Veillez à ne pas dépasser 250 mots par message), mais selon moi c'est oublier un peu vite que nous écrivons AUSSI pour les moteurs.

Puisqu'il est évident que plus les billets sont courts, moins les internautes ont de quoi lire (moins les moteurs ont de quoi indexer), et plus ils repartent vite. D'où un taux de rebond beaucoup plus important qu’avec des billets longs. CQFD !

À mon avis, ceci a également des conséquences sur le taux de sortie, puisque moins un internaute a de probabilités de touver l'info qui l'intéresse, plus il y a de chances pour qu'il reparte vite de votre site.

Enfin, n'oublions pas que chaque blog s'inscrit dans un réseau sémantique propre, à la fois par ses liens externes (de/vers les autres) et internes, autant par ses connexions entre les billets que par les liens internes au sein d’un même billet, le tout ayant pour but de faciliter la navigation.

Dans mon cas, Google Webmasters Tools recense 7905 liens internes pour Adscriptor.


Dans la blogosphère, le premier exemple semblable qui me vient à l'esprit est celui de Didier Durand, où pratiquement chaque billet renvoie à d'autres de ses billets, dans un maillage qui fait du blog un tout, englobant des billets non pas isolés - qui seraient sans rapport les uns avec les autres -, mais étroitement connectés.

Last but not least, dans le cas du billet Facebook, il y a cohérence parfaite entre l'URL de l'article et son objet, or nous avons vu que le fait d'inclure un mot clé dans un nom de domaine confère un facteur de pertinence fort au domaine (ou à l'URL dans le cas présent).

En conclusion, les internautes attentifs auront noté que je n'ai pas encore mentionné le PageRank. Non pas parce qu'il n'a pas d'importance (je suis convaincu du contraire), mais parce que mon blog a un PR 5 et que cela n'est qu'une goutte d'eau incapable de justifier la présence d'une URL en première page de résultats sur Google.

Au final, pour récapituler mes intuitions, je vais vous la jouer style gourou marketing anglo-saxon (un pléonasme...), dans le genre « 7 conseils pour vous positionner dans la première page de résultats de Google sur une requête donnée » :
  1. Générer un contenu original et de qualité
  2. Proposer une information fraîche, fréquemment mise à jour
  3. Coller à l'actu, l'anticiper si possible, être réactif
  4. Produire en quantité suffisante
  5. Lier généreusement vers les autres et capitaliser sur les liens retours
  6. Ne pas craindre de rédiger des billets longs pour favoriser les taux de clic et de rebond
  7. Inclure les mots clés dans les URL
Tels sont les critères, je pense, qui ont favorisé le positionnement d'Adscriptor sur la requête Facebook dans Google. [Début]


Partager sur Facebook

P.S. Tout ce qui précède est un exemple parfait de ce que j'appelle depuis longtemps ma théorie sur le référencement/ positionnement par le contenu pur...

, , , , , , , , ,

mercredi 21 novembre 2007

Noms de domaine, mots clés et typosquatting : quelles relations ?

Noms de domaine, mots clés et typosquatting : quelles relations ?

McAfee : rapport 2007 sur le typosquatting

Une étude confidentielle, menée conjointement par VeriSign et Zooknic en mars 2006, détaille les relations entre les noms des domaines enregistrés en .COM, .NET, .ORG et .TV (soit +90% des extensions génériques) et les mots clés qu'ils contiennent, selon un double axe d'analyse :
  • la popularité des mots clés en nombre de recherches
  • le prix de ces mots clés au PPC
Les principales conclusions étant qu'il n'y a pas de relation clairement établie entre la popularité d'un mot clé et son prix pour la pub en ligne.


Les plus demandés restant quoi qu'il en soit ceux qui caractérisent les activités plus communes sur le Web : la recherche, l'e-commerce, le divertissement (qui va de la musique aux films en passant par le sexe), les voyages, etc.

En outre, sur +3 000 mots clés et 25 millions de domaines analysés, il ressort que dans +94% des cas, les mots clés recherchés comprenant 1 seul terme se retrouvent dans les noms de domaine.


Voici les 20 premiers mots uniques et leur nombre d'occurrences respectives dans les noms de domaines (on retrouve plus ou moins les mêmes dans les 4 extensions analysées) :


Les termes à 2 mots caractérisent davantage le business (immobilier), la finance (crédits), la dimension locale et géographique (probablement liée à l'immobilier et aux vacances), les loisirs ou encore des phrases communes (on top, web sites, etc.) :


Idem pour les 3 mots :


Je rappelle que dans les tableaux ci-dessus, la colonne de gauche représente le classement de ces termes sur les 3000 analysés, et celle de droite le nombre de noms de domaines dans lesquels ils sont présents.

Par ailleurs, en sachant que l'étude a porté très exactement sur 25 049 980 domaines, ça permet de calculer les pourcentages pour les puristes. Exemple : "real estate" est présent dans 0,6% de l'échantillon.

À comparer avec les 20 mots que l'on retrouve le plus fréquemment mentionnés dans les brevets et marques américains :
  1. AMERICA(N)
  2. WORLD(S)
  3. COMPANY(IES)
  4. INTERNATIONAL
  5. HOME(S)
  6. NEW
  7. SYSTEM(S)
  8. LIFE(VES)
  9. SOLUTION(S)
  10. CENTER(S)
  11. BUSINESS(ES)
  12. PLUS
  13. POWER(S)
  14. NETWORK(S)
  15. SERVICE(S)
  16. GROUP(S)
  17. CLUB(S)
  18. HEALTH
  19. CARE(S)
  20. MANAGEMENT
Source : Quensis.

Autre relation que je vois, celle de l'augmentation du nombre de termes dans les noms de domaine, qui semble aller de pair avec l'augmentation du nombre de mots clés saisis dans les requêtes de recherche, dont la taille s'allonge au fil des ans : de 1,2 mot/requête en 1998 à 3,3 en 2006 selon Yahoo!


Idem pour les noms de domaine, puisque selon Bob Martin :
...the area of the market with the highest speculation and overheating are on names that are three or four words long.

... le secteur du (second) marché où la spéculation s'enflamme, c'est sur les domaines contenant 3 ou 4 mots clés.
[Début]
* * *

Cet extrait est tiré d'un article intitulé Typo.com, qui nous permet ainsi une transition transparente vers le dernier point de cet article, la relation entre mots clés, noms de domaine et typosquatting.

Nous savons en effet que les mots clés sont au cœur d'un immense marché sur Internet, qui va des outils dédiés aux bidonneurs en tous genres, en passant du type-in au typo-in...

L'occasion m'en est donnée par la parution du rapport 2007 de McAfee sur l'état du typo-squatting, indiquant que selon une Agence gouvernementale américaine, 8,65% au moins de l'ensemble des domaines enregistrés le sont sous de faux noms ou avec des informations incomplètes, ce qui facilite les différentes pratiques de typo- et cyber-squatting.

Parmi les principaux résultats de l'étude (qui a analysé 1,9 million de variantes typographiques de 2 771 sites Web connus, en débusquant ainsi 127 381 personnes suspectées d'être des typo-squatters) :
  • L'internaute lambda qui commet une erreur typographique de saisie a 1 chance sur 14 d'atterrir sur une URL typosquattée
  • Les 5 catégories de sites les plus touchés sont les jeux (14,0%), les compagnies aériennes (11,4%), les principaux sites de média (10,8%), les sites porno (10,2%) et ceux liés aux technologies et au Web 2.0 (9,6%).
  • Les sites d'enfants sont particulièrement ciblés par les typo squatters (sur MySpace également, plus de 60% des pubs affichées seraient "à risque")
  • Idem pour les cyber-consommateurs
  • Contrairement aux idées reçues, le taux de sites pornos parmi les sites typosquattés n'est que de 2,4%, en nette amélioration par rapport à de précédentes études
  • L'usage croissant du domain tasting est un facteur significatif de la croissance rapide du typosquatting
  • Hors États-Unis, les pays les plus touchés par ce phénomène sont le Royaume Uni (7,7%), le Portugal (6,5%), l'Espagne (5,9%), la France (5,4%) et l'Italie (4,1%) ; les moins touchés sont les Pays-Bas (1,5%), Israël (1,1%), le Danemark (1,0%), le Brésil (0,9%) et la Finlande (0,1%).
  • Les cinq sociétés pratiquant le parking de domaines que préfèrent les typosquatters sont Information (28,5%), Hitfarm (11,3%), Domainsponsor (2,9%), Sedo (2,5%) et GoDaddy (2,3%) : le Top 5 représente 47,5% des squatters recensés par l'étude.
Parmi les catégories les plus squattées, on retrouve bien sûr un peu les mêmes que celles identifiées plus haut pour d'autres raisons :


Voilà. L'étude est particulièrement fouillée, je vous y renvoie. Il y aurait encore beaucoup à dire sur tout ce qui précède, mais le billet est assez long comme ça, je crois que ça suffira pour aujourd'hui. :-) [Début]


Partager sur Facebook

, , , , , , , , ,

Google ajoute des noms de domaine

Google ajoute des noms de domaine

Billet révélateur de ResourceShelf sur certains noms (qui s'ajoutent à ceux-ci) récemment réservés (et récupérés, me suggère Tom en commentaire) par Google :

gtaxes.com (plus les extensions .net et .org)
foogleaddon.com
technicage.com
googlesecret.com
logiquate.com
macroslash.com
nolimitdvd.com (celui-là aussi, il va faire jaser...)

gbeam.org
gbriefcase.org
gcentral.info
gmeet.net
gnoogle.com
google-gmail.com
google-labs.com
google-labs.net
google-search.com
googleblog.info
googlebux.net
googlecalendar.info
googlecalendar.net
googlefinance.com
googlefind.net
googlegmail.com
googlegroups.info
googlehelp.info
googlehelp.net
googlelabs.org
googlelocal.org
googlephotos.info
googleserchengine.com
googleshopping.com
googlesms.info
googlesms.net
googletv.info
googleus.com
googleus.net
googlewebapis.net
gsearch.info
gsend.org
gshopping.info
gshopping.net
gsites.info
gsites.net

Plus toute la série Android...

androidalliance.com
androidalliance.net
androidalliance.org
androiddevice.com
androiddevice.net
androiddevice.org
androiddevices.com
androiddevices.net
androiddevices.org
androidfederation.com
androidfederation.net
androidfederation.org
androidhandset.com
androidhandset.net
androidhandset.org
androidhandsets.com
androidhandsets.net
androidhandsets.org
androidmobile.com
androidmobile.net
androidmobile.org
androidphone.com
androidphone.net
androidphone.org
androidphones.com
androidphones.net
androidphones.org
androidplatform.com
androidplatform.net
androidplatform.org
androidsdk.com
androidsdk.net
androidsdk.org
androidsoftware.com
androidsoftware.net
androidsoftware.org
androidtechnology.com
androidtechnology.net
androidtechnology.org

Via WebProNews. Je vous laisse les interprétations connexes...


Partager sur Facebook

P.S. Personnellement, celui qui m'intrigue le plus est Gbeam. Est-ce que ce serait lié à la notion de Worldbeam selon Google ? Wait and see...

, , , , , , , , , ,

mardi 20 novembre 2007

Liens Adscriptor du 20 novembre 2007

Liens Adscriptor du 20 novembre 2007

Beaucoup de travail, beaucoup de fatigue, beaucoup de nouveautés dans l'actu foisonnante du Web, donc impossible d'être suffisamment réactif pour tout traiter comme il se devrait.

Je me contenterai de vous signaler quelques événements marquants, selon moi, en insistant sur le fait que c'est juste une invitation à l'approfondissement.

En commençant avec Kindle par Amazon, des analyses et des questionnements, de Francis Pisani, Mathew Ingram et Michael Parekh.



Un dispositif de plus à gérer. Pour tout savoir sur Kindle, c'est ici. Et pour tous les amoureux du papier, il y en a encore, c'est par là...

* * *

En continuant avec 23andMe, société cofondée par la femme à Sergey, qui tire son nom original des 23 paires de chromosomes, et moi et moi et moi. Faut-il en avoir peur ?

Voir les interviews par Kara Swisher.




Analyser son génome pour 999$ à la recherche des secrets de son ADN, et après ? Il suffit juste d'un peu de salive. C'est où qu'on crache ?

En attendant d'en savoir plus chez Zorgloob (sur ça aussi ?), que cela ne nous empêche pas de blogother pour la bonne cause !


* * *

Et pour terminer, un petit comparatif synoptique des acquisitions récentes de GYM :


Via Tim O'Reilly. Une belle illustration pour Webilus, remarquable initiative de Frédéric Cozic. ;-)

Bon approfondissement.


Partager sur Facebook

P.S. Dans le sillage de mon billet d'hier, la folie n'est pas encore retombée...


C'est ainsi que pour la première fois depuis le début de ce blog, je viens de franchir la barre des 1 000 visiteurs quotidiens sur une semaine. Avec une moyenne de 1 125 visiteurs et 1 406 pages vues, pour un temps individuel de lecture supérieur à 1 minute (1'05''), sur les 7 derniers jours.

, , , , , ,