vendredi 9 janvier 2009

Google : la longue traîne des annonceurs

Titre emprunté à Peter Kafka, qui nous explique qu'en 2007 Google a perçu en moyenne 16 000 $ par annonceur, pour 1 million d'annonceurs ! Avec la progression suivante :


Légende : 89 000 en 2003, 201 000 en 2004, 360 000 en 2005, 600 000 en 2006 et 1 million en 2007. On connaît pas encore 2008, mais j'imagine que la progression sera proportionnelle exponentielle (voir en commentaire).

Il serait vraiment temps d'inverser la traîne...



Partager sur Facebook

, , , , , , , , , , ,

jeudi 8 janvier 2009

Noms de domaine et parking : Parking 2.0 vs. Parking 1.0

Noms de domaine et parking : Parking 2.0 vs. Parking 1.0

Parking 1.0 : déclin d'un modèle économique qui s'essouffle
Parking 2.0 : évolution du parking et nouveaux modèles économiques

* * *

Parking 1.0 : déclin d'un modèle économique qui s'essouffle

Il y a longtemps que je voulais faire un billet sur la nature et l'évolution du parking. En France, les gens ont tendance à liquider ça d'un revers de main, en criant bien haut et fort comme quoi c'est indécent, et ceci et cela. Et puis le parking c'est du cybersquatting, et du typosquatting, et du phishing, et ceci et cela.

Mais point de discussions véritablement sérieuses, à part sur Blogodomaines, mais c'est normal, me direz-vous, puisqu'il est partie prenante. Il n'empêche, ce n'est pas parce qu'on est partie prenante qu'on écrit forcément des choses intelligentes comme l'ami Rémy.

Qui nous fournit d'ailleurs une bonne illustration de comment fonctionnent actuellement le parking et le modèle économique qu'il y a derrière :


Un modèle économique aujourd'hui fortement en crise, nous allons voir pourquoi. Mais en tout état de cause, continuer à l'infini de faire l'impasse sur une réalité économique faite d'une vingtaine de millions de sites témoigne d'une absence totale de clairvoyance...

Tout d'abord je vais laisser de côté l'internaute et l'annonceur, même s'ils font clairement partie intégrante de l'écosystème "parking", pour me concentrer sur les trois types d'acteurs généralement impliqués :
  1. la régie publicitaire
  2. la plateforme de parking
  3. le titulaire du nom de domaine
1. La régie sert les pubs, c'est-à-dire qu'elle fournit les liens contextuels et/ou, plus rarement les bannières ;
2. la plateforme de parking héberge ces liens sur une page Web, vers laquelle pointe le nom de domaine ;
3. les titulaires de noms de domaine en parking ont un profil extrêmement segmenté, allant du simple particulier avec un seul ou quelques noms parqués, aux registrars du genre Moniker ou Fabulous & Co. qui peuvent gérer directement ou indirectement plusieurs millions de noms, en passant par des portefeuilles intermédiaires de quelques centaines à des milliers de noms, ou plus importants en quantité (Frank Schilling) (plus de 100 000 domaines) et/ou en valeur (Rick Schwartz) (+5 000, dont Candy.com, Properties.com, Tradeshows.com, Cheating.com, etc.).

Les registrars comme GoDaddy ou Domainsite (pour ne citer qu'eux) sont des cas à part, même s'ils ont en commun d'exploiter le parking en partenariat avec Google.

Or jusqu'à présent, la logique économique consistait essentiellement à cibler la pertinence des liens contextuels en fonction du nom de domaine et de son potentiel en navigation directe.

Mais bon, comme je l'expliquais ici, il n'y a qu'un seul nasa.com, ou meteo.com..., et par conséquent cette logique a trouvé ses limites, notamment à cause de la convergence de plusieurs facteurs :
  • la pratique de la navigation directe, dont les revenus étaient généralement estimés à 10-15% de l'ensemble des revenus générés par la recherche payante (chiffre encore à vérifier, si quelqu'un a des infos), est en perte de vitesse constante, au profit de la recherche directement dans les moteurs de recherche, un concept encore affiné avec la onebox de Chrome ;
  • la désaffection des internautes, de plus en plus las d'atterrir sur des pages poubelles truffées de liens publicitaires qui n'apportent désormais plus aucune valeur ajoutée à leur "expérience utilisateur" (sans parler des craintes implicites du genre : est-ce que je ne vais pas attraper un virus si je clique sur un de ces liens, etc.) ;
  • les grosses régies qui étaient les principaux pourvoyeurs de fonds des parkings - j'ai nommé Google et Yahoo! - changent lentement mais sûrement leur fusil d'épaule, Google en ouvrant à tous son programme AdSense for Domains, en rupture totale comme à son habitude, et Yahoo! en faisant n'importe quoi, comme à son habitude...
Résultat des courses : une baisse considérable des gains par clic (EPC - Earnings per click).

Quant aux prestataires de parking, comme l'explique Rémy, leur but ultime consistait à « agréger le plus de trafic possible pour pouvoir négocier des contrats plus intéressants avec les fournisseurs de liens publicitaires. Et ce pour pouvoir à (leur) tour offrir des taux de rémunérations toujours plus compétitifs à (leurs) clients. Et agréger encore plus de trafic (effet boule de neige) », voire à « se lancer eux-mêmes sur l’enregistrement et le rachat de noms de domaine pour s’assurer une taille critique ».

Donc maintenant que toutes les logiques qui ont assuré le succès de l'ère Parking 1.0 sont définitivement cassées, il serait peut-être temps de passer à l'ère Parking 2.0. Voyons comment. [Début]

* * *

Parking 2.0 : évolution du parking et nouveaux modèles économiques

La première réflexion est qu'une constante demeure entre les concepts de Parking 1.0 et Parking 2.0, à savoir que le parking reste un fort vecteur publicitaire, un formidable canal promotionnel pour peu qu'il soit ciblé et pertinent.

Les annonceurs et les régies ont accepté le parking tant qu'ils en jugeaient le trafic qualifié, traditionnellement avec des taux de conversion des pages parking jugés supérieurs à ceux des clics sur les moteurs de recherche (4,23% vs. 2,3%, selon une étude WebSideStory - Omniture aujourd'hui - qui a fait date).

Pour autant, le deuxième constat, c'est que l'ensemble de l'écosystème Parking 1.0 a été construit autour d'un grand absent : le CONTENU !

Or même si le parking est souvent une situation intermédiaire, qui permet de générer des revenus dans l'attente d'une revente, ça n'est pas une excuse pour faire n'importe quoi entre-temps. D'où la confusion de plus en plus justifiée entre les pages parking et les MFA (Made for Adsense), vu que pendant longtemps Google n'a pas vraiment fait grand chose pour corriger ses incohérences...

D'où également la connotation de plus en plus négative du parking, associé à du parasitage pur et simple par une grande partie du public francophone. L'approche des anglo-saxons est différente, comme souvent sur Internet, ce qui n'empêche que les internautes se retrouvant sur ces pages sont de moins en moins considérés "qualifiés" par les annonceurs, qui font également l'amalgame avec la fraude aux clics.

Une situation critique qui demande un renversement de tendance net. Comment ? En inversant la traîne, tout simplement, c'est-à-dire en passant de la longue traîne à la grande traîne de l'UGC :
  1. en insufflant du contenu dans le parking, et si possible du contenu pertinent, de qualité ;
  2. en rémunérant enfin les créateurs de ce contenu à travers un partage des revenus plus favorable.
Fini les vieux critères de partage, tout le monde y trouverait son compte. Des internautes aux annonceurs...

D'où une nouvelle définition du parking, qui m'a été soufflée par Jean-Philippe Hermand : crédibiliser les liens publicitaires par la pertinence du contenu.

On constate d'ailleurs un désir de diversification de plus en plus poussé chez des acteurs établis du parking, qui commencent à tourner autour de ces concepts, que ce soit celui de la pertinence via la sémantique (approche de SEDO qui investit dans Domainsbot), ou celui du contenu via le développement de véritables minisites (démarche de AEIOU, Kwikcontent, WhyPark ou Parking Revolution, entre autres).

Mon idée est différente. Pour moi, le bon mix consisterait à alimenter automatiquement les pages parking en flux RSS pertinents par rapport aux noms de domaine, sur le modèle Wikio de catégorisation thématique et de création de pages à la volée (ce que fait également fort bien Webjam).

Imaginez que chaque blogueur choisisse en opt-in que ses flux soient repris sur des parkings, naturellement contre un partage de revenus équitable entre les différentes composantes : la régie, l'agrégateur-distributeur de flux, les créateurs des contenus syndiqués et les titulaires des noms de domaine !

Coup double : une source de monétisation supplémentaire pour les créateurs de contenu d'une part, un flux ininterrompu d'UGC alimentant en automatique des pages parking complètement révolutionnées de l'autre.

Les spécialistes de l'AdSense pourraient objecter que si le contenu est trop pertinent, les internautes cliqueront moins sur les pubs. Soit. Mais de toutes façons, avec les formules actuelles, ils ne cliquent plus dessus de toute façon. À tel point que tout le monde - des annonceurs aux régies en passant par les utilisateurs - ne demande plus qu'une chose : de la qualité !

C'est le concept de smart pricing chez Google :
Ajoutez toujours plus de contenu pertinent à votre site et maintenez-le à jour afin de conserver l’intérêt de vos visiteurs. Si vos visiteurs sont intéressés par vos pages et qu’ils cliquent sur l’une de vos annonces, ils effectueront probablement une action sur le site de l’annonceur partenaire et votre taux de conversion s’en verra augmenter, de même que vos revenus. Du contenu de qualité se traduit souvent par une expérience positive pour vos visiteurs et vos annonceurs.
Donc s'il est vrai qu'il n'y a plus de qualité sans contenu pertinent fréquemment réactualisé, il est tout aussi vrai que personne n'a encore trouvé le moyen d'alimenter en temps réel des centaines de milliers - voire des millions - de sites parking en contenu de qualité.

Ce que pourrait assez facilement faire une plateforme comme Wikio, j'en ai déjà parlé avec Pierre Chappaz il y a plusieurs mois, mais il ne m'a pas semblé convaincu. D'où ma décision de partager mes idées avec la "communauté", juste pour tester le retour et collecter vos critiques et suggestions.

Au départ, me semble-t-il, c'était un peu l'idée de Blogbang, qui a pourtant réussi à casser dans la foulée une dynamique particulièrement porteuse, en merdant totalement le back-office après un démarrage en trombe. Dommage ! Et difficile à rattraper. Même si avoir Publicis derrière, ça peut aider...

Quant à cette (r)évolution des pages parking, il faut qu'elle n'ait pas seulement lieu sur le fond (le contenu), mais aussi sur la forme, en allant plus loin que la logique Google (depuis longtemps, et plus que jamais, dans le business...) :


En calquant la conception de ces pages sur le modèle des (r)évolutions qui attendent les traditionnelles pages de résultats, par exemple, encore « aujourd'hui TRÈS largement sous-exploitées, en termes de présence optimisée :
  • par les images
  • par les vidéos
  • par les cartographies
  • par les médias sociaux
  • par les widgets
  • multiforme et multiformats (blogs, sites, pages de réseaux sociaux, sites de partages de favoris, de documents...)
  • par la publicité
Etc.
»

Mais ce sera un autre débat ... dont j'espère qu'il aura lieu ! [Début]



Partager sur Facebook

, , , , , , , , , , , , , , , ,

mercredi 7 janvier 2009

Gouvernement des Etats-Unis vs. ICANN

Quand les nouvelles extensions génériques de premier niveau (gTLDs) verront-elles le jour ?

Introduction

La lettre de la NTIA
Extraits de l’avis de la Division Antitrust : les questions concurrentielles

Registres ouverts vs. Registres fermés…
Conclusion

N.B. Merci Martin de m’avoir signalé la chose, puisque je suis resté sans connexion Internet pendant près de deux semaines !

* * *

Introduction

Stephane Van Gelder nous rapporte que l'ICANN fait sa pub dans "The Economist" pour présenter son programme de création des nouvelles extensions.


Et il conclut son billet :
Mais peut-on aussi y voir une sorte de réponse à ceux qui se sont émus du commentaire fait par le Département du Commerce américain sur les nouvelles extensions ? Beaucoup ont vu dans cette lettre postée sur le site de l'ICANN une critique acerbe du programme des nouvelles extensions. Vu que ce dernier est en cours d'élaboration depuis plusieurs années et que le DoC était forcément au courant, on est en droit de se demander si la critique est aussi féroce que certains voudraient nous le faire croire. Ou en tout cas, si elle est de nature à remettre en cause le programme.

Pour l'ICANN, faire ainsi la publicité de son programme de nouvelles extensions et rappeler que ce dernier doit démarrer en 2009 ne serait-il donc pas aussi un signal fort envoyé quant à la pérennité de ce programme ?
Personnellement, j'en doute fort, très fort même, et je crois plutôt à un gigantesque coup de bluff de l'ICANN. Je vais tenter d'expliquer pourquoi, d'abord en présentant le commentaire traduit de la NTIA et des extraits de l’avis de la Division Antitrust dans ce billet, puis en donnant mon avis dans un deuxième à paraître... [Début]

* * *

La lettre de la NTIA (traduction) (original)
Le 23 octobre 2008, l’ICANN a soumis aux commentaires du public une série de documents corrélés – y compris des lignes directrices pour le montage des dossiers –, relatifs à la volonté de l’ICANN d’introduire de nouvelles extensions génériques de premier niveau (gTLDs). Le Département du Commerce (Département) saisit l’occasion pour donner l’avis du gouvernement des États-Unis sur un sujet aussi important.

Nous comprenons que l’introduction de nouvelles extensions génériques est un objectif qui s’inscrit depuis longtemps dans le Projet DNS, mais nous croyons également que le socle sur lequel appuyer cette initiative est le Protocole d’accord fondateur signé entre le Département et l’ICANN, stipulant que l’un des principes clés est la nécessité d’administrer le système d’adressage des noms de domaine sur Internet (DNS) de façon à permettre aux mécanismes du marché d’encourager la compétition et le choix des consommateurs en abaissant les prix, en promouvant l’innovation et en accroissant le libre choix et la satisfaction des utilisateurs. Donc, tout en reconnaissant les efforts déployés et le dur travail fourni par l’ICANN pour rédiger les documents actuellement soumis aux commentaires du public, la façon dont a été abordé et fixé le seuil à partir duquel les avantages potentiels dépassent les coûts potentiels pour les consommateurs n’est pas très claire. À ce propos, nous souhaitons attirer votre attention sur la nécessité, délibérée par l’ICANN lors de la réunion de son Directoire le 18 octobre 2006, de mener une étude économique pour affronter des questions telles que :
  • le marché de l’enregistrement des noms de domaine est-il un marché unique ou chaque extension de premier niveau fonctionne-t-elle comme un marché distinct ?
  • les enregistrements auprès de différentes extensions de premier niveau sont-ils substituables ?
  • quels sont les effets des coûts supportés pour passer d’un Registre à l’autre sur le comportement des consommateurs et sur l’évolution de la tarification ?
  • quels effets la structure du marché et la tarification ont-elles sur les nouveaux entrants ? et,
  • existe-t-il d’autres marchés confrontés à des problématiques semblables, et si oui, comment ces problématiques sont-elles traitées et par qui [sic] ?
L’ICANN doit donc mener cette étude économique et en soumettre les résultats à l’avis collectif avant d’introduire de nouvelles extensions génériques de premier niveau.

Le gouvernement des États-Unis reconnaît l’intention de l’ICANN de considérer attentivement les commentaires reçus durant cette phase et d’entreprendre des consultations ultérieures, y compris la révision des lignes directrices destinées aux candidats aux nouvelles extensions, avant d’introduire ces dernières. Sur ces bases, voici une liste de problèmes spécifiques dont nous pensons qu’ils devraient être résolus dans les documents actuels :
  • s’assurer que l’introduction d’un grand nombre potentiel de nouvelles extensions, y compris des extensions IDN, ne mette pas en danger la stabilité et la sécurité du DNS ;
  • revoir le processus d’approbation des nouvelles extensions, les lignes directrices pour les candidats et la proposition d’accord de Registre afin de :
    1. prendre en considération, autoriser les objections et conserver l’autorité nécessaire pour combattre tout effet néfaste sur l’écosystème concurrentiel susceptible d’apparaître en phase d’approbation des candidatures aux nouvelles extensions ou de renouvellement des contrats en découlant ;
    2. mettre en place des mécanismes compétitifs d’appels d’offres permettant de mettre en concurrence les opérateurs candidats pour qu’ils soient amenés à proposer des conditions de registre – y compris au niveau des engagements sur la qualité de service et les tarifs – susceptibles d’apporter des avantages aux consommateurs ; et
    3. imposer un plafonnement des tarifs ou d’autres conditions susceptibles de se traduire en avantages pour les consommateurs dans les cas où les mécanismes compétitifs d’appels d’offres ne limiteraient pas suffisamment la puissance de positionnement sur le marché des opérateurs de registre ;
  • démontrer que l’CANN a les capacités suffisantes pour faire respecter les conditions contractuelles avec un nombre encore indéfini de nouveaux cocontractants, spécialement à la lumière des questions encore en suspens relatives aux contrats actuels (tels que les avenants proposés aux Accords d’accréditation des Registreurs ou les problèmes concernant la fiabilité du système de reporting des données du WHOIS) ;
  • définir la façon dont l’ICANN conduira l’audit légal des candidatures, considérera les objections légales soulevées par des tiers, et dégagera sa responsabilité en assurant que le processus d’introduction des nouvelles extensions respecte toutes les législations compétentes, nationales et internationales, y compris les droits de propriété intellectuelle ;
  • se concentrer sur les fonctions techniques de coordination relatives à la gestion du DNS et non pas sur des aspects qui incombent plus spécialement aux gouvernements, telles que les questions d’attribution de moralité, d’ordre public ou les objections de la communauté en rapport avec les législations internationales sur les droits de l’homme. Les mécanismes proposés pour traiter ces problématiques sont inappropriés ;
  • créer un mécanisme apte à fournir une liste élargie de noms réservés pour les nouvelles extensions de premier niveau, et, selon les exigences, de noms relatifs aux infrastructures ou aux impératifs techniques ; et,
  • articuler un raisonnement clair autour de la structure tarifaire proposée, ainsi qu’un mécanisme transparent – incluant l’accord de la communauté – pour l’allocation des revenus excédentaires, s’il y en a, vu le statut de l’ICANN en tant qu’organisation à but non lucratif.

Le gouvernement des États-Unis partage l’engagement de l’ICANN pour promouvoir la compétition sur le marché des noms de domaine tout en assurant la stabilité et la sécurité d’Internet, et souhaite continuer à participer à ce processus de manière à ce que les préoccupations collectives de la communauté Internet soient prises en compte avant que l’ICANN ne s’engage à introduire de nouvelles extensions de premier niveau.
Et pour donner encore plus de force à son propos, cette lettre s'accompagne d'un avis de la Division Antitrust (Département de la Justice), signé Deborah A. Garza, qui émet deux recommandations spécifiques : [Début]

* * *

Extraits de l’avis de la Division Antitrust : les questions concurrentielles
Primo, l’approche générale de l’ICANN aux nouvelles extensions devrait être revue pour prendre davantage en considération les intérêts des consommateurs. L’ICANN devrait évaluer plus précisément le ratio inconvénients potentiels vs. avantages potentiels pour les consommateurs avant d’ajouter de nouvelles extensions ou de renouveler les accords de registre relatifs aux nouvelles extensions.

Secundo, le processus RFP et l’accord de registre proposé devraient contenir des mesures permettant à l’ICANN d’empêcher les nouveaux opérateurs de registre d'exercer un pouvoir de marché trop puissant. En particulier, l’ICANN devrait mettre en place des mécanismes compétitifs d’autorisation de nouvelles extensions et de renouvellements d’accords de registre par lesquels les opérateurs candidats sur les extensions génériques de premier niveau seraient mis en concurrence pour proposer des conditions de registre – y compris des barèmes tarifaires plafonnés – susceptibles d’apporter des avantages aux consommateurs.
J'aborderai donc de façon plus détaillée les questions concurrentielles dans un deuxième billet, et je conclurai en donnant mon avis, pondéré en fonction des éléments dont on dispose aujourd'hui. [Début]



Partager sur Facebook

, , , , , ,

mardi 6 janvier 2009

200 millions de sites web en 2009

200 millions de sites web en 2009 ?

Dans la série "prédictions pour la nouvelle année 2009", les miennes seront les suivantes :

- 200 millions de sites Web d'ici la fin de l'année
- 200 millions d'utilisateurs de Facebook

* * *

200 millions de sites Web en 2009


Selon Netcraft, il y avait 186 727 854 sites Web fin 2008 :


Selon Verisign, 174 millions :


Donc on va pas chipoter, en faisant la moyenne (186 + 174 / 2 = 180), ça nous donne une estimation vraisemblable de 180 millions de sites Web début 2009.

Maintenant, en appliquant les pourcentages indiqués par Verisign dans son rapport de décembre, nous avons près de 40% d'extensions pays (ccTLDs), dont 47% de ces extensions pays sont dominées par trois Registres : Chine, Allemagne et Royaume Uni.

Toutes extensions confondues, voici le classement des dix premières :
  1. .com
  2. .cn
  3. .de
  4. .net
  5. .org
  6. .uk
  7. .info
  8. .nl
  9. .eu
  10. .biz

À noter qu'au troisième trimestre 2008 VeriSign a enregistré des pics de traitement dépassant 50 milliards de requêtes/jour sur le DNS, concernant aussi bien l'accès des internautes aux sites Web que les échanges de courriels.

Quant à la répartition de sites actifs, sur 89 millions de sites analysés, il y aurait 21% de parkings (en posant comme hypothèse - vraisemblable - que les sites d'1 seule page sont des parkings), 68% de sites actifs et 11% de redirections (toujours en posant comme hypothèse - vraisemblable - que les domaines qui n'ont pas de sites associés pointent vers des redirections) :


Le fait est que Quensis (qui vient d'ouvrir son site chinois, soit dit en passant), trace déjà l'activité quotidienne de plus de 20 millions de parkings ! Dont les revenus déclinent fortement, mais c'est une autre histoire.

Ceci dit, en prenant le taux de 68% de sites actifs et en l'appliquant aux 180 millions de sites Web actuels, ça nous donne quand même plus de 120 millions de sites qui ont plus d'une page...

Imaginez d'ailleurs le nombre de pages de sites comme Google, Yahoo!, Microsoft ou ... Facebook !

Ce qui m'amène à ma seconde prévision pour 2009, puisqu'en janvier 2008 j'annonçais le dépassement des 100 millions d'utilisateurs avant la fin de l'année, en concluant ainsi mon billet :
Rendez-vous début 2009 pour vérifier :-)
Or fin décembre Facebook comptait déjà 140 millions de membres, soit un gain proche de 90 millions d'adhérents au service juste sur l'année 2008, avec 550% de croissance en un an et demi.

D'ailleurs, en maintenant cette progression, ce ne serait pas 200 mais 250 millions de facebookiens à la fin de l'année !

Donc 200 millions est une évaluation prudente. Nous verrons...



Partager sur Facebook

, , , , , ,

lundi 5 janvier 2009

Un sourire pour 2009


Gratuitement offert par Paul, sept ans et (presque) toutes ses dents, et par ses deux pères, le père Noël et moi-même :-)



Et puisque petit Paul est un feu d'artifice à lui tout seul, toujours dans la série "feux d'artifice", ça m'amène à vous proposer des images du réveillon du premier de l'An, un peu avant et un peu après les 12 coups fatidiques de minuit.

C'est un reportage à la télé italienne qui m'y a fait penser, où ils proposaient des images du monde entier, et notamment des Champs Élysées, en précisant que les feux d'artifice y étaient interdits.

Chose totalement inconcevable pour les italiens, et plus on va au sud, plus c'est inconcevable. Notamment en Campanie, qui regroupe 5 provinces : Avellino, Benevento, Caserte, Naples et Salerne.

Ma belle-famille étant originaire de Cava de' Tirreni, 45 km au sud de Naples et 7 au nord de Salerne, petite ville particulièrement charmante et vivante (d'ailleurs cette nuit ils fêtent la nuit blanche, dans la plus pure tradition parisienne)...


... il faut savoir que dans la tradition campane, toute famille qui se respecte tire ses propres feux d'artifice, certains dépensant même des milliers d'euros à chaque réveillon !

Je vous propose donc un extrait de 8 minutes pour des feux qui ont duré 8 heures !!! (j'ai entendu les premiers tirs à 18h le 31 et les derniers à 2h du matin le 1er, vu qu'après j'ai fermé les yeux...) Disons que le clou dure 2 heures non stop, sans interruption de 23h à 1h, c'est au coeur de la vidéo, à partir de la 2e minute (la vidéo commence par le sourire de Paul et de ma femme, puis 1 minute d'entrée en matière et après le spectacle des feux tirés dans chaque famille, chaque cour de bâtiment, chaque village, etc.).

C'est fait avec mon caméscope, sans prétention, du balcon de chez mon beau-frère au septième étage, où l'on voit parfois se détacher dans l'ombre, sur la ligne d'horizon, le contour des Apennins, cette chaîne montagneuse qui forme la dorsale de la péninsule italienne.



Je ne vous garantis pas la qualité des images, mais vous allez voir que c'est étonnant, et c'est comme ça chaque année. Vous entendrez de temps en temps des déflagrations plus fortes, ce sont de vraies "bombes" qui font trembler tout l'immeuble quand ça pète à proximité. En général ça sert pour le réveillon, et accessoirement pour faire exploser les rideaux d'aciers des magasins de négociants récalcitrants au racket (pour les descriptions, lire Gomorra, de Robert Saviano). Du reste...

En Italie on dit souvent que Naples, ce n'est pas l'Italie, c'est Naples. C'est exact. Et la Campanie ressemble à Naples, qui en est la capitale. D'ailleurs, ce qui se passe en ce moment dans l'actualité illustre parfaitement mon propos. Voir Naples et mourir, qu'ils disaient...

Donc, comme vous pouvez le constater, malgré des centaines de blessés chaque année et de fortes résistances d'une partie de la population, la tradition ne change pas !

Remarquez, en France on n'a pas les feux d'artifice, mais on a les voitures brûlées, ça compense...


Partager sur Facebook

P.S. Billet dédié à Gérard, un français parent de la famille de mon beau-frère, décédé en 2008 et qui aimait l'hospitalité qu'il recevait à Cava de' Tirreni, à tel point qu'il y venait tous les ans. On s'y était croisés une fois. Il laisse une femme et trois enfants, et pour eux l'année 2009 ne s'annonce vraiment pas sous les meilleurs auspices.

S'ils me lisent un jour, qu'ils sachent que ce tendre sourire leur est plus particulièrement adressé.

, ,

vendredi 26 décembre 2008

Ecrire pour le Web : optimiser le contenu des infos en ligne


Lee Odden, dont j’avais déjà traduit il y a 3 ans Stratégie de liens pour les blogs, vient de publier une présentation intitulée Writing for the Web: SEO for News Content, dans laquelle il prodigue quelques conseils sur la façon d’optimiser le contenu des infos en ligne, en s’appuyant notamment sur les résultats d’une étude menée en octobre 2008 par sa société, TopRank Online Marketing, sur l’utilisation que font les journalistes de la recherche dans le cadre de leur travail.

Il m’a gentiment donné l’autorisation de l’adapter en français en me fournissant le PPT. Voici ma traduction/adaptation :


Quelques précisions sur les diapos :

N° 2

SEO signifie Search Engine Optimization, une formule englobant les stratégies de référencement et de positionnement grâce à l’optimisation du contenu pour les moteurs de recherche.

Lee Odden place donc le SEO à la confluence du contenu et des liens, qui sont désormais les deux mamelles du journalisme sur Internet.

N° 3

À présent que les interactions entre les différents acteurs de l’info se modifient en profondeur, les stratégies de push-pull doivent évoluer en conséquence.

La communication « push » du journaliste doit se faire vers l’extérieur en direction des agences de presse (traditionnelles et « web natives ») et autres réseaux à l’œuvre sur le Web. Sur le pitching, approfondir avec la lecture du chapitre « The Art of Pitching » de Guy Kawasaki, riche en indications précieuses. Quant aux différentes manières d’utiliser la syndication, ce ne devrait plus être un secret pour personne.

Dans l’approche « pull », les concepts de Newsroom et de Media Coverage – récurrents dans la présentation – ne doivent pas être pris au sens de « rédactions » et « couverture médias » traditionnels, mais respectivement comme « Espace presse d’un site Web » et « couverture rich media », à l’instar des communiqués de presse 2.0 qui prennent aussi en charge les images, les podcasts, les vidéos, les documents pdf/word/ppt, etc., les nouveaux canaux de communication comme Twitter ou Seesmic, ou encore l’optimisation via les réseaux sociaux.

N° 6 et 7

À noter que le contenu des communiqués de presse est le moins recherché, alors qu’ils pullule d’infos de première main, et que le taux de 91% accordé au mode de recherche standard peut signifier deux choses :
  1. soit que les journalistes se satisfont de la recherche standard car ils y trouvent leur bonheur ;
  2. soit qu’ils ne maîtrisent pas suffisamment les autres modes de recherche, qui sont pourtant largement complémentaires ;
à chacun sa réponse…

Pour le reste, la présentation fournit un mix de techniques SEO traditionnelles en les adaptant à la problématique infos – presse – journalisme/journalistes, qu’il vaudrait peut-être mieux d’éviter de balayer d’un revers de main en tombant dans la caricature superficielle, pour essayer d’en extraire la substantifique moëlle.

Sur ce, bonne fêtes de nouvel an, et à la revoyure en 2009, pour une année que je souhaite heureuse et fructueuse à toutes et à tous, et plus particulièrement à Pierre Chappaz.


Partager sur Facebook

, , , , , , , , , , , ,

vendredi 19 décembre 2008

Les dinosaures, les autruches et les lézards


On va encore m'accuser de m'acharner, mais la métaphore me semble particulièrement parlante.

Les dinosaures, ce sont les journaux et les organes de presse qui croient peut-être que leurs dimensions et leurs appuis vont les protéger encore longtemps de l'extinction s'ils n'évoluent pas.

Les autruches (les lézards, c'est pour la chute...), ce sont les journalistes qui préfèrent mettre la tête dans le sable pour nier ce qui se passe autour d'elles et d'eux en faisant semblant de ne pas le voir, comme Aliocha à qui un commentateur de son blog fait observer :
Lorsque des “bloggueurs” inconnus viennent faire la leçon aux journalistes, avec un pseudo-mépris de vainqueurs virtuels, on peut en sourire ou s’énerver. Mais lorsque c’est Alain Joannes, journaliste, qui crucifie l’ “aveuglement” de la presse, son incapacité chronique à se réinventer et à évoluer, vous en pensez quoi ?
et auquel elle répond :
la même chose, comment vous expliquer, je retrouve le même ton que je n’aime pas, le même esprit négatif, la même inexplicable rage. Soit on a des idées, on monte un projet et on n’a pas le temps de taper sur les autres, soit on se désintéresse du sujet, mais je ne m’explique pas cette agitation stérile et agressive. Franchement. Cela étant, je crois que je vais purement et simplement m’en désintéresser.
C'est moi qui graisse, car cette non-réponse témoigne avec beaucoup de clarté de l'état d'esprit de nombreux journalistes, qui préfèrent se retrancher derrière une déontologie improbable, voire introuvable, plutôt que de se remonter les manches pour affronter les problèmes à bras-le-corps.

Car mettre en avant des truismes factieux (le même ton que je n’aime pas, le même esprit négatif, la même inexplicable rage) évite surtout d'aller voir ce qu'il y a derrière : où elle pourrait découvrir, par exemple, que le soi-disant "ton qu'elle n'aime pas" ou les mêmes "esprit négatif" et "inexplicable rage" peuvent dissimuler l'amour d'un journaliste pour son métier ou d'un simple citoyen pour le sens et la valeur des mots, et que l'un se désespère de constater « L'aveuglement "radical et persistant" » de sa profession (si la presse n'aime pas Google, qu'elle fasse sans...), l'autre étant las de voir que ceux-là même qui brandissent l'écu de la déontologie à tout-va sont souvent aussi ceux qui prennent les gens pour des cons.

Et si je poursuis le raisonnement d'Aliocha, pour peu qu'elle en ait un qui se tienne, en quels termes faudrait-il lui présenter la situation désastreuse de la presse aujourd'hui pour que ses chastes oreilles ne soient point trop troublées par un ton qui dérange ou par un esprit négatif inexplicablement rageur ? Je m'interroge !

En Italie, 68% des gens pensent que les journalistes sont des menteurs ! Outre 60% qu'ils sont peu ou pas du tout informés, 55% qu'ils ne sont pas préparés à l'information (très mal préparés pour 32% et mal préparés pour 23%), 52% qu'ils ne sont pas indépendants, 48% qu'ils sont partiaux, 40% qu'ils sont corrompus, etc.

C'est la faute aux blogueurs, peut-être ? Et bien non, c'est une étude de journalistes ! Réalisée par des journalistes, pour des journalistes. Vous ne manquerez pas de me rétorquer que ce n'est pas en France, non, c'est clair, en France on en est loin, et pourtant c'est quand même en Europe, vous savez, l'Europe, là où ça va bien, pas comme aux États-Unis...

C'est pourtant aux États-Unis que je vois le plus de réactions, où des rapports nous disent que les rédactions doivent s'activer et les journaux américains tenter de s'adapter aux nouveaux usages induits par Internet (via Techcrunch) :
  • De plus en plus de journaux expérimentent le contenu généré par l'utilisateur : 58% autorisent les utilisateurs à publier des photos, 18% des vidéos et 15% des articles.
  • En 2008, 75% des sites de presse ont permis aux utilisateurs de commenter les articles, soit plus du double par rapport à l’année précédente.
  • 10% des sites de presse ont des fonctionnalités de réseaux sociaux : profils d'utilisateurs, possibilité de lier ses "amis", etc. Il est d’ailleurs surprenant que ce taux ne soit pas plus élevé.
  • 76% des journaux en ligne mettent en avant les contenus plus populaires sous une forme ou une autre (articles plus partagés par courriel, plus blogués, plus commentés, etc.). Contre 51% en 2007 et 33% en 2006.
  • Sans surprise, tous les journaux en ligne affichent des pubs : 100% ont des publicités contextuelles et 43% des annonces interstitielles.
  • Depuis deux ans, presque tous les sites de presse ont des liens d’intégration avec les sites de social bookmarking tels que Digg ou Delicious : 92% des journaux en ligne vs. 7% en 2006 !
  • Parmi les nouvelles fonctionnalités examinées cette année, l’étude constate que 57% des journaux en ligne ont une édition PDF, 20% des options de chat, 96% fournissent des infos sur la météo locale, 40% utilisent les alertes par SMS et 70% les calendriers événementiels communautaires.
  • Le nombre de sites qui exigent une inscription pour voir davantage de contenus (gratuits ou payants) a diminué depuis 2007.
  • Sur 100 journaux, tous ont une forme ou une autre de flux RSS. Ils étaient trois en 2007 !
Or donc, tendre et douce Aliocha, rendre compte de ça, est-ce faire preuve d' "agitation stérile et agressive" ? De même que proposer un modèle d'évolution aux dinosaures et aux autruches ?

Comme les lézards de la famille Podarcis sicula, dont l'on pourrait résumer la devise par l'adage suivant : s'adapter ou mourir. Extrait :
Cependant pour retourner à nos propres capacités d’adaptation, (...) j’en viens à me demander si la brillante intelligence dont l’homme est pourvu ne serait pas un simple ornement ne jouant aucun rôle dans sa capacité à s’adapter à un nouvel environnement. Car à voir l’entêtement que nous mettons à ne pas voir les changements (...), on est bien obligé de constater que notre belle intelligence et notre gigantesque culture, n’est qu’un ornement.
S'adapter, évoluer ou mourir :


Et puisqu'il faut bien conclure, la seule chose sur laquelle je suis d'accord avec vous (comme quoi...), c'est que si les journaux et les journalistes qui les font disparaissent, cela ne signifiera jamais que les blogueurs auront gagné, mais que « tout le monde sera perdant ». Triste, non ?


Partager sur Facebook

P.S. En parlant de vivre ou mourir...



Via Martin Lessard, interview vidéo de Jean-Claude Guillebaud. De même que celle-ci, d'un journaliste, Dominique de Montvalon, qui n'a pas peur des mots...



, , , , , , , , , , , ,