Affichage des articles dont le libellé est laboratoire de réflexion. Afficher tous les articles
Affichage des articles dont le libellé est laboratoire de réflexion. Afficher tous les articles

dimanche 3 juillet 2011

Welcome to the Word Century

[MàJ - 4 avril 2016] Le palimptexte terminologique

Suite de Welcome in the World Century, publié le 3 juillet 2007, il y a très exactement 4 ans aujourd'hui !

Cette première partie, titrée Utopie ou réalité terminologique ?, qui se voulait une « (r)éflexion quasi-philosophique poétique sur la terminologie et son évolution souhaitable : d’une terminologie normalisatrice, conceptuelle et prescriptive, vers une terminologie d’usage, lexicale et descriptive... », annonçait une seconde partie à venir, que j'intitulais déjà :

II. La terminologie, ou la quadrature du triangle sémantique : pour la création d’une fiche terminologique « Web 2.0 »

Tout d'abord, quelques précisions sur cette « quadrature du triangle sémantique » (en référence à l'impossible « quadrature du triangle » qui est le lot quotidien des traducteurs...), censée traduire l’absurde utopie terminologique selon laquelle les termes seraient univoques : 1 terme = 1 concept/1 notion, avec 1 définition !

la notion (le concept), serait une « unité de pensée constituée par abstraction à partir des propriétés communes à un ensemble d'objets. », et où "Concept / notion, objet, terme" sont les trois sommets du triangle sémiotique :

Une représentation simplifiant le modèle quadripartite d'Eugen Wüster :

dont Renata Stela Valente nous dit :
Wüster avait des raisons pour vouloir faire de la terminologie une théorie des concepts : il voulait que le terme ait le comportement d’un symbole, comme un symbole chimique NaCl, ou une icône (une disquette) qui représente directement un concept, fonctionnant ainsi dans l’extra-linguistique. La langue n’est qu’un véhicule d’expression du concept que le terme représente. De toute évidence, Wüster concevait une terminologie prescriptive où il n’y aurait pas de variations lexicales d’une même notion.
Dans cette "utopie terminologique", chaque terme contiendrait donc son propre tout, et réciproquement !

Le parallèle me vient naturellement avec l'utopie enclycopédique de Diderot et D'Alembert, tentative de rassembler en un seul contenant « les connaissances éparses sur la surface de la terre », pour reprendre les mots de Diderot lui-même. Un ouvrage qui aura demandé plus de 25 ans de travail.

Plus proche de nous, la Grande Encyclopédie (près de 49 millions de mots écrits entre 1885 et 1902, à laquelle je consacrerai bientôt un billet...) (à comparer avec 5 milliards de mots échangés sur Twitter ... par jour !), aura été la dernière tentative de ce genre, et ses auteurs plus conscients de « la tâche à la fois difficile et modeste à laquelle les collaborateurs de la Grande Encyclopédie ont consacré plusieurs années de leur vie, sans avoir l’illusion de penser qu’ils font une oeuvre définitive.
(...)
Penser faire une encyclopédie qui ne doive jamais disparaître serait une espérance chimérique.

Dans un quart de siècle, la science humaine aura marché. Des faits anciennement connus se seront modifiés ou seront mieux appréciés, des faits nouveaux se seront révélés, des théories anciennes seront mortes, des théories nouvelles seront nées. Les mêmes mots peuvent à vingt ou trente ans d’intervalle n’avoir plus la même valeur. Et à ce changement dans la nature des choses, il faudra bien que corresponde un changement dans la manière de les exposer ; - c’est-à-dire qu’à un ensemble de faits nouveaux, d’idées nouvelles, il faut une encyclopédie nouvelle.
Que l’on ne s’émeuve pas, d’ailleurs, de cette vie éphémère d’une encyclopédie. L’oeuvre n’en aura pas moins eu son jour et son utilité.

Les encyclopédies ne tombent pas comme les feuilles, et leurs printemps durent de longues années. Il faut au grand public un espace de temps assez étendu pour apprécier les lacunes d’une telle oeuvre et éprouver le besoin d’en voir faire une nouvelle édition. Entre deux encyclopédies successives marquant chacune une étape de l’humanité, il y a une période intermédiaire ; celle qui est née peut continuer à vivre, celle qui doit venir n’est pas encore à terme.

Puissions-nous marquer cette constatation du travail humain, ce tableau de notre temps, de traits qui en fassent vivre le souvenir, comme vit encore de nos jours le souvenir de l’oeuvre de Diderot et de d’Alembert !
 »

Il en va des termes comme des encyclopédies : jamais achevés, en mouvement perpétuel autant que la connaissance qu'ils sont censés décrire (dénoter, définir, etc.), toujours en marche. Chaque langue est vivante, en évolution continue : le jour où elle se fige, elle meurt !

Donc vouloir figer les termes dans un corset de sens, les enserrer dans un modèle de « fiche terminologique » rigoureux et inamovible, n'en a plus ... de sens, à supposer que cela en ait jamais eu...

Par conséquent, en donnant pour acquise la ligne de démarcation entre AVANT et APRÈS Internet, je voudrais tracer l'esquisse d’une fiche terminologique « Web 2.0 » en faisant référence à la pratique du métier de traducteur, que j'illusterai d'une métaphore :

If a Word leads to the World!

La différence entre "fiche terminologique 1.0" et "fiche terminologique 2.0" étant essentiellement spatiale :
  1. la première tient dans l'espace plan du papier, forcé de se faire palimpseste où se succèdent les polysémies temporelles créées par "la science humaine en marche" ;
  2. la seconde a pour univers l'espace virtuel, palimptexte qui contextualise à l'infini chaque terme : on part d'un mot et on arrive au monde...
Croyez-vous que je plaisante ? Voyons cela par l'exemple !

Avec un simple sigle : LTE. Dont Google indexe pas moins de 101 millions de résultats !

Juste 3 lettres, 101 millions de résultats !!! Juste inconcevable ! Avec une multiplication des sources :

Pour n'en citer que quelques-unes : glossaires, dictionnaires, images, vidéos, blogs, actus, temps réel, etc.

Un flux ininterrompu de sources, une profusion impossible à limiter, qui plus est multipliée par la quantité de langues et de traductions éventuelles... Autrement dit le rêve fou de l'univocité terminologique (1 terme = 1 définition) est définitivement dépassé, de même que la lexicologie (1 terme = n définitions) doit laisser désormais la place à la polysémie universelle : 1 mot = 1 monde !

Où la "fiche terminologique 2.0" devient palimptexte terminologique modelable à volonté et à l'infini...

* * *
En parallèle à ma réflexion sur cette babélisation du sens et des valeurs, où chacun/e donne désormais son propre sens et ses propres valeurs aux mots de la tribu, je ne peux qu'évoquer ce billet d'avril 2007 sur le sens et la valeur des mots :
Des mots qu'on utilise tous les jours et dont je me dis qu'on ne sait plus très bien le sens dont ils
sontdevraient être porteurs et les valeurs qu'ils sont censés véhiculer.

Une grande confusion règne autour des mots, et les publicitaires et politiques de tous bords - hommes et femmes - ont une immense responsabilité dans cet état de chose. Car pour le traducteur-poète (ou poète-traducteur...) que je suis, tant par vocation personnelle que professionnelle, qui réfléchit au sens des mots à longueur de journée, cela me crève le cœur de voir qu'il sont employés sans égard, fourvoyés dans une approximation scientifiquement entretenue, de sorte qu'on puisse aisément leur faire dire blanc ou noir en fonction du contexte, des opportunités, des intérêts du moment. Cela permet de mieux déstructurer la culture et l'esprit des populations, tout en les désinformant par une propagande habile, qu'elle soit marchande ou politique, je le répète.

Or il en va des mots comme de la nature. On n'en abuse pas sans générer de grandes catastrophes, et lorsque vous vous y attendez le moins ils se retournent contre vous. Dans son travail intitulé LTI - Lingua Tertii Imperii (La langue du IIIe Reich), Victor Klemperer, qui mène une réflexion approfondie et sans concession sur les mécanismes du langage totalitaire, cite en exergue ces mots de Franz Rosenzweig : « La langue est plus que le sang. »

Dès le premier recueil que j'ai écrit (il y a une vingtaine d'années), non publié, comme tous mes ouvrages poétiques, qui s'intitule « L'Écorché vif » :


réminiscences de ma vie aventureuse et vagabonde, je tentais de redonner un sens - le leur ou le mien - aux mots, à ceux que l'on parle, que l'on écrit, à ceux que l'on reçoit, aux mots, en somme, à travers lesquels on s'efforce de communiquer, les fameux "mots de la tribu"
en poursuivant délibérément le rêve de la perfection
l'utopie réalisée d'un texte qu'il n'y aura plus à reprendre - jamais !
Comme le petit Prince de sa rose, je me sentais de nouveau responsable pour chaque mot, pour l'usage propre de chaque mot..., responsable pour
enchâsser chaque parole dans son acception profonde - on n'y saurait en changer une seule sans briser l'équilibre subtil du recueil -, tantôt première tantôt plus actuelle

(combattre l'inadéquation du parler en redécouvrant la ligne de partage entre les antiques beautés de la "vieillerie langagière" et les nouveaux trésors de la langue moderne, davantage ouverte et "démocratique")

inventer une signification plus proche par quelques néologismes, contextuels ou non (plasmer)

masculiniser des substantifs injustement féminins depuis des millénaires (prostitué ou parturient...)

utiliser les vocables les plus humbles en leur rendant le discernement qu'ils ont désappris, leur native splendeur fanée d'avoir été trop longtemps prononcés, galvaudés
vulgariser la poésie, enfin

faire de la langue poétique
une langue charnelle
une langue humaine !
* * *
Dans ce laboratoire de désinformation, de censure et de manipulation permanente du langage qu'est devenue l'Italie berlusconienne, véritable cloaque, il est trop facile de constater que les mots ont perdu toute valeur commune, tout sens commun, nous en avons des exemples éclatants tous les jours, hier encore, Angelino Alfano, actuel ministre de la "Justice" intronisé Secrétaire du parti de Berlusconi, a déclaré sans honte et sans crainte de se couvrir de ridicule qu'il voulait faire du PDL (Peuple des Libertés...) le "parti des gens honnêtes" !

Après "Parti de l'Amour", voici donc le parti de Berlusconi, indubitablement le chef de gouvernement le plus menteur, indécent, corrompu, subversif et délinquant du monde démocratique, réintitulé "Parti de l'honnêteté" !!! Le comble dans un pays où le crime a été patiemment institutionnalisé - parlementarisé même - par nos gouvernants depuis la fin de la IIe Guerre mondiale, toutes couleurs confondues, et où les mafias prospèrent en toute "légalité"...

Oui, le pouvoir des mots a bien le pouvoir de changer le monde (hélas !), comme le montre cette vidéo découverte hier via @randfish :

The Power of Words



qui se conclut ainsi : « Change your words. Change your world. »

En bien ou en mal...

Partager sur Facebook

dimanche 30 septembre 2007

Le circuit communicationnel de la traduction


English version / Version anglaise

Traduction = Communication
Le circuit communicationnel de la traduction
Conclusion : choisir un prestataire de service digne de ce nom

* * *

Traduction = Communication

Je commence ce billet en me citant moi-même dans Communication : les projets d'avenir du Studio92.eu :
Et surtout, grâce à Internet, le moment est venu que la traduction devienne enfin ce qu'elle est depuis la nuit des temps : communication pure...
- Question aux entreprises : confiez-vous votre communication au premier venu ?
- Réponse : non, jamais.

- Question corollaire : confiez-vous vos traductions au premier venu ?
- Réponse : oui, souvent.

- Pourquoi ce hiatus ?
- Parce qu'une large majorité de clients pensent encore - contre toute logique, sinon la logique du portefeuille - qu'il suffit de baragouiner une langue avec plus ou moins de bonheur pour savoir traduire.

C'est ainsi qu'ils n'hésitent pas une seconde à confier leur documentation institutionnelle, voire leur correspondance commerciale, à des soi-disant traducteurs ayant pour seul mérite d'être les moins-disants, avec comme seul critère d'attribution du marché le prix le plus bas possible...

En passant outre les compétences et la qualité, et en ignorant totalement que la traduction est une opération complexe, qui suit son propre circuit communicationnel. [Début]

* * *

Le circuit communicationnel de la traduction

Je vais donc tenter de clarifier les choses en vous proposant une explication de ce qu'est, selon moi, le véritable circuit communicationnel de la traduction, en m'inspirant à ma manière de diverses théories de la communication et en détaillant chacune des étapes. En septembre 2004, j'avais mis au point l'illustration suivante :


En bref, en mixant plusieurs modèles de communication, vous avez :

1. une source d'information (qui)
2. un message à transmettre sous forme de signal (dit quoi)
3. un émetteur qui va coder le signal (comment)
4. un canal de transmission qui va véhiculer le signal (par quel canal)
5. un récepteur qui va décoder le signal pour recomposer le message et restituer l'information qu'il contient (à qui)
6. un feedback, ou rétroaction (avec quel effet en retour)

Or lorsqu'on parle de communication interpersonnelle, on donne généralement pour acquis qu'il y a compréhension entre émetteur et récepteur parce qu'ils parlent la même langue. Un postulat faussé dès le départ lorsqu'ils parlent deux langues et que l'un ne comprend pas celle de l'autre. Soit le lot quotidien d'environ 7 milliards de terriens dans une infinité de lieux et de circonstances !

Donc si l'on met de côté les aspects techniques pour nous concentrer sur le cheminement entre l'émission d'un message en langue A par son auteur et sa réception en langue B par son destinataire - ce qui est une définition de la traduction -, nous obtenons les correspondances suivantes en termes de communication :

1. une source d'information (qui) (auteur)
2. un message à transmettre sous forme de signal (dit quoi) (message en langue A)
3. un émetteur qui va coder le signal (comment) (codage en message source)
4. un canal de transmission qui va véhiculer le signal (par quel canal) (traduction)
5. un récepteur qui va décoder le signal pour recomposer le message et restituer l'information qu'il contient (à qui) (destinataire du message cible décodé en langue B)
6. un feedback, ou rétroaction (avec quel effet en retour) (y a-t-il perte - ou gain - d'information, satisfaction ou insatisfaction sur la qualité du message traduit)

Première observation : d'aucuns pourraient s'étonner que je place la langue entre l'auteur et le message source, ou entre le message cible et le destinataire.

L'explication est simple : pour le créateur, ou pour le traducteur, il n'y a jamais UNE SEULE façon de coder son message, puisque chaque langue autorise de nombreuses variantes de codage, ce qu'on appelle le registre de la langue. Entre "veuillez partir s'il vous plaît" et "casse-toi", le message est le même mais la formulation diffère quelque peu...

Le codage du message source - et cible - change donc en fonction des buts de la communication, des destinataires, des lieux, des circonstances, etc. Les critères sont multiples. Interviennent aussi le bruit (ce que j'appelle le parasitage linguistique, comme par exemple une mauvaise maîtrise de la langue, du style, de la syntaxe, de la grammaire, de l'orthographe, etc.) et les filtres (culturels, religieux, familiaux, sociaux, etc.), susceptibles de modifier ou perturber la clarté de l'information. Ainsi, chaque message est influencé par une infinité de variables, conscientes ou non.

Il n'est pas rare qu'un ingénieur, un avocat, un médecin, etc. - tout expert dans son domaine -, ne sache pas s'exprimer correctement dans sa langue. Un traducteur qui exerce le métier depuis longtemps a sans aucun doute des centaines d'exemples à sa disposition, où il finit par produire un texte d'arrivée nettement plus intelligible que le document de départ.

Quant au processus de TRADUCTION proprement dit, qui se base sur les compétences intrinsèques du traducteur ET sur les aspects techniques que représentent la localisation et/ou la traduction assistée par ordinateur (ça peut aller de la traduction automatique sur les moteurs aux environnements d'aide à la traduction, de la gestion terminologique à l'exploitation des mémoires de traduction, du bitexte ou du corpus multilingue au glossaire en ligne et au moteur spécialisé, etc.), c'est le canal qui va permettre de véhiculer le message d'une langue à l'autre.

Dans une opération de mise en équivalence du message - et non pas des termes, ou des mots (distinguo d'une importance cruciale que j'ai détaillé dans une analyse de la traduction technique professionnelle) -, qui consiste pour les traducteurs à augmenter « l'élasticité de la langue », à former « des ponts entre les peuples », dixit Victor Hugo...

Vous remarquerez enfin sur mon graphique les deux coupures qui peuvent éventuellement interrompre le message, soit en amont si l'intégrité de l'information ne passe pas entre message source et message cible pour cause d'incompréhension, de mauvaise traduction, etc., soit en aval dès lors que le destinataire du message n'est pas capable de juger l'adéquation entre source et cible, ou qu'il s'en fout complètement, ce qui n'est pas rare non plus. :-)

Ceci étant, sur le curseur qui va de la satisfaction à l'insatisfaction, il peut y avoir mille situations selon la compétence / l'incompétence des uns et des autres... [Début]

* * *

Conclusion : choisir un prestataire de service digne de ce nom

Voilà. Donc si votre PME fait partie des entreprises européennes qui « subissent de fortes pertes commerciales, faute de disposer de compétences linguistiques suffisantes », et si par un heureux hasard, vous y êtes prescripteur de traductions et que vous avez eu le courage et la patience de lire jusqu'ici, j'ose espérer que vous confierez votre prochaine traduction ou la localisation de votre site corporate à un prestataire de service digne de ce nom.

Comme Translation 2.0, par exemple (mais c'est juste un exemple :-).

Car sachez qu'en règle générale, la qualité d'une traduction finit toujours par être proportionnelle au prix qu'on la paye - ou qu'on est disposé à la payer. La communication multilingue est un métier, et comme tout métier, ça ne s'improvise pas ! [Début]


, , , , , , , , , , ,

mardi 3 juillet 2007

Welcome in the World Century

[MàJ - 4 avril 2016] Le palimptexte terminologique

Réflexion quasi-philosophique poétique sur la terminologie et son évolution souhaitable : d’une terminologie normalisatrice, conceptuelle et prescriptive, vers une terminologie d’usage, lexicale et descriptive

I. Utopie ou réalité terminologique ?

II. La terminologie, ou la quadrature du triangle sémantique : pour la création d’une fiche terminologique « Web 2.0 »

Note de lecture : voilà près d'un mois et demi que j'étais sans connexion Internet à cause de "mon" opérateur téléphonique. Aujourd'hui le problème semble réglé, même si je n'en suis pas encore sûr à 100%. Cela explique pourquoi je n'ai pas écrit autant de billets que je l'aurais souhaité durant cette période, et pourquoi ces longs billets, celui-ci en particulier. La terminologie faisant partie depuis des lustres de ma vie quotidienne, tant personnelle que professionnelle, il y a longtemps que je voulais mener une réflexion approfondie sur le sujet, à la fois théorique (cette première partie) et pratique (seconde partie à venir). Ce que j'avais déjà fait pour la traduction professionnelle. Le texte pourra parfois vous paraître ardu, pourtant je me suis constamment efforcé de faire le plus simple possible. Bonne lecture à celles et ceux qui s'armeront d'une bonne dose de patience. Lorsque j'aurai terminé le deuxième chapitre je réunirai l'ensemble du document dans un PDF pour une lecture hors ligne plus confortable...

* * *

I. Utopie ou réalité terminologique ?

“The coming century will not be the American Century, it will be the World Century.”
Michael Eisner, CEO, The Disney Company, 1998

Les temps changent ! Et avec eux, tout change. Y compris notre perception du monde (la façon dont nous nous représentons le monde) et notre perception au monde (la façon dont nous nous représentons face au monde et à nos semblables).

Depuis Adam et Ève (Genèse 2, 19-23), l’homme nomme le monde et les êtres, et avant même l’instauration d’une interaction ou d’un dialogue, cette « nomination du monde » est le premier acte fondamental de la communication. Un acte qui s’inscrit dans l’espace, l’espace physique, originel, de l’homme.

Or depuis ce big bang, cette nomination du monde s’étire non plus seulement dans l’espace mais dans le temps de l’homme, dans sa durée de vie, à la fois individuelle et collective. De plus cette infinie ductilité s’accélère follement et passe d’une ancestrale lenteur de l’histoire humaine, habituée hier encore à compter en millions d’années, à la célérité de la lumière qui distingue aujourd’hui et caractérisera toujours plus demain l’Ère Internet, cyber-galaxie tridimensionnelle ayant l’espace pour largeur, le temps pour longueur et l’information pour hauteur (sans aller jusqu’à parler de profondeur…).

« Welcome in the World Century », « Bienvenue dans le siècle-monde », où le temps et l’espace finissent par se rejoindre à la surface de l’écran, l’interface, donnés « à voir dans l’immédiateté d’une transmission instantanée », dans « cet emplacement sans emplacement » où « l’épuisement du relief naturel et des distances de temps télescope toute localisation, toute position », où « Comme les événements retransmis en direct, les lieux deviennent interchangeables à volonté » 1, où « L’INFORMATION est le seul ‘relief’ de la réalité, son unique ‘volume’. (…) Désormais, tout arrive sans qu’il soit nécessaire de partir, mais ce qui ‘arrive’, ce n’est déjà plus l’étape ou le but du voyage, mais seulement l’information, l’information-monde, que dis-je, l’information-univers ! » 2

Un ‘voyage’ sans trajet ni départ où le prétendu dépassement des limites physiques et spatio-temporelles n’efface pourtant pas l’ultime frontière, celle du dispersement linguistico-culturel imposé depuis Babel (Genèse 11, 6-9), rendant illusoire tout retour à une époque immémoriale où « tout le monde se servait d’une même langue et des mêmes mots » (Genèse 11, 1) et dressant désormais presque autant de barrières qu’il y a … d’hommes et de femmes.

Égarés, confondus entre, d’une part, notre rythme physiologique naturel et ses contingences irréductibles, et, de l’autre, la vitesse et les accélérations phénoménales auxquelles nous sommes constamment soumis, sur tous les fronts, plutôt de force que de gré, dans une simultanéité exigeant de nous que nous pensions, agissions, réagissions, communiquions, décidions … dans un espace-temps instantané, alors même que nos faits et gestes et, surtout, nos mots, peuvent nous engager par les traces qu’ils vont immanquablement laisser, destinées à durer, parfois toute notre vie, voire à nous survivre, memoria verborum.

D’où la nécessité absolue, vitale, de nous entendre sur le sens des mots que nous utilisons, ou pour le moins tenter, afin de limiter au maximum les risques d’incompréhensions, de mauvaises interprétations, toujours aux aguets et nuisibles à toute bonne communication. Mais rien n’est plus difficile ! Y compris (surtout) pour les « experts ». Nous le verrons en analysant une nouvelle quadrature du triangle (), à savoir les
troisquatre mots clés qui sont au cœur de la science terminologique : concept / notion, objet, terme.

Une entente nécessaire qu’aurait voulu porter à son paroxysme la terminologie, dont le « père » unanimement reconnu, Eugen Wüster, fonda ses travaux sur ceux du Cercle de Vienne, qui préconisait notamment « la recherche d’un système formulaire neutre, d’un symbolisme purifié des scories des langues historiques » 3. Ainsi, dans ce « système sémiotique optimal entièrement fondé sur la logique, (l)’unité minimale est le terme, ‘pur’ de toute connotation, univoque, monoréférentiel et précis » 4.

Or croire qu’il suffirait d’affubler le « mot » de l’appellation « terme » pour justifier la nécessité d’une soi-disant monosémie contredite dans les faits n’est que vue de l’esprit, une convention arbitraire artificiellement – et longtemps – entretenue qui n’est plus d’actualité. L’univocité des mots (rectius : des termes) ou l’unilinguisme auraient-ils encore cours dans le village global ?

Non ! Il en va des mots (des termes) comme des langues. Ils ne sont pas univoques : « un langage univoque (ou plus précisément bi-univoque) est un langage dans lequel chaque mot ou expression a un seul sens, une seule interprétation possible et il n’existe qu’une seule manière d’exprimer un concept donné » 5. Chimère ! Une « bi-univocité parfaite entre les notions et leur désignations (…) est contraire à l’expérience des textes scientifiques et techniques, au sein d’une même langue et à plus forte raison d’une langue à l’autre, de culture à culture, de terroir à terroir, de milieu professionnel à milieu professionnel. » 6 Yves Gambier va plus loin :
« Le postulat de biunivocité est intenable, sauf peut-être pour certains secteurs des sciences dites exactes (mathématiques, chimie…). Il stabilise, selon une obsession fétichiste, les rapports signifié-signifiant de chaque signe : il fige les rapports entre les notions (négation même du mouvement des connaissances). Ce formalisme a des allures de fascisme linguistique ; le contrôle des sens et des dénominations élague toute tension sur le marché des sens, des langues… » 7
Résolument, pas de sens gravé dans la pierre ad eternam, un mot vieillit, rajeunit, change, bouge, se métamorphose, etc., au gré de son « contexte » : qui le prononce, quand (temps), (espace), comment (dans quel contexte, quelle situation), pourquoi (quelles finalités ? propagande, démagogie…), en fonction de quel interlocuteur, de quel public cible, et ainsi de suite. Surtout, le dynamisme et la polyvalence des langues, et donc des mots, n’obéissent à aucune imposition de type top-down, mais subissent plutôt une croissance bottom-up, une poussée du bas vers le haut qui est d’ailleurs dans la nature des choses.

« Le langage naturel est équivoque : il y a plusieurs façons d’exprimer la même idée (la redondance), ce qui est exprimé possède souvent plusieurs interprétations (l’ambiguïté) et tout n’est pas exprimé dans le discours (l’implicite). » 8

Un état et une polysémie auxquels les langues de spécialité échappent de moins en moins…

Puisqu’il ne suffit plus de circonscrire à dessein le champ terminologique en le découpant en domaines, sous-domaines, domaines adjacents, domaines nécessaires à sa constitution, secteurs, sous-secteurs, thésaurus, nomenclatures, ontologies, etc., dans une tentative de classification du monde et de l’univers conçus et perçus dont la texture n’est pas sans évoquer la toile de Pénélope, cela n’ayant plus grand sens sur Internet au fil des mots !

Pourquoi ? Parce qu’Internet est – devient chaque jour davantage – un incommensurable corpus, plurilingue et pluriculturel, qui rassemble peu ou prou l’ensemble de la connaissance humaine en un même « lieu » spatiotemporel, chaotique, innommable et innombrable, que nous pourrions définir en outre « hyperlinguistique » grâce à la variété et, dirais-je, l’inépuisabilité de ses manifestations formelles et des connexions possibles. Une hétérogénéité compensée en quelque sorte par l’ « unité de lieu », qui rend soudainement et potentiellement accessible, traitable, disponible, etc., cette « masse planétaire » de matière à quiconque.

Où voulez-vous encore trouver la monosémie là-dedans ? Wüster lui-même « n’a jamais présenté la monosémie d’un signe comme un dogme − mais tout au plus comme un fait idéal dans l’objectif de faciliter la communication dans des domaines techniques − ni nié la variabilité des significations d’un même signe », discutant du « rôle de la langue en tant que création et créatrice (Schöpfer und Geschöpf) d’une communauté » 9 dans son fameux Exposé illustré et terminologique de la nomination du monde. 10

Enfin, de plus en plus, s’il y a monosémie, elle ne peut être que dans le « hic et nunc » du discours, donc éphémère, voire individuelle : le sens n’est plus dans tel ou tel terme, mais dans la situation, dans l’instant de l’ « interlogue ». Y compris lorsqu’un seul et unique mot, signe, symbole, revêt un sens différent pour chacun des interlocuteurs, auquel cas c’est la divergence même d’intention et d’interprétation qui fait sens…

Attention ! Loin de moi la volonté de nier les formidables apports de la terminologie en tant que science 11, mais à ma connaissance (je ne demande qu’à être réfuté), les travaux et réflexions terminologiques qui se succèdent au fil des ans ne rendent pas suffisamment compte du ferment qui accompagne l’émergence du Web 2.0, puisqu’ils ne mentionnent jamais (?!) ce que j’appellerais la variable « sagesse des foules », c’est-à-dire l’intelligence collective à l’œuvre sur Internet : une culture ou « une approche de la société qui considère les groupes humains (une entreprise, une ville ou l’humanité elle-même) comme des systèmes cognitifs qui créent, innovent et inventent » 12.

Dans près de 4 000 pages de textes consultés sur l’argument et les questions connexes, je n’ai trouvé qu’une seule référence faite à Wikipédia sous l’angle de la connaissance encyclopédique et d’un contenu terminologique « riche en connaissance(s) » (knowledge-rich terminology) (orientation inéluctable de la terminologie, tel que je vois les choses...), même s’il est vrai que c’est une « référence de poids » !

Proposée par M. Christian Galinski, actuel Secrétaire du … Comité 37 de l’ISO, lors d’une présentation faite en mai 2005 à Bamako 13, intitulée :

Terminology standards – enhancing language
ISO/TC 37 – Semantic Interoperability

(Des normes terminologiques, pour enrichir la langue – Interopérabilité sémantique)

Alors, une terminologie à deux vitesses ?

De même que Wikipédia représente une ligne de démarcation dans l’encyclopédisme, les initiatives comme les glossaires ouverts KudoZ (© KOG by ProZ.com) ou les listes de discussion dédiées sont destinées à impacter en profondeur la terminologie du 21e siècle, bien qu’à ce jour elles ne soient (encore) ni reconnues ni recensées par les hautes instances qui président aux destinées terminologiques.

Lesquelles évoluent, certes, pour tenter de s’adapter, mais malheureusement tout cela reste basé sur des impératifs économiques et politiques qui perdent de vue les nécessités … des foules ! Sans parler des « heurs et malheurs de nombreuses normes que la sagesse des peuples a sauvées du ridicule en récusant le diktat du normalisateur mal avisé. » 14

* * *

Et bien parlons-en du normalisateur ! Ou plutôt, dans le cadre de cette réflexion, de son ancestral parangon, le Comité technique 37 de l’Organisation internationale de normalisation (ISO TC/37), chargé d’élaborer des normes terminologiques internationales et dont l’emprise va grandissante.

Principale instance “horizontale” de l’ISO, au sens où la terminologie (comme la traduction) est transversale à toutes les disciplines, on constate depuis 2001 un réaménagement en largeur et en profondeur du champ d’intervention de ce Comité, pour élargir ses horizons (expanding ISO’s horizons), asseoir et étendre son influence (extending ISO’s influence), et mettre en œuvre une stratégie adaptée aux temps modernes en vue de relever les défis linguistiques et culturels qu’annonce l’avènement d’Internet. Certes, ces défis ne sont pas nouveaux, mais le Web leur donne une ampleur inconnue jusqu’à nos jours.

Car s’il est vrai que les évolutions de l’usage et du sens des mots témoignent de celles de nos sociétés, l’observation et l’analyse des changements à l’œuvre autour du titre et des domaines d’activités du CT 37 – jusqu’en 2001 en charge de la Terminologie : principes et coordination (Terminology, principles and coordination) – et de ses sous-comités (3 initialement, 4 à partir de 2002) sont riches d’enseignements…

Il est d’ailleurs remarquable que l’appellation Terminologie : principes et coordination, restée figée pendant plus d’un demi-siècle, ait déjà subi deux changements au cours des 5 dernières années, ce qui est un fort indice de dépoussiérage, convenons-en…


Tant au niveau de son intitulé que de sa traduction. Mais procédons par ordre.

C’est d’abord la notion de « other language resources » qui fut introduite au côté de la terminologie, pour indiquer clairement que le Comité technique 37 allait désormais s’occuper des « autres ressources linguistiques » au sens large, non plus seulement terminologiques, mais aussi lexicographiques, terminographiques, etc.

Puis trois ans plus tard, apparition de la notion de « contenu » et des ressources associées, vaste domaine lorsqu’il s’applique à l’Internet…

Au niveau de la traduction française, l’expression « language resources », auparavant presque toujours rendue par « ressources linguistiques », est à présent francisée en « ressources langagières », probablement dans une tentative un peu puérile de vouloir se détacher à tout prix de la linguistique, ce terme étant porteur d’une multitude de significations pas toujours en accord avec la terminologie, loin s’en faut, un problème plus intimement ressenti par les francophones…

Mais c’est surtout au niveau du domaine d’activités du CT 37 qu’on enregistre l’évolution la plus significative, puisque la « Normalisation des principes, méthodes et applications relatives à la terminologie et aux autres ressources langagières et ressources de contenu » s’inscrit maintenant « dans les contextes de la communication multilingue et de la diversité culturelle », un changement remarquable, voire révolutionnaire !

Non plus dans un contexte singulier mais pluriel, à la fois linguistique (communication multilingue) et extralinguistique (diversité culturelle).

Or si les normes ISO posent depuis toujours comme une évidence l’essentialité du second (Les notions ne sont pas liées aux langues individuelles. Elles sont cependant influencées par le contexte socioculturel.) (ISO 1087 1990 : 1), elles ignoraient intentionnellement la portée du premier, dans le sillage de Wüster, en basant toute leur approche conceptuelle sur l’idée d’un « terme » isolé de son contexte linguistique, « ‘pur’ de toute connotation, univoque, monoréférentiel et précis », comme déjà cité plus haut. « En fait, cette conception du terme, détachée du système linguistique, a une genèse commerciale. » remarque justement Renata Stela Valente 15, ce qui peut expliquer bien des choses…

« Les termes dans ce cadre ne sont pas considérés selon leur contexte de phrase et encore moins selon le contexte de production ; ils sont réduits à des noms-étiquettes. », et leur fonctionnement « généralement analysé comme indépendant des locuteurs, des discours et des conditions de production. » 16

Ce qui est déjà incompréhensible si l’on envisage les langues de spécialité comme des sous-langues, et plus encore si la réalité est autre : « Il n’existe pas une langue générale et une langue de spécialité divisée en domaines, mais le terme est un signe dont le fonctionnement est spécialisé par le contexte de référence. » 17

Donc en introduisant ENFIN la dimension linguistique sous les atours de la « communication multilingue », l’ISO rompt définitivement avec une tradition qui dure depuis près de 70 ans, ce qui n’est pas rien. Surtout lorsque l’on sait combien de critiques, parfois féroces, lui a valu l’intransigeance de cette position de principe. (Cf. pour information, Humbley)

Et puisque vraisemblablement l’influence de l’Organisation internationale de normalisation est destinée à s’étendre, à l’instar des autres mouvements globaux de normalisation/contrôle (normes IFRS pour la comptabilité, référentiel Bâle II pour les banques et les assurances, l’ICANN pour l’Internet, etc.), vu les enjeux économico-politiques gigantesques qu’il y a derrière, tout à fait dans le droit fil de la « genèse commerciale » à peine évoquée (nous allons d'ailleurs bientôt fêter la 10e journée mondiale de la normalisation : « des normes pour les citoyens : une contribution à la société »...), c’est aussi un moyen de retirer des arguments de poids aux opposants à la « doctrine terminologique » 18, à la « terminologie dominante » 19, etc.

Une distinction subtile, stratégique, qui ne remet malheureusement pas en cause la « dictature du terme », davantage considéré comme une abstraction pour mieux le « normaliser de force » en le forgeant dans un arbitraire monosémique idéalisé : 1 terme = 1 sens. Or essayez de quantifier le nombre de sens possibles dans l’univers et d’attribuer un seul et unique terme à chacun d’eux, vous verrez vite les limites de l’exercice. Les plus grands néologues de l’humanité réunis, de Rabelais à Frédéric Dard pour rester chez nous, ne suffiraient à la tâche.

Ce qu’exprime Daniel Gouadec avec la clarté d’exposition qui le caractérise : « Si l’utopie terminologique appelle la monosémie, la réalité ne cesse d’aller dans le sens de l’ambiguïté et de la polysémie que la nécessité d’économiser les désignations (termes et mots) rend inévitables : un langage strictement référentiel comporterait autant de mots ou termes qu’il existe d’éléments désignables dans l’univers perçu ou conçu. » 20

Je conclus de tout ce qui précède que les terminologies sont autant de langages imparfaits voués à l’échec, théorique sinon pratique, que nul formalisme ne saura – ni ne pourra – jamais rendre parfaits, ce qui ne serait ni souhaitable ni concevable. Réfléchissons juste au constat que dresse François Rastier de cette tendance à la perfection :

« Perfectionner la langue, c’est par ces voies diverses la soustraire à l’interprétation, soumise à des variations individuelles et historiques, et ainsi lui permettre de refléter sereinement la vérité dans sa permanence.

En somme, une langue parfaite se caractérise de cinq manières concordantes :

(i) Elle est internationale, pour des raisons tant mythiques (rédimer Babel) que pratiques (assurer une communication facile au sein de l’humanité).
(ii) Elle est véridique, car elle dénote exactement ses objets.
(iii) Elle reflète correctement la pensée, ce qui permet de la dire auxiliaire (par son rôle idéographique).
(iv) Elle est inaltérable dans le temps et invariable dans l’espace, en ceci qu’elle n’est pas soumise aux variations dialectales (que craignait tant Tracy) ; et cette uniformité est redoublée par le fait qu’elle ne connaît de variations diachroniques (ou du moins, elle est considérée en diachronie).
(v) Elle est artificielle, car seule une volonté normative peut assurer qu’elle reste inaltérable et invariable -- cette permanence assurant qu’elle reflète correctement l’Être dans sa pérennité.

Tous ces traits caractéristiques sont reformulés par Wüster et ses successeurs pour ce qui concerne la terminologie. »
21

Le seul point qui « fait sens » et emporte mon adhésion est le premier (Eugen Wüster était d’ailleurs un espérantiste pratiquant). Au conditionnel, toutefois. Mais j’aime assez l’idée d’une communication « transnationale » capable de franchir les frontières.

Pour les autres, aujourd’hui, hier et demain :

1. Aucune langue ne peut être soustraite à l’interprétation
2. Aucune langue n’est véridique ni ne reflète correctement la pensée plus qu’une autre
3. Aucune langue n’est inaltérable dans le temps ou invariable dans l’espace, ni artificielle ou permanente à « volonté »

Aucune langue ni, a fortiori, aucune sous-langue. De plus, si une telle langue existait, on peut affirmer qu’elle irait contre nature et n’aurait aucun sens ! Ce qui serait vraiment le comble !

Car la langue n’a de sens que par et pour l’homme. Dans ses variations individuelles, et historiques (relisez un texte en françois du Moyen-âge, pour voir…). La langue articulée, au propre et au figuré, n’est-elle pas l’un des traits essentiels qui distingue l’homme de l’animal ?

Par et pour les machines aussi ? Qui a dit ça ? Tim Berners-Lee en parlant du Web sémantique, peut-être ? C’est faux. Dans l’absolu. Que la machine soit lisante, écrivante, traduisante, indexante ou selon vos goûts, soit. Que Big Blue humilie aux échecs le champion des champions du monde, soit également. Que les machines fonctionnent en réseaux et communiquent entre elles, soit encore. Mais pourquoi les machines liraient-elles, écriraient-elles, traduiraient-elles, indexeraient-elles, creuseraient-elles, construiraient-elles, voire détruiraient-elles ou autre, sinon en vue d’une interaction, in fine, avec l’homme ? Par et pour l’homme ? Serait-ce un hasard si toute cette belle mécanique se prolonge et termine toujours par une interface qui se confond généralement avec la surface de l’écran où elle affleure ? Tantôt projection, tantôt protection, tantôt tactile, tantôt rétractile, etc.

La langue est matière et les machines des outils dont se sert l’homme, à cette différence près que celles-ci se laissent volontiers découper (et d’ailleurs comment pourraient-elles protester ?), décomposer et recomposer dans un re-engineering continu, tandis que celle-là ne se laisse enfermer dans aucun moule, réfractaire à toute formalisation, modélisation, catégorisation, classification, explication et ainsi de suite. Et si de temps en temps elle donne l’illusion à tel ou tel de faire une découverte fondamentale ou d’y comprendre quelque chose, ce n’est que pour mieux s’échapper, plus vite et plus loin, en faisant naître mille nouvelles interrogations, dont les couches se superposent aux anciennes sans même leur donner le temps de sédimenter. « C’est un fait bien connu que le lexique se constitue par le dépôt naturel de tout l’extra linguistique ; il s’articule sur la réalité sociale et sur son développement historique. » 22

Ainsi, l’humus des langues est fait de mots qui puisent leur sens originel ailleurs que dans la langue : dans la société, dans la culture, dans la tradition, dans le métier, dans l’innovation, etc. « Le groupe de faits linguistiques où l’action des causes sociales est dès maintenant reconnue et le plus exactement déterminée est celui des innovations apportées aux sens des mots. » 23 Dans une relation dynamique entre l’essence des êtres et des choses et les sens des mots, aussi mouvants que les sables, où « saisir » le sens suppose des capacités d’analyse ET d’intuition, ce que n’auront jamais les machines, une opération n’ayant rien à voir avec un processus statique. Figer le sens, c’est tuer le sens.

Au contraire, saisir le sens, en « prendre possession » selon l’étymologie du verbe, c’est l’intercepter en un temps et un lieu donnés, une appropriation rarement définitive : le sens est vivant, perpétuellement en mouvement, auto-cicatrisant, régénérateur, « created fully in no particular form » 24, créé pleinement sans aucune forme particulière, indépendamment du fait que la langue qui le véhicule est alphabétique, idéogrammatique, agglutinante, tonale, etc., ou de ce que l’agent linguistique qui tente de l’encapsuler est un mot, un terme, un discours, un symbole, un chant, un cri ou un… silence ! Reçu et donné dans l’instant partagé du dialogue, parfois soumis aux « grammaires de la création » si finement analysées par George Steiner ou aux « correspondances » chères aux poètes, Baudelaire in primis, mais certainement peu appréhendable et interprétable de façon exhaustive par la machine. Sans parler des domaines de l’implicite, l’ineffable, l’informulable…

Je n’en donnerai qu’un exemple pour preuve. En raisonnant par l’absurde : imaginez un instant que l’on dispose de l’Ontologie et de la Langue parfaites, entièrement orchestrées en automatique par une intelligence artificielle dont les performances de calcul et de raisonnement auraient dépassé celles du cerveau humain, voire de l’humanité… Ajoutez-y une traduction automatique digne des plus grands polyglottes devant l’Éternel, stockant dans sa mémoire les terminologies multilingues normalisées du monde entier, juste pour faire bonne mesure.

Vous y êtes ? OK. Alors voici ma question, en n’importe quelle langue : « Pensez-vous qu’une telle machine aurait un jour la capacité de … CROIRE ? »

Et puisque je mentionne Big Blue, cela me rappelle un « vieux » poème, écrit il y a une vingtaine d’années :

Il était une fois
un joueur d’échecs
si fort
qu’il voulut
se mesurer
à Dieu

sur l’échiquier
ne resta qu’
un fou

* * *


À venir : II. La terminologie, ou la quadrature du triangle sémantique : pour la création d’une fiche terminologique « Web 2.0 »


Notes bibliographiques :
  1. VIRILIO P. (1984), L’espace critique, Christian Bourgois Éditeur, p. 19
  2. VIRILIO P. (1993), L’art du moteur, Éditions Galilée, p. 167
  3. SOULEZ A. (1985), Manifeste du Cercle de Vienne et autres écrits. PUF, Paris, cité in Terminologie et Intelligence Artificielle, par François Rousselot et Pierre Frath
  4. SLODZIAN M. (1994-1995), « La doctrine terminologique, nouvelle théorie du signe au carrefour de l’universalisme et du logicisme » in Actes de Langues française et de linguistique (ALFA), Vol 7/8.
  5. LEFÈVRE P. (2000), La recherche d’information - du texte intégral au thésaurus. Hermès Science, Paris, p. 21
  6. LERAT P. (1995), Les langues spécialisées, Paris, PUF (Linguistique nouvelle), p.15/16
  7. GAMBIER Yves (1991), « Présupposés de la terminologie  : vers une remise en cause », in Cahiers de linguistique sociale, 18, p. 42
  8. JALAM R. (2003), Apprentissage automatique et catégorisation de textes multilingues, Thèse soutenue à l’Université Lumière Lyon2, p. 14
  9. ALT Susanne, KRAMER Isabelle, ROMARY Laurent, ROUMIER Joseph (2006), « Gestion de données terminologiques : principes, modèles, méthodes », Hermès (Éd.)
  10. WÜSTER Eugen (1959/60), Das Worten der Welt, schaubildlich und terminologisch dargestellt, Sprachforum, 3-4, p. 183-204
  11. Science de la terminologie : Étude scientifique des notions et des termes en usage dans les langues de spécialité. (ISO 1087 : 1990)
  12. LÉVY Pierre, À la recherche de l’intelligence collective issue d’Internet, interview parue dans Le Monde interactif, octobre 2002
  13. Fichier PPT
  14. GOUADEC D. (1990), Terminologie - Constitution des données, AFNOR (collection AFNOR GESTION), p. 206
  15. La « Lexicologie explicative et combinatoire » dans le traitement des unités lexicales spécialisées, thèse soutenue à l’Université de Montréal en juillet 2002, Doctorat de linguistique, option traduction
  16. BOUVERET Myriam (1998), Approche de la dénomination en langue spécialisée, in Meta, XLIII, 3, 1998
  17. Ibidem.
  18. RASTIER François (1995), « Le terme : entre ontologie et linguistique », in La banque des mots, n°7, pp. 35-65
  19. GAMBIER Yves, GAUDIN François, GUESPIN Louis (1990), « Terminologie et Polynomie », in Les langues polynomiques, PULA Nos 3/4
  20. GOUADEC D. (1990), Ibidem, p. 14
  21. RASTIER François (1995), Ibidem, p. 49
  22. GUILBERT, Louis (1965), La formation du vocabulaire de l’aviation, Paris. Larousse. p. 8
  23. MEILLET, A., cité par GUILBERT, Louis, Ibidem.
  24. AMMONS, A.R., cité par STEINER, George, in Grammaires de la création (Grammars of Creation). Paris, Gallimard, 2001. Coll. «NRF Essais».

, , , , , ,

jeudi 28 septembre 2006

Internet 2020 : prospective et mise en perspective

Après Internet 2010 : prospective et mise en perspective, ajoutons juste une décennie, un petit pas pour Internet, un grand pas pour les internautes (tiens, ça me rappelle quelque chose...).


Toujours dans la série des deux précédents billets...

Donc, le titre m'est inspiré par une étude publiée il y a quelques jours par Pew Internet & American Life Project Survey, pour laquelle 742 experts ont planché sur divers scénarios Internet en 2020.


Pour les courageux, le rapport fait 115 pages. Voir la source de l'info en français. Les français, qui ont préféré s'arrêter en 2010, même si certains se projettent plus avant, ou font un retour en arrière sur les prévisions de l'époque pour voir dans quelle mesure elles correspondent à la réalité actuelle...

Voir également Internet et les technologies de demain, ou, dans un registre différent, une remontée dans le temps (en anglais)...

Vous aurez remarqué que ce billet est un habillage du genre Liens Adscriptor, mais dont le fil directeur facilement identifiable m'a permis, pour une fois, de cibler un peu mieux le titre. Je manque cruellement de temps en ce moment (traductions obligent), or c'est un bon moyen de ne pas perdre le contact.

Mes prévisions perso, certes à plus court terme, sur ce qui va probablement changer en profondeur mon « expérience utilisateur » d'internaute : la possibilité de podcaster (voir ce site) et d'intégrer la télé-vidéo :


« Le blog, c'est dépassé, fais ta TV ! », dit le slogan de Gaspanik, le concept qui déchire grave en ce moment (et ça mérite) ! Voir d'autres détails.

[MàJ - 29 septembre 2006] Puisqu'il est question d'intégration de vidéo aux blogs, j'ai découvert ce modèle depuis, où il suffit de positionner le curseur sur la capture d'écran pour que la vidéo se déclenche...

C'est encore la téléphonie avec Skype et ses déclinaisons, voire monter mon propre centre d'appels pour les amis (et clients...) avec Skipi !


Ce sont encore les microformats, du genre Wiki. Or quand on se demande quelle est la différence entre un blog et un wiki, certains répondent :
Un blog est équivalent à un site perso, avec en plus la possibilité de créer des liens entre sites facilement, et la possibilité de laisser commenter les articles par des visiteurs anonymes.

Un wiki est un "tableau effaçable" prévu pour que tout le monde (y compris des anonymes) puissent ajouter du texte perso ou effacer du texte existant. C'est un "outil de travail collaboratif" (mais fragile si on le laisse à la portée de tout le monde).
Or sur Internet, ce concept de « tableau effaçable » évoque inéluctablement en moi l'idée de palimptexte. Nous y revoilà ! Mais ça aussi c'est de la prospective, et la boucle est bouclée. :-)


Tags , , , , , , , , , ,

jeudi 3 août 2006

Les trois composantes de notre présence sur Internet : le sens, le contenant, le contenu


(dernier billet avant de prendre quelques jours de vacances, un peu de lecture pour donner à réfléchir... Les commentaires de Blogger seront fermés les jours à venir, les commentaires Haloscan restent ouverts. Bon mois d'août à celles et ceux qui me lisent, et aux autres aussi :-)

Pourquoi ?, Comment ?

1. Pourquoi ? - Le sens de ma présence sur Internet

2. Comment ?
I - Le contenant, ou l’aspect technique de ma présence sur Internet

3. Comment ?
II - Le contenu, ou la qualité de ma présence sur Internet
(Identité numérique + Gestion de la réputation)


* * *

Pourquoi ?, Comment ?

Hic et nunc, à moins d’être asocial, la question n'est plus « Être ou ne pas être sur Internet ? » : si vous me lisez, vous y êtes déjà :-)

En ce début de troisième millénaire, l'Internet est devenu l'Agora planétaire numérique, « à la fois forme et esprit », « généralement située à un carrefour important du réseau urbain, [qui] matérialise remarquablement la notion de cité », « place primitive (…), point de rencontre politique, religieux, commercial parfois, et aussi topographique, en liaison étroite avec les grands axes de circulation du groupement, quelle qu'en soit la disposition. »
Source : Encyclopædia Universalis

Pour tirer les leçons du passé, s’il est maintenant évident que l'imprimerie est apparue à une époque où l'humanité en avait grand besoin, cinq siècles plus tard il est tout aussi manifeste que le réseau des réseaux a vocation à jouer un rôle identique.

Pourtant, à l'aune de l'histoire humaine, l'Internet public est un nouveau-né d’à peine deux décennies, puisque le premier nom de domaine en .COM n’a été enregistré que le 15 mars 1985, tout un symbole ! Il y a tout juste 10 ans, le peuple des internautes ne comptait que quelques millions de précurseurs, alors qu’on nous en prédit entre 1,75 et 2,2 milliards pour 2010, et encore, c’est sans compter le peuple des téléphonautes (qui dépassera probablement celui des ordinautes), des télénautes, des domonautes, etc., tous ayant désormais accès à Internet depuis le téléphone, la télévision, le frigo ou la machine à laver… Même la ménagère faisant ses courses pourra se « loguer » avec son portable pour examiner la traçabilité du poulet qu’elle achète. À une époque de grippe aviaire potentielle, la chose n’est pas négligeable !

Mais dès l'instant où vous vous connectez au village global (en dépit de l’expression si galvaudée), espace réel plus que virtuel où chacune / chacun peut faire entendre sa voix, faire valoir son opinion et se faire écouter (sauf crier dans le désert…), vous devenez personnage public sur la grand place de marché mondiale, exposé bon gré mal gré au regard des autres, à leur appréciation, leur jugement, leur critique, voire leur vindicte…

Avant on pouvait dire « Les mots s’envolent, les écrits restent », alors qu’Internet en garde durablement trace et n'efface ni les uns ni les autres. Ce qui a des implications fortes pour tout un chacun, puisque, en clair, ce que vous dites aujourd'hui sur le Web pourra être repris demain (voire après-demain), pour ou contre vous, d'où la nécessité d'être conscient, lorsqu'on s'exprime, du poids et de la portée de ses paroles, afin de pouvoir les assumer, les argumenter, ou mieux, les revendiquer le moment venu.

Aujourd'hui, la vraie question, spéculaire, est plutôt « pourquoi et comment être sur Internet ? » : « pourquoi » renvoyant au sens de ma présence, « comment » évoquant autant le contenant (volet technique) que le contenu (volet qualité) de ma présence.

Des questions auxquelles chaque internaute doit apporter ses propres réponses, en aucun cas figées, mais dynamiques, adaptatives, évolutives. Quant à moi, j'ai déjà tenté de réunir quelques premiers éléménts de réponse ici. [Début]

* * *

Pourquoi ? - Le sens de ma présence sur Internet

Lorsqu’un individu ou une entreprise a un service/produit à vendre, la réponse à la question « pourquoi » s'impose d'emblée : pour vendre. À la limite pour « se vendre », un concept naturel chez les anglo-saxons qui garde de fortes connotations négatives chez nous, ce qu’il serait peut-être temps de dépasser ! Me vendre ne signifie pas me prostituer, mais vendre mon employabilité, mon savoir-faire, mes services, mes compétences, etc., de (télé)travailleur de la connaissance ou de l’information, d’agent économique en mesure, grâce à Internet, de contribuer au commerce mondial. Mes propos vous semblent-ils exagérés ? Pourtant, lorsque je vends mes traductions en Australie à un client que je n’ai jamais vu, n’est-ce pas là participer aux flux marchands qui sillonnent la planète à la vitesse de la lumière (ou peu s’en faut), depuis les formes élémentaires de troc jusqu’aux échanges Swift ?

Pour le travail d'un côté, certes, et de l'autre pour communiquer, me présenter, gagner en visibilité, dialoguer, apprendre, lire, m’informer, me former, commenter, participer, etc.

Enfin, last but not least :
  1. consommer, de la connaissance et de l'information (internaute = informationaute) d'une part, des produits et services de l'autre (consommateur interactif / proactif / réactif = consommacteur) ;
  2. produire, de la connaissance et de l'information, voire des produits ou services !
[Début]
* * *

Comment ? - Contenant / Contenu

I - Le contenant, ou l’aspect technique de ma présence sur Internet

N.B. Les geeks pourront sauter cette section, délibérément écrite de façon simple pour alimenter la réflexion, et passer directement au point suivant.

Concernant la technique, sujet central et infini sur Internet, je préfère emprunter mes mots au prospectus rédigé en termes immédiatement compréhensibles par Go Daddy pour son introduction en bourse, et vous donner une libre traduction du chapitre Customer Challenges :
Les enjeux et les défis d'une présence Internet

La nature dynamique de l'Internet – notamment avec la prolifération du contenu, l'e-commerce, les applications en ligne –, et l'évolution permanente des technologies sous-jacentes, soulèvent de nombreux défis que les individus et les entreprises doivent relever pour mettre en place, maintenir et faire évoluer une présence en ligne. Signalons en particulier les nécessités suivantes :

Mettre en ligne une présence Web significative

Les individus/entreprises doivent identifier, acheter et enregistrer un nom de domaine, puis concevoir et réaliser un site Web incorporant les technologies et fonctionnalités selon leurs exigences. Or nombre d'individus et de micro-entreprises n'ayant pas les compétences techniques nécessaires, il est fréquent que ça leur prenne du temps et leur coûte de l'argent pour mener à bien ce processus. Du temps car ils vont souvent consulter de nombreuses ressources en ligne ou hors ligne, et de l'argent pour faire appel aux services de consultants externes. En outre, la multiplicité des logiciels et des fournisseurs de services ajoute souvent à cette complexité et augmente les problématiques et les risques au niveau de l'intégration d'applications diverses et de leur interopérabilité.

Maintenir et faire évoluer une présence en ligne

Une fois votre site Web créé, la première décision à prendre est de choisir l'opportunité d'avoir son propre serveur Web ou de faire appel à un hébergeur tiers. Au fil du temps, vous voudrez probablement aussi intégrer de nouvelles fonctionnalités pour suivre le pas de vos besoins, une évolutivité qui peut se traduire par des applications d'e-commerce, des outils de productivité, des fonctions marketing incorporées au site, la mise en place d'un blog, d'un podcast, d'un forum, etc.
Dans cette course continuelle à l'innovation et aux nouveaux services, il est indispensable de se tenir à jour et d'adapter les performances de son site (ou de son serveur), notamment pour stocker des volumes de contenu qui s'accroît à un taux exponentiel.

Assurer la disponibilité et la sécurité de son site

Parmi les risques permanents : lenteur d'exécution et de chargement du site, interruptions ou arrêt du réseau, etc. Risques connexes : manque à gagner, clients mécontents, image et réputation de l'individu/entreprise écornées, pertes de contenu, hausse des coûts, multiplication des inconvénients. Sans oublier les problèmes de protection du site contre fraudes et menaces en tous genres, de plus en plus sophistiquées...
Donc pour y faire face, la protection d'un site Web exige souvent l'utilisation d'une variété de solutions ou de fournisseurs, qui vont générer des coûts importants, outre les défis techniques et de mise à niveau.

SAV

Autant de raisons pour lesquelles il faut pouvoir compter sur un support technique fiable, sur l’avis d’experts en mesure de vous conseiller et vous aider à résoudre vos problèmes.
Puisque désormais les sites sont “always on”, branchés en continu, et qu'un problème quelconque peut survenir à n'importe quel moment, beaucoup de clients veulent pouvoir contacter et consulter les services d'assistance technique 24 heures sur 24, 7 jours sur 7, que ce soit par téléphone, par courriel ou par Internet.
[Début]
* * *

II - Le contenu, ou la qualité de ma présence sur Internet

Même si l’aspect qualitatif est souvent et efficacement supporté par l’aspect technique, à mon sens la qualité regroupe deux secteurs émergents de notre présence sur Internet :

1. L’identité numérique
2. La gestion de la réputation


Qui sont les éléments clés de votre notoriété, et dont l'influence va croissant.

Concernant le point 1., au-delà de la transmission des données, de ce qu’on dit et ce qu’on fait, de la protection des données et du respect de la vie privée, il faut bien reconnaître que la confidentialité est un vœu pieu sur Internet (selon moi pseudonymat et/ou anonymat, indépendamment des bonnes raisons de qui les utilise, ne tiendront jamais sur le long terme), d'où l'obligation de prévenir plutôt que guérir, de prendre en charge sa propre identité numérique plutôt que de risquer des désagréments par la suite.

En fin de compte, mon identité numérique n'est autre qu'une extension de mon identité tout court. Ce que je suis, ce que dis/écris, ce que je fais, tout cela relevant de ma responsabilité, mon libre-arbitre, ma crédibilité. Sur Internet (monde virtuel de plus en plus réel) comme dans la vie réelle (de plus en plus virtuelle).

[ Définition d'identité selon le Robert historique de la langue française : vient du bas latin identitas « qualité de ce qui est le même », dérivé du latin classique idem, comme identificare (identifier) et identicus (identique), pour traduire le grec tautotês (tautologie). Identité signifie d'abord (début XIVe siècle) « caractère de deux objets de pensée identiques ». Le mot est repris au XVIIIe siècle pour désigner le caractère de ce qui est permanent ... (identité personnelle). En droit et dans l'usage courant (1801), désigne le fait, pour une personne, d'être un individu donné et de pouvoir être reconnu pour tel. (...) De son sens en droit, viennent les syntagmes usuels plaque d'identité (1881), pièce d'identité, carte d'identité (1931), photo d'identité et, par métonymie, identité judiciaire (XXe siècle). ]

Et désormais, ajouterais-je, identité numérique (XXIe siècle). CQFD !

Identité numérique qui prend de plus en plus d'importance au fil des jours et qu'il va falloir gérer, ce qu'on appelle désormais (point 2.) : la gestion de la réputation, prolongement naturel de la gestion de marque pour les entreprises, reputation management pour les anglophiles, qui devient également un enjeu technique, notamment avec des programmes d'anti-plagiat qui fleurissent un peu partout (compilatio, pour en citer un), un nouveau concept que nous allons devoir apprendre à apprivoiser. Mais si vous êtes d'accord, les approfondissements connexes feront l'objet d'un billet à venir, je crois que ça suffit pour aujourd'hui :-) [Début]



P.S. La réputation n'est pas l'apanage des particuliers, et peut parfois pousser les concurrents les plus acharnés à passer des alliances insoupçonnées : c'est le cas de Google, Yahoo! et Microsoft, qui viennent de s'allier aux côtés d'Ask.com, LookSmart et d'autres avec l'Interactive Advertising Bureau (IAB) et le Media Rating Council pour former le Click Measurement Working Group. Le but étant de rédiger des lignes directrices conjointes pour combattre la fraude au clic. La première étape consistera à définir ce qu'est un clic... [Début]

Tags , , , , , , , , , , ,