Affichage des articles dont le libellé est Mondialisation. Afficher tous les articles
Affichage des articles dont le libellé est Mondialisation. Afficher tous les articles

dimanche 3 juillet 2011

Welcome to the Word Century

[MàJ - 4 avril 2016] Le palimptexte terminologique

Suite de Welcome in the World Century, publié le 3 juillet 2007, il y a très exactement 4 ans aujourd'hui !

Cette première partie, titrée Utopie ou réalité terminologique ?, qui se voulait une « (r)éflexion quasi-philosophique poétique sur la terminologie et son évolution souhaitable : d’une terminologie normalisatrice, conceptuelle et prescriptive, vers une terminologie d’usage, lexicale et descriptive... », annonçait une seconde partie à venir, que j'intitulais déjà :

II. La terminologie, ou la quadrature du triangle sémantique : pour la création d’une fiche terminologique « Web 2.0 »

Tout d'abord, quelques précisions sur cette « quadrature du triangle sémantique » (en référence à l'impossible « quadrature du triangle » qui est le lot quotidien des traducteurs...), censée traduire l’absurde utopie terminologique selon laquelle les termes seraient univoques : 1 terme = 1 concept/1 notion, avec 1 définition !

la notion (le concept), serait une « unité de pensée constituée par abstraction à partir des propriétés communes à un ensemble d'objets. », et où "Concept / notion, objet, terme" sont les trois sommets du triangle sémiotique :

Une représentation simplifiant le modèle quadripartite d'Eugen Wüster :

dont Renata Stela Valente nous dit :
Wüster avait des raisons pour vouloir faire de la terminologie une théorie des concepts : il voulait que le terme ait le comportement d’un symbole, comme un symbole chimique NaCl, ou une icône (une disquette) qui représente directement un concept, fonctionnant ainsi dans l’extra-linguistique. La langue n’est qu’un véhicule d’expression du concept que le terme représente. De toute évidence, Wüster concevait une terminologie prescriptive où il n’y aurait pas de variations lexicales d’une même notion.
Dans cette "utopie terminologique", chaque terme contiendrait donc son propre tout, et réciproquement !

Le parallèle me vient naturellement avec l'utopie enclycopédique de Diderot et D'Alembert, tentative de rassembler en un seul contenant « les connaissances éparses sur la surface de la terre », pour reprendre les mots de Diderot lui-même. Un ouvrage qui aura demandé plus de 25 ans de travail.

Plus proche de nous, la Grande Encyclopédie (près de 49 millions de mots écrits entre 1885 et 1902, à laquelle je consacrerai bientôt un billet...) (à comparer avec 5 milliards de mots échangés sur Twitter ... par jour !), aura été la dernière tentative de ce genre, et ses auteurs plus conscients de « la tâche à la fois difficile et modeste à laquelle les collaborateurs de la Grande Encyclopédie ont consacré plusieurs années de leur vie, sans avoir l’illusion de penser qu’ils font une oeuvre définitive.
(...)
Penser faire une encyclopédie qui ne doive jamais disparaître serait une espérance chimérique.

Dans un quart de siècle, la science humaine aura marché. Des faits anciennement connus se seront modifiés ou seront mieux appréciés, des faits nouveaux se seront révélés, des théories anciennes seront mortes, des théories nouvelles seront nées. Les mêmes mots peuvent à vingt ou trente ans d’intervalle n’avoir plus la même valeur. Et à ce changement dans la nature des choses, il faudra bien que corresponde un changement dans la manière de les exposer ; - c’est-à-dire qu’à un ensemble de faits nouveaux, d’idées nouvelles, il faut une encyclopédie nouvelle.
Que l’on ne s’émeuve pas, d’ailleurs, de cette vie éphémère d’une encyclopédie. L’oeuvre n’en aura pas moins eu son jour et son utilité.

Les encyclopédies ne tombent pas comme les feuilles, et leurs printemps durent de longues années. Il faut au grand public un espace de temps assez étendu pour apprécier les lacunes d’une telle oeuvre et éprouver le besoin d’en voir faire une nouvelle édition. Entre deux encyclopédies successives marquant chacune une étape de l’humanité, il y a une période intermédiaire ; celle qui est née peut continuer à vivre, celle qui doit venir n’est pas encore à terme.

Puissions-nous marquer cette constatation du travail humain, ce tableau de notre temps, de traits qui en fassent vivre le souvenir, comme vit encore de nos jours le souvenir de l’oeuvre de Diderot et de d’Alembert !
 »

Il en va des termes comme des encyclopédies : jamais achevés, en mouvement perpétuel autant que la connaissance qu'ils sont censés décrire (dénoter, définir, etc.), toujours en marche. Chaque langue est vivante, en évolution continue : le jour où elle se fige, elle meurt !

Donc vouloir figer les termes dans un corset de sens, les enserrer dans un modèle de « fiche terminologique » rigoureux et inamovible, n'en a plus ... de sens, à supposer que cela en ait jamais eu...

Par conséquent, en donnant pour acquise la ligne de démarcation entre AVANT et APRÈS Internet, je voudrais tracer l'esquisse d’une fiche terminologique « Web 2.0 » en faisant référence à la pratique du métier de traducteur, que j'illusterai d'une métaphore :

If a Word leads to the World!

La différence entre "fiche terminologique 1.0" et "fiche terminologique 2.0" étant essentiellement spatiale :
  1. la première tient dans l'espace plan du papier, forcé de se faire palimpseste où se succèdent les polysémies temporelles créées par "la science humaine en marche" ;
  2. la seconde a pour univers l'espace virtuel, palimptexte qui contextualise à l'infini chaque terme : on part d'un mot et on arrive au monde...
Croyez-vous que je plaisante ? Voyons cela par l'exemple !

Avec un simple sigle : LTE. Dont Google indexe pas moins de 101 millions de résultats !

Juste 3 lettres, 101 millions de résultats !!! Juste inconcevable ! Avec une multiplication des sources :

Pour n'en citer que quelques-unes : glossaires, dictionnaires, images, vidéos, blogs, actus, temps réel, etc.

Un flux ininterrompu de sources, une profusion impossible à limiter, qui plus est multipliée par la quantité de langues et de traductions éventuelles... Autrement dit le rêve fou de l'univocité terminologique (1 terme = 1 définition) est définitivement dépassé, de même que la lexicologie (1 terme = n définitions) doit laisser désormais la place à la polysémie universelle : 1 mot = 1 monde !

Où la "fiche terminologique 2.0" devient palimptexte terminologique modelable à volonté et à l'infini...

* * *
En parallèle à ma réflexion sur cette babélisation du sens et des valeurs, où chacun/e donne désormais son propre sens et ses propres valeurs aux mots de la tribu, je ne peux qu'évoquer ce billet d'avril 2007 sur le sens et la valeur des mots :
Des mots qu'on utilise tous les jours et dont je me dis qu'on ne sait plus très bien le sens dont ils
sontdevraient être porteurs et les valeurs qu'ils sont censés véhiculer.

Une grande confusion règne autour des mots, et les publicitaires et politiques de tous bords - hommes et femmes - ont une immense responsabilité dans cet état de chose. Car pour le traducteur-poète (ou poète-traducteur...) que je suis, tant par vocation personnelle que professionnelle, qui réfléchit au sens des mots à longueur de journée, cela me crève le cœur de voir qu'il sont employés sans égard, fourvoyés dans une approximation scientifiquement entretenue, de sorte qu'on puisse aisément leur faire dire blanc ou noir en fonction du contexte, des opportunités, des intérêts du moment. Cela permet de mieux déstructurer la culture et l'esprit des populations, tout en les désinformant par une propagande habile, qu'elle soit marchande ou politique, je le répète.

Or il en va des mots comme de la nature. On n'en abuse pas sans générer de grandes catastrophes, et lorsque vous vous y attendez le moins ils se retournent contre vous. Dans son travail intitulé LTI - Lingua Tertii Imperii (La langue du IIIe Reich), Victor Klemperer, qui mène une réflexion approfondie et sans concession sur les mécanismes du langage totalitaire, cite en exergue ces mots de Franz Rosenzweig : « La langue est plus que le sang. »

Dès le premier recueil que j'ai écrit (il y a une vingtaine d'années), non publié, comme tous mes ouvrages poétiques, qui s'intitule « L'Écorché vif » :


réminiscences de ma vie aventureuse et vagabonde, je tentais de redonner un sens - le leur ou le mien - aux mots, à ceux que l'on parle, que l'on écrit, à ceux que l'on reçoit, aux mots, en somme, à travers lesquels on s'efforce de communiquer, les fameux "mots de la tribu"
en poursuivant délibérément le rêve de la perfection
l'utopie réalisée d'un texte qu'il n'y aura plus à reprendre - jamais !
Comme le petit Prince de sa rose, je me sentais de nouveau responsable pour chaque mot, pour l'usage propre de chaque mot..., responsable pour
enchâsser chaque parole dans son acception profonde - on n'y saurait en changer une seule sans briser l'équilibre subtil du recueil -, tantôt première tantôt plus actuelle

(combattre l'inadéquation du parler en redécouvrant la ligne de partage entre les antiques beautés de la "vieillerie langagière" et les nouveaux trésors de la langue moderne, davantage ouverte et "démocratique")

inventer une signification plus proche par quelques néologismes, contextuels ou non (plasmer)

masculiniser des substantifs injustement féminins depuis des millénaires (prostitué ou parturient...)

utiliser les vocables les plus humbles en leur rendant le discernement qu'ils ont désappris, leur native splendeur fanée d'avoir été trop longtemps prononcés, galvaudés
vulgariser la poésie, enfin

faire de la langue poétique
une langue charnelle
une langue humaine !
* * *
Dans ce laboratoire de désinformation, de censure et de manipulation permanente du langage qu'est devenue l'Italie berlusconienne, véritable cloaque, il est trop facile de constater que les mots ont perdu toute valeur commune, tout sens commun, nous en avons des exemples éclatants tous les jours, hier encore, Angelino Alfano, actuel ministre de la "Justice" intronisé Secrétaire du parti de Berlusconi, a déclaré sans honte et sans crainte de se couvrir de ridicule qu'il voulait faire du PDL (Peuple des Libertés...) le "parti des gens honnêtes" !

Après "Parti de l'Amour", voici donc le parti de Berlusconi, indubitablement le chef de gouvernement le plus menteur, indécent, corrompu, subversif et délinquant du monde démocratique, réintitulé "Parti de l'honnêteté" !!! Le comble dans un pays où le crime a été patiemment institutionnalisé - parlementarisé même - par nos gouvernants depuis la fin de la IIe Guerre mondiale, toutes couleurs confondues, et où les mafias prospèrent en toute "légalité"...

Oui, le pouvoir des mots a bien le pouvoir de changer le monde (hélas !), comme le montre cette vidéo découverte hier via @randfish :

The Power of Words



qui se conclut ainsi : « Change your words. Change your world. »

En bien ou en mal...

Partager sur Facebook

lundi 12 janvier 2009

Les temps changent, et ça continue !

Les temps changent, et ça continue !

En juin 2007, j'adaptais un tube de YouTube, dont différentes versions ont été vues des millions de fois dans plusieurs langues, Did You Know? Shift happens, avec l'autorisation de son auteur, Karl Fisch, qui m'encourageait à « utiliser/modifier/ traduire la présentation à mon gré, tout ce que je jugeais bon pour continuer à alimenter la conversation » :
You're welcome to use/modify/translate the presentation however you'd like - anything to help get those conversations started.
La présentation originale date un peu, or je viens de découvrir une version Did You Know 3.0, présentée en 2008 à ... Rome !



On peut y lire, entre autres :
MySpace a plus de 200 millions d'utilisateurs enregistrés. Si MySpace était un pays, ce serait le 5e pays le plus peuplé du monde (entre l'Indonésie et le Brésil).

Lors de mon adaptation, cette statistique était la suivante :
Il y avait plus de 106 millions d'utilisateurs enregistrés sur MySpace en septembre 2006. Si MySpace était un pays, ce serait le 11e pays le plus peuplé du monde (entre le Japon et Mexico).

MySpace a donc gagné pratiquement 95 millions d'utilisateurs supplémentaires en un peu plus de deux ans.

Or Facebook a réalisé un gain équivalent en très exactement un an, moitié moins ! De 55 millions en janvier 2008 (une époque où Facebook semblait stagner...) à 150 millions il y a ... 5 jours, puisque Zuckerberg vient d'annoncer sur son blog que le cap a été franchi :
If Facebook were a country, it would be the eighth most populated in the world, just ahead of Japan, Russia and Nigeria.

Si Facebook était un pays, ce serait le 8e pays le plus peuplé du monde (devant le Japon, la Russie et le Nigeria).
Une prévision déjà anticipée par Jamsbrain en octobre 2007 !

Or ils étaient à 140 il y a un mois à peine ! Dont 20 millions sur mobile...

Toujours plus, toujours plus loin, toujours plus vite, nous vivons bien en des temps exponentiels...

Pour mémoire :

Les temps changent, le saviez-vous ?...
Les chiffres en disent parfois plus long que les mots.





Partager sur Facebook

P.S. Par la suite, nous avions convenu avec Karl Fisch que j'aurais développé une page Wiki sur les versions localisées, je n'ai jamais pris le temps de le faire. Mais si vous connaissez des traductions/adaptations dans d'autres langues, merci de me les signaler en commentaire, ça me donnerait probablement la juste impulsion pour réaliser cette page !

, , , , , , , , , , , , ,

dimanche 30 septembre 2007

Le circuit communicationnel de la traduction


English version / Version anglaise

Traduction = Communication
Le circuit communicationnel de la traduction
Conclusion : choisir un prestataire de service digne de ce nom

* * *

Traduction = Communication

Je commence ce billet en me citant moi-même dans Communication : les projets d'avenir du Studio92.eu :
Et surtout, grâce à Internet, le moment est venu que la traduction devienne enfin ce qu'elle est depuis la nuit des temps : communication pure...
- Question aux entreprises : confiez-vous votre communication au premier venu ?
- Réponse : non, jamais.

- Question corollaire : confiez-vous vos traductions au premier venu ?
- Réponse : oui, souvent.

- Pourquoi ce hiatus ?
- Parce qu'une large majorité de clients pensent encore - contre toute logique, sinon la logique du portefeuille - qu'il suffit de baragouiner une langue avec plus ou moins de bonheur pour savoir traduire.

C'est ainsi qu'ils n'hésitent pas une seconde à confier leur documentation institutionnelle, voire leur correspondance commerciale, à des soi-disant traducteurs ayant pour seul mérite d'être les moins-disants, avec comme seul critère d'attribution du marché le prix le plus bas possible...

En passant outre les compétences et la qualité, et en ignorant totalement que la traduction est une opération complexe, qui suit son propre circuit communicationnel. [Début]

* * *

Le circuit communicationnel de la traduction

Je vais donc tenter de clarifier les choses en vous proposant une explication de ce qu'est, selon moi, le véritable circuit communicationnel de la traduction, en m'inspirant à ma manière de diverses théories de la communication et en détaillant chacune des étapes. En septembre 2004, j'avais mis au point l'illustration suivante :


En bref, en mixant plusieurs modèles de communication, vous avez :

1. une source d'information (qui)
2. un message à transmettre sous forme de signal (dit quoi)
3. un émetteur qui va coder le signal (comment)
4. un canal de transmission qui va véhiculer le signal (par quel canal)
5. un récepteur qui va décoder le signal pour recomposer le message et restituer l'information qu'il contient (à qui)
6. un feedback, ou rétroaction (avec quel effet en retour)

Or lorsqu'on parle de communication interpersonnelle, on donne généralement pour acquis qu'il y a compréhension entre émetteur et récepteur parce qu'ils parlent la même langue. Un postulat faussé dès le départ lorsqu'ils parlent deux langues et que l'un ne comprend pas celle de l'autre. Soit le lot quotidien d'environ 7 milliards de terriens dans une infinité de lieux et de circonstances !

Donc si l'on met de côté les aspects techniques pour nous concentrer sur le cheminement entre l'émission d'un message en langue A par son auteur et sa réception en langue B par son destinataire - ce qui est une définition de la traduction -, nous obtenons les correspondances suivantes en termes de communication :

1. une source d'information (qui) (auteur)
2. un message à transmettre sous forme de signal (dit quoi) (message en langue A)
3. un émetteur qui va coder le signal (comment) (codage en message source)
4. un canal de transmission qui va véhiculer le signal (par quel canal) (traduction)
5. un récepteur qui va décoder le signal pour recomposer le message et restituer l'information qu'il contient (à qui) (destinataire du message cible décodé en langue B)
6. un feedback, ou rétroaction (avec quel effet en retour) (y a-t-il perte - ou gain - d'information, satisfaction ou insatisfaction sur la qualité du message traduit)

Première observation : d'aucuns pourraient s'étonner que je place la langue entre l'auteur et le message source, ou entre le message cible et le destinataire.

L'explication est simple : pour le créateur, ou pour le traducteur, il n'y a jamais UNE SEULE façon de coder son message, puisque chaque langue autorise de nombreuses variantes de codage, ce qu'on appelle le registre de la langue. Entre "veuillez partir s'il vous plaît" et "casse-toi", le message est le même mais la formulation diffère quelque peu...

Le codage du message source - et cible - change donc en fonction des buts de la communication, des destinataires, des lieux, des circonstances, etc. Les critères sont multiples. Interviennent aussi le bruit (ce que j'appelle le parasitage linguistique, comme par exemple une mauvaise maîtrise de la langue, du style, de la syntaxe, de la grammaire, de l'orthographe, etc.) et les filtres (culturels, religieux, familiaux, sociaux, etc.), susceptibles de modifier ou perturber la clarté de l'information. Ainsi, chaque message est influencé par une infinité de variables, conscientes ou non.

Il n'est pas rare qu'un ingénieur, un avocat, un médecin, etc. - tout expert dans son domaine -, ne sache pas s'exprimer correctement dans sa langue. Un traducteur qui exerce le métier depuis longtemps a sans aucun doute des centaines d'exemples à sa disposition, où il finit par produire un texte d'arrivée nettement plus intelligible que le document de départ.

Quant au processus de TRADUCTION proprement dit, qui se base sur les compétences intrinsèques du traducteur ET sur les aspects techniques que représentent la localisation et/ou la traduction assistée par ordinateur (ça peut aller de la traduction automatique sur les moteurs aux environnements d'aide à la traduction, de la gestion terminologique à l'exploitation des mémoires de traduction, du bitexte ou du corpus multilingue au glossaire en ligne et au moteur spécialisé, etc.), c'est le canal qui va permettre de véhiculer le message d'une langue à l'autre.

Dans une opération de mise en équivalence du message - et non pas des termes, ou des mots (distinguo d'une importance cruciale que j'ai détaillé dans une analyse de la traduction technique professionnelle) -, qui consiste pour les traducteurs à augmenter « l'élasticité de la langue », à former « des ponts entre les peuples », dixit Victor Hugo...

Vous remarquerez enfin sur mon graphique les deux coupures qui peuvent éventuellement interrompre le message, soit en amont si l'intégrité de l'information ne passe pas entre message source et message cible pour cause d'incompréhension, de mauvaise traduction, etc., soit en aval dès lors que le destinataire du message n'est pas capable de juger l'adéquation entre source et cible, ou qu'il s'en fout complètement, ce qui n'est pas rare non plus. :-)

Ceci étant, sur le curseur qui va de la satisfaction à l'insatisfaction, il peut y avoir mille situations selon la compétence / l'incompétence des uns et des autres... [Début]

* * *

Conclusion : choisir un prestataire de service digne de ce nom

Voilà. Donc si votre PME fait partie des entreprises européennes qui « subissent de fortes pertes commerciales, faute de disposer de compétences linguistiques suffisantes », et si par un heureux hasard, vous y êtes prescripteur de traductions et que vous avez eu le courage et la patience de lire jusqu'ici, j'ose espérer que vous confierez votre prochaine traduction ou la localisation de votre site corporate à un prestataire de service digne de ce nom.

Comme Translation 2.0, par exemple (mais c'est juste un exemple :-).

Car sachez qu'en règle générale, la qualité d'une traduction finit toujours par être proportionnelle au prix qu'on la paye - ou qu'on est disposé à la payer. La communication multilingue est un métier, et comme tout métier, ça ne s'improvise pas ! [Début]


, , , , , , , , , , ,

mardi 3 juillet 2007

Welcome in the World Century

[MàJ - 4 avril 2016] Le palimptexte terminologique

Réflexion quasi-philosophique poétique sur la terminologie et son évolution souhaitable : d’une terminologie normalisatrice, conceptuelle et prescriptive, vers une terminologie d’usage, lexicale et descriptive

I. Utopie ou réalité terminologique ?

II. La terminologie, ou la quadrature du triangle sémantique : pour la création d’une fiche terminologique « Web 2.0 »

Note de lecture : voilà près d'un mois et demi que j'étais sans connexion Internet à cause de "mon" opérateur téléphonique. Aujourd'hui le problème semble réglé, même si je n'en suis pas encore sûr à 100%. Cela explique pourquoi je n'ai pas écrit autant de billets que je l'aurais souhaité durant cette période, et pourquoi ces longs billets, celui-ci en particulier. La terminologie faisant partie depuis des lustres de ma vie quotidienne, tant personnelle que professionnelle, il y a longtemps que je voulais mener une réflexion approfondie sur le sujet, à la fois théorique (cette première partie) et pratique (seconde partie à venir). Ce que j'avais déjà fait pour la traduction professionnelle. Le texte pourra parfois vous paraître ardu, pourtant je me suis constamment efforcé de faire le plus simple possible. Bonne lecture à celles et ceux qui s'armeront d'une bonne dose de patience. Lorsque j'aurai terminé le deuxième chapitre je réunirai l'ensemble du document dans un PDF pour une lecture hors ligne plus confortable...

* * *

I. Utopie ou réalité terminologique ?

“The coming century will not be the American Century, it will be the World Century.”
Michael Eisner, CEO, The Disney Company, 1998

Les temps changent ! Et avec eux, tout change. Y compris notre perception du monde (la façon dont nous nous représentons le monde) et notre perception au monde (la façon dont nous nous représentons face au monde et à nos semblables).

Depuis Adam et Ève (Genèse 2, 19-23), l’homme nomme le monde et les êtres, et avant même l’instauration d’une interaction ou d’un dialogue, cette « nomination du monde » est le premier acte fondamental de la communication. Un acte qui s’inscrit dans l’espace, l’espace physique, originel, de l’homme.

Or depuis ce big bang, cette nomination du monde s’étire non plus seulement dans l’espace mais dans le temps de l’homme, dans sa durée de vie, à la fois individuelle et collective. De plus cette infinie ductilité s’accélère follement et passe d’une ancestrale lenteur de l’histoire humaine, habituée hier encore à compter en millions d’années, à la célérité de la lumière qui distingue aujourd’hui et caractérisera toujours plus demain l’Ère Internet, cyber-galaxie tridimensionnelle ayant l’espace pour largeur, le temps pour longueur et l’information pour hauteur (sans aller jusqu’à parler de profondeur…).

« Welcome in the World Century », « Bienvenue dans le siècle-monde », où le temps et l’espace finissent par se rejoindre à la surface de l’écran, l’interface, donnés « à voir dans l’immédiateté d’une transmission instantanée », dans « cet emplacement sans emplacement » où « l’épuisement du relief naturel et des distances de temps télescope toute localisation, toute position », où « Comme les événements retransmis en direct, les lieux deviennent interchangeables à volonté » 1, où « L’INFORMATION est le seul ‘relief’ de la réalité, son unique ‘volume’. (…) Désormais, tout arrive sans qu’il soit nécessaire de partir, mais ce qui ‘arrive’, ce n’est déjà plus l’étape ou le but du voyage, mais seulement l’information, l’information-monde, que dis-je, l’information-univers ! » 2

Un ‘voyage’ sans trajet ni départ où le prétendu dépassement des limites physiques et spatio-temporelles n’efface pourtant pas l’ultime frontière, celle du dispersement linguistico-culturel imposé depuis Babel (Genèse 11, 6-9), rendant illusoire tout retour à une époque immémoriale où « tout le monde se servait d’une même langue et des mêmes mots » (Genèse 11, 1) et dressant désormais presque autant de barrières qu’il y a … d’hommes et de femmes.

Égarés, confondus entre, d’une part, notre rythme physiologique naturel et ses contingences irréductibles, et, de l’autre, la vitesse et les accélérations phénoménales auxquelles nous sommes constamment soumis, sur tous les fronts, plutôt de force que de gré, dans une simultanéité exigeant de nous que nous pensions, agissions, réagissions, communiquions, décidions … dans un espace-temps instantané, alors même que nos faits et gestes et, surtout, nos mots, peuvent nous engager par les traces qu’ils vont immanquablement laisser, destinées à durer, parfois toute notre vie, voire à nous survivre, memoria verborum.

D’où la nécessité absolue, vitale, de nous entendre sur le sens des mots que nous utilisons, ou pour le moins tenter, afin de limiter au maximum les risques d’incompréhensions, de mauvaises interprétations, toujours aux aguets et nuisibles à toute bonne communication. Mais rien n’est plus difficile ! Y compris (surtout) pour les « experts ». Nous le verrons en analysant une nouvelle quadrature du triangle (), à savoir les
troisquatre mots clés qui sont au cœur de la science terminologique : concept / notion, objet, terme.

Une entente nécessaire qu’aurait voulu porter à son paroxysme la terminologie, dont le « père » unanimement reconnu, Eugen Wüster, fonda ses travaux sur ceux du Cercle de Vienne, qui préconisait notamment « la recherche d’un système formulaire neutre, d’un symbolisme purifié des scories des langues historiques » 3. Ainsi, dans ce « système sémiotique optimal entièrement fondé sur la logique, (l)’unité minimale est le terme, ‘pur’ de toute connotation, univoque, monoréférentiel et précis » 4.

Or croire qu’il suffirait d’affubler le « mot » de l’appellation « terme » pour justifier la nécessité d’une soi-disant monosémie contredite dans les faits n’est que vue de l’esprit, une convention arbitraire artificiellement – et longtemps – entretenue qui n’est plus d’actualité. L’univocité des mots (rectius : des termes) ou l’unilinguisme auraient-ils encore cours dans le village global ?

Non ! Il en va des mots (des termes) comme des langues. Ils ne sont pas univoques : « un langage univoque (ou plus précisément bi-univoque) est un langage dans lequel chaque mot ou expression a un seul sens, une seule interprétation possible et il n’existe qu’une seule manière d’exprimer un concept donné » 5. Chimère ! Une « bi-univocité parfaite entre les notions et leur désignations (…) est contraire à l’expérience des textes scientifiques et techniques, au sein d’une même langue et à plus forte raison d’une langue à l’autre, de culture à culture, de terroir à terroir, de milieu professionnel à milieu professionnel. » 6 Yves Gambier va plus loin :
« Le postulat de biunivocité est intenable, sauf peut-être pour certains secteurs des sciences dites exactes (mathématiques, chimie…). Il stabilise, selon une obsession fétichiste, les rapports signifié-signifiant de chaque signe : il fige les rapports entre les notions (négation même du mouvement des connaissances). Ce formalisme a des allures de fascisme linguistique ; le contrôle des sens et des dénominations élague toute tension sur le marché des sens, des langues… » 7
Résolument, pas de sens gravé dans la pierre ad eternam, un mot vieillit, rajeunit, change, bouge, se métamorphose, etc., au gré de son « contexte » : qui le prononce, quand (temps), (espace), comment (dans quel contexte, quelle situation), pourquoi (quelles finalités ? propagande, démagogie…), en fonction de quel interlocuteur, de quel public cible, et ainsi de suite. Surtout, le dynamisme et la polyvalence des langues, et donc des mots, n’obéissent à aucune imposition de type top-down, mais subissent plutôt une croissance bottom-up, une poussée du bas vers le haut qui est d’ailleurs dans la nature des choses.

« Le langage naturel est équivoque : il y a plusieurs façons d’exprimer la même idée (la redondance), ce qui est exprimé possède souvent plusieurs interprétations (l’ambiguïté) et tout n’est pas exprimé dans le discours (l’implicite). » 8

Un état et une polysémie auxquels les langues de spécialité échappent de moins en moins…

Puisqu’il ne suffit plus de circonscrire à dessein le champ terminologique en le découpant en domaines, sous-domaines, domaines adjacents, domaines nécessaires à sa constitution, secteurs, sous-secteurs, thésaurus, nomenclatures, ontologies, etc., dans une tentative de classification du monde et de l’univers conçus et perçus dont la texture n’est pas sans évoquer la toile de Pénélope, cela n’ayant plus grand sens sur Internet au fil des mots !

Pourquoi ? Parce qu’Internet est – devient chaque jour davantage – un incommensurable corpus, plurilingue et pluriculturel, qui rassemble peu ou prou l’ensemble de la connaissance humaine en un même « lieu » spatiotemporel, chaotique, innommable et innombrable, que nous pourrions définir en outre « hyperlinguistique » grâce à la variété et, dirais-je, l’inépuisabilité de ses manifestations formelles et des connexions possibles. Une hétérogénéité compensée en quelque sorte par l’ « unité de lieu », qui rend soudainement et potentiellement accessible, traitable, disponible, etc., cette « masse planétaire » de matière à quiconque.

Où voulez-vous encore trouver la monosémie là-dedans ? Wüster lui-même « n’a jamais présenté la monosémie d’un signe comme un dogme − mais tout au plus comme un fait idéal dans l’objectif de faciliter la communication dans des domaines techniques − ni nié la variabilité des significations d’un même signe », discutant du « rôle de la langue en tant que création et créatrice (Schöpfer und Geschöpf) d’une communauté » 9 dans son fameux Exposé illustré et terminologique de la nomination du monde. 10

Enfin, de plus en plus, s’il y a monosémie, elle ne peut être que dans le « hic et nunc » du discours, donc éphémère, voire individuelle : le sens n’est plus dans tel ou tel terme, mais dans la situation, dans l’instant de l’ « interlogue ». Y compris lorsqu’un seul et unique mot, signe, symbole, revêt un sens différent pour chacun des interlocuteurs, auquel cas c’est la divergence même d’intention et d’interprétation qui fait sens…

Attention ! Loin de moi la volonté de nier les formidables apports de la terminologie en tant que science 11, mais à ma connaissance (je ne demande qu’à être réfuté), les travaux et réflexions terminologiques qui se succèdent au fil des ans ne rendent pas suffisamment compte du ferment qui accompagne l’émergence du Web 2.0, puisqu’ils ne mentionnent jamais (?!) ce que j’appellerais la variable « sagesse des foules », c’est-à-dire l’intelligence collective à l’œuvre sur Internet : une culture ou « une approche de la société qui considère les groupes humains (une entreprise, une ville ou l’humanité elle-même) comme des systèmes cognitifs qui créent, innovent et inventent » 12.

Dans près de 4 000 pages de textes consultés sur l’argument et les questions connexes, je n’ai trouvé qu’une seule référence faite à Wikipédia sous l’angle de la connaissance encyclopédique et d’un contenu terminologique « riche en connaissance(s) » (knowledge-rich terminology) (orientation inéluctable de la terminologie, tel que je vois les choses...), même s’il est vrai que c’est une « référence de poids » !

Proposée par M. Christian Galinski, actuel Secrétaire du … Comité 37 de l’ISO, lors d’une présentation faite en mai 2005 à Bamako 13, intitulée :

Terminology standards – enhancing language
ISO/TC 37 – Semantic Interoperability

(Des normes terminologiques, pour enrichir la langue – Interopérabilité sémantique)

Alors, une terminologie à deux vitesses ?

De même que Wikipédia représente une ligne de démarcation dans l’encyclopédisme, les initiatives comme les glossaires ouverts KudoZ (© KOG by ProZ.com) ou les listes de discussion dédiées sont destinées à impacter en profondeur la terminologie du 21e siècle, bien qu’à ce jour elles ne soient (encore) ni reconnues ni recensées par les hautes instances qui président aux destinées terminologiques.

Lesquelles évoluent, certes, pour tenter de s’adapter, mais malheureusement tout cela reste basé sur des impératifs économiques et politiques qui perdent de vue les nécessités … des foules ! Sans parler des « heurs et malheurs de nombreuses normes que la sagesse des peuples a sauvées du ridicule en récusant le diktat du normalisateur mal avisé. » 14

* * *

Et bien parlons-en du normalisateur ! Ou plutôt, dans le cadre de cette réflexion, de son ancestral parangon, le Comité technique 37 de l’Organisation internationale de normalisation (ISO TC/37), chargé d’élaborer des normes terminologiques internationales et dont l’emprise va grandissante.

Principale instance “horizontale” de l’ISO, au sens où la terminologie (comme la traduction) est transversale à toutes les disciplines, on constate depuis 2001 un réaménagement en largeur et en profondeur du champ d’intervention de ce Comité, pour élargir ses horizons (expanding ISO’s horizons), asseoir et étendre son influence (extending ISO’s influence), et mettre en œuvre une stratégie adaptée aux temps modernes en vue de relever les défis linguistiques et culturels qu’annonce l’avènement d’Internet. Certes, ces défis ne sont pas nouveaux, mais le Web leur donne une ampleur inconnue jusqu’à nos jours.

Car s’il est vrai que les évolutions de l’usage et du sens des mots témoignent de celles de nos sociétés, l’observation et l’analyse des changements à l’œuvre autour du titre et des domaines d’activités du CT 37 – jusqu’en 2001 en charge de la Terminologie : principes et coordination (Terminology, principles and coordination) – et de ses sous-comités (3 initialement, 4 à partir de 2002) sont riches d’enseignements…

Il est d’ailleurs remarquable que l’appellation Terminologie : principes et coordination, restée figée pendant plus d’un demi-siècle, ait déjà subi deux changements au cours des 5 dernières années, ce qui est un fort indice de dépoussiérage, convenons-en…


Tant au niveau de son intitulé que de sa traduction. Mais procédons par ordre.

C’est d’abord la notion de « other language resources » qui fut introduite au côté de la terminologie, pour indiquer clairement que le Comité technique 37 allait désormais s’occuper des « autres ressources linguistiques » au sens large, non plus seulement terminologiques, mais aussi lexicographiques, terminographiques, etc.

Puis trois ans plus tard, apparition de la notion de « contenu » et des ressources associées, vaste domaine lorsqu’il s’applique à l’Internet…

Au niveau de la traduction française, l’expression « language resources », auparavant presque toujours rendue par « ressources linguistiques », est à présent francisée en « ressources langagières », probablement dans une tentative un peu puérile de vouloir se détacher à tout prix de la linguistique, ce terme étant porteur d’une multitude de significations pas toujours en accord avec la terminologie, loin s’en faut, un problème plus intimement ressenti par les francophones…

Mais c’est surtout au niveau du domaine d’activités du CT 37 qu’on enregistre l’évolution la plus significative, puisque la « Normalisation des principes, méthodes et applications relatives à la terminologie et aux autres ressources langagières et ressources de contenu » s’inscrit maintenant « dans les contextes de la communication multilingue et de la diversité culturelle », un changement remarquable, voire révolutionnaire !

Non plus dans un contexte singulier mais pluriel, à la fois linguistique (communication multilingue) et extralinguistique (diversité culturelle).

Or si les normes ISO posent depuis toujours comme une évidence l’essentialité du second (Les notions ne sont pas liées aux langues individuelles. Elles sont cependant influencées par le contexte socioculturel.) (ISO 1087 1990 : 1), elles ignoraient intentionnellement la portée du premier, dans le sillage de Wüster, en basant toute leur approche conceptuelle sur l’idée d’un « terme » isolé de son contexte linguistique, « ‘pur’ de toute connotation, univoque, monoréférentiel et précis », comme déjà cité plus haut. « En fait, cette conception du terme, détachée du système linguistique, a une genèse commerciale. » remarque justement Renata Stela Valente 15, ce qui peut expliquer bien des choses…

« Les termes dans ce cadre ne sont pas considérés selon leur contexte de phrase et encore moins selon le contexte de production ; ils sont réduits à des noms-étiquettes. », et leur fonctionnement « généralement analysé comme indépendant des locuteurs, des discours et des conditions de production. » 16

Ce qui est déjà incompréhensible si l’on envisage les langues de spécialité comme des sous-langues, et plus encore si la réalité est autre : « Il n’existe pas une langue générale et une langue de spécialité divisée en domaines, mais le terme est un signe dont le fonctionnement est spécialisé par le contexte de référence. » 17

Donc en introduisant ENFIN la dimension linguistique sous les atours de la « communication multilingue », l’ISO rompt définitivement avec une tradition qui dure depuis près de 70 ans, ce qui n’est pas rien. Surtout lorsque l’on sait combien de critiques, parfois féroces, lui a valu l’intransigeance de cette position de principe. (Cf. pour information, Humbley)

Et puisque vraisemblablement l’influence de l’Organisation internationale de normalisation est destinée à s’étendre, à l’instar des autres mouvements globaux de normalisation/contrôle (normes IFRS pour la comptabilité, référentiel Bâle II pour les banques et les assurances, l’ICANN pour l’Internet, etc.), vu les enjeux économico-politiques gigantesques qu’il y a derrière, tout à fait dans le droit fil de la « genèse commerciale » à peine évoquée (nous allons d'ailleurs bientôt fêter la 10e journée mondiale de la normalisation : « des normes pour les citoyens : une contribution à la société »...), c’est aussi un moyen de retirer des arguments de poids aux opposants à la « doctrine terminologique » 18, à la « terminologie dominante » 19, etc.

Une distinction subtile, stratégique, qui ne remet malheureusement pas en cause la « dictature du terme », davantage considéré comme une abstraction pour mieux le « normaliser de force » en le forgeant dans un arbitraire monosémique idéalisé : 1 terme = 1 sens. Or essayez de quantifier le nombre de sens possibles dans l’univers et d’attribuer un seul et unique terme à chacun d’eux, vous verrez vite les limites de l’exercice. Les plus grands néologues de l’humanité réunis, de Rabelais à Frédéric Dard pour rester chez nous, ne suffiraient à la tâche.

Ce qu’exprime Daniel Gouadec avec la clarté d’exposition qui le caractérise : « Si l’utopie terminologique appelle la monosémie, la réalité ne cesse d’aller dans le sens de l’ambiguïté et de la polysémie que la nécessité d’économiser les désignations (termes et mots) rend inévitables : un langage strictement référentiel comporterait autant de mots ou termes qu’il existe d’éléments désignables dans l’univers perçu ou conçu. » 20

Je conclus de tout ce qui précède que les terminologies sont autant de langages imparfaits voués à l’échec, théorique sinon pratique, que nul formalisme ne saura – ni ne pourra – jamais rendre parfaits, ce qui ne serait ni souhaitable ni concevable. Réfléchissons juste au constat que dresse François Rastier de cette tendance à la perfection :

« Perfectionner la langue, c’est par ces voies diverses la soustraire à l’interprétation, soumise à des variations individuelles et historiques, et ainsi lui permettre de refléter sereinement la vérité dans sa permanence.

En somme, une langue parfaite se caractérise de cinq manières concordantes :

(i) Elle est internationale, pour des raisons tant mythiques (rédimer Babel) que pratiques (assurer une communication facile au sein de l’humanité).
(ii) Elle est véridique, car elle dénote exactement ses objets.
(iii) Elle reflète correctement la pensée, ce qui permet de la dire auxiliaire (par son rôle idéographique).
(iv) Elle est inaltérable dans le temps et invariable dans l’espace, en ceci qu’elle n’est pas soumise aux variations dialectales (que craignait tant Tracy) ; et cette uniformité est redoublée par le fait qu’elle ne connaît de variations diachroniques (ou du moins, elle est considérée en diachronie).
(v) Elle est artificielle, car seule une volonté normative peut assurer qu’elle reste inaltérable et invariable -- cette permanence assurant qu’elle reflète correctement l’Être dans sa pérennité.

Tous ces traits caractéristiques sont reformulés par Wüster et ses successeurs pour ce qui concerne la terminologie. »
21

Le seul point qui « fait sens » et emporte mon adhésion est le premier (Eugen Wüster était d’ailleurs un espérantiste pratiquant). Au conditionnel, toutefois. Mais j’aime assez l’idée d’une communication « transnationale » capable de franchir les frontières.

Pour les autres, aujourd’hui, hier et demain :

1. Aucune langue ne peut être soustraite à l’interprétation
2. Aucune langue n’est véridique ni ne reflète correctement la pensée plus qu’une autre
3. Aucune langue n’est inaltérable dans le temps ou invariable dans l’espace, ni artificielle ou permanente à « volonté »

Aucune langue ni, a fortiori, aucune sous-langue. De plus, si une telle langue existait, on peut affirmer qu’elle irait contre nature et n’aurait aucun sens ! Ce qui serait vraiment le comble !

Car la langue n’a de sens que par et pour l’homme. Dans ses variations individuelles, et historiques (relisez un texte en françois du Moyen-âge, pour voir…). La langue articulée, au propre et au figuré, n’est-elle pas l’un des traits essentiels qui distingue l’homme de l’animal ?

Par et pour les machines aussi ? Qui a dit ça ? Tim Berners-Lee en parlant du Web sémantique, peut-être ? C’est faux. Dans l’absolu. Que la machine soit lisante, écrivante, traduisante, indexante ou selon vos goûts, soit. Que Big Blue humilie aux échecs le champion des champions du monde, soit également. Que les machines fonctionnent en réseaux et communiquent entre elles, soit encore. Mais pourquoi les machines liraient-elles, écriraient-elles, traduiraient-elles, indexeraient-elles, creuseraient-elles, construiraient-elles, voire détruiraient-elles ou autre, sinon en vue d’une interaction, in fine, avec l’homme ? Par et pour l’homme ? Serait-ce un hasard si toute cette belle mécanique se prolonge et termine toujours par une interface qui se confond généralement avec la surface de l’écran où elle affleure ? Tantôt projection, tantôt protection, tantôt tactile, tantôt rétractile, etc.

La langue est matière et les machines des outils dont se sert l’homme, à cette différence près que celles-ci se laissent volontiers découper (et d’ailleurs comment pourraient-elles protester ?), décomposer et recomposer dans un re-engineering continu, tandis que celle-là ne se laisse enfermer dans aucun moule, réfractaire à toute formalisation, modélisation, catégorisation, classification, explication et ainsi de suite. Et si de temps en temps elle donne l’illusion à tel ou tel de faire une découverte fondamentale ou d’y comprendre quelque chose, ce n’est que pour mieux s’échapper, plus vite et plus loin, en faisant naître mille nouvelles interrogations, dont les couches se superposent aux anciennes sans même leur donner le temps de sédimenter. « C’est un fait bien connu que le lexique se constitue par le dépôt naturel de tout l’extra linguistique ; il s’articule sur la réalité sociale et sur son développement historique. » 22

Ainsi, l’humus des langues est fait de mots qui puisent leur sens originel ailleurs que dans la langue : dans la société, dans la culture, dans la tradition, dans le métier, dans l’innovation, etc. « Le groupe de faits linguistiques où l’action des causes sociales est dès maintenant reconnue et le plus exactement déterminée est celui des innovations apportées aux sens des mots. » 23 Dans une relation dynamique entre l’essence des êtres et des choses et les sens des mots, aussi mouvants que les sables, où « saisir » le sens suppose des capacités d’analyse ET d’intuition, ce que n’auront jamais les machines, une opération n’ayant rien à voir avec un processus statique. Figer le sens, c’est tuer le sens.

Au contraire, saisir le sens, en « prendre possession » selon l’étymologie du verbe, c’est l’intercepter en un temps et un lieu donnés, une appropriation rarement définitive : le sens est vivant, perpétuellement en mouvement, auto-cicatrisant, régénérateur, « created fully in no particular form » 24, créé pleinement sans aucune forme particulière, indépendamment du fait que la langue qui le véhicule est alphabétique, idéogrammatique, agglutinante, tonale, etc., ou de ce que l’agent linguistique qui tente de l’encapsuler est un mot, un terme, un discours, un symbole, un chant, un cri ou un… silence ! Reçu et donné dans l’instant partagé du dialogue, parfois soumis aux « grammaires de la création » si finement analysées par George Steiner ou aux « correspondances » chères aux poètes, Baudelaire in primis, mais certainement peu appréhendable et interprétable de façon exhaustive par la machine. Sans parler des domaines de l’implicite, l’ineffable, l’informulable…

Je n’en donnerai qu’un exemple pour preuve. En raisonnant par l’absurde : imaginez un instant que l’on dispose de l’Ontologie et de la Langue parfaites, entièrement orchestrées en automatique par une intelligence artificielle dont les performances de calcul et de raisonnement auraient dépassé celles du cerveau humain, voire de l’humanité… Ajoutez-y une traduction automatique digne des plus grands polyglottes devant l’Éternel, stockant dans sa mémoire les terminologies multilingues normalisées du monde entier, juste pour faire bonne mesure.

Vous y êtes ? OK. Alors voici ma question, en n’importe quelle langue : « Pensez-vous qu’une telle machine aurait un jour la capacité de … CROIRE ? »

Et puisque je mentionne Big Blue, cela me rappelle un « vieux » poème, écrit il y a une vingtaine d’années :

Il était une fois
un joueur d’échecs
si fort
qu’il voulut
se mesurer
à Dieu

sur l’échiquier
ne resta qu’
un fou

* * *


À venir : II. La terminologie, ou la quadrature du triangle sémantique : pour la création d’une fiche terminologique « Web 2.0 »


Notes bibliographiques :
  1. VIRILIO P. (1984), L’espace critique, Christian Bourgois Éditeur, p. 19
  2. VIRILIO P. (1993), L’art du moteur, Éditions Galilée, p. 167
  3. SOULEZ A. (1985), Manifeste du Cercle de Vienne et autres écrits. PUF, Paris, cité in Terminologie et Intelligence Artificielle, par François Rousselot et Pierre Frath
  4. SLODZIAN M. (1994-1995), « La doctrine terminologique, nouvelle théorie du signe au carrefour de l’universalisme et du logicisme » in Actes de Langues française et de linguistique (ALFA), Vol 7/8.
  5. LEFÈVRE P. (2000), La recherche d’information - du texte intégral au thésaurus. Hermès Science, Paris, p. 21
  6. LERAT P. (1995), Les langues spécialisées, Paris, PUF (Linguistique nouvelle), p.15/16
  7. GAMBIER Yves (1991), « Présupposés de la terminologie  : vers une remise en cause », in Cahiers de linguistique sociale, 18, p. 42
  8. JALAM R. (2003), Apprentissage automatique et catégorisation de textes multilingues, Thèse soutenue à l’Université Lumière Lyon2, p. 14
  9. ALT Susanne, KRAMER Isabelle, ROMARY Laurent, ROUMIER Joseph (2006), « Gestion de données terminologiques : principes, modèles, méthodes », Hermès (Éd.)
  10. WÜSTER Eugen (1959/60), Das Worten der Welt, schaubildlich und terminologisch dargestellt, Sprachforum, 3-4, p. 183-204
  11. Science de la terminologie : Étude scientifique des notions et des termes en usage dans les langues de spécialité. (ISO 1087 : 1990)
  12. LÉVY Pierre, À la recherche de l’intelligence collective issue d’Internet, interview parue dans Le Monde interactif, octobre 2002
  13. Fichier PPT
  14. GOUADEC D. (1990), Terminologie - Constitution des données, AFNOR (collection AFNOR GESTION), p. 206
  15. La « Lexicologie explicative et combinatoire » dans le traitement des unités lexicales spécialisées, thèse soutenue à l’Université de Montréal en juillet 2002, Doctorat de linguistique, option traduction
  16. BOUVERET Myriam (1998), Approche de la dénomination en langue spécialisée, in Meta, XLIII, 3, 1998
  17. Ibidem.
  18. RASTIER François (1995), « Le terme : entre ontologie et linguistique », in La banque des mots, n°7, pp. 35-65
  19. GAMBIER Yves, GAUDIN François, GUESPIN Louis (1990), « Terminologie et Polynomie », in Les langues polynomiques, PULA Nos 3/4
  20. GOUADEC D. (1990), Ibidem, p. 14
  21. RASTIER François (1995), Ibidem, p. 49
  22. GUILBERT, Louis (1965), La formation du vocabulaire de l’aviation, Paris. Larousse. p. 8
  23. MEILLET, A., cité par GUILBERT, Louis, Ibidem.
  24. AMMONS, A.R., cité par STEINER, George, in Grammaires de la création (Grammars of Creation). Paris, Gallimard, 2001. Coll. «NRF Essais».

, , , , , ,

vendredi 15 juin 2007

Enjeux et nature d’une communication multilingue

English version / version anglaise

on ProZ.com


Introduction
I. Les ENJEUX
II. Les LANGUES
Conclusion

* * *

Introduction

En novembre 2005, dans sa Communication au Conseil, au Parlement européen, au Comité économique et social européen et au Comité des régions, intitulée « Un nouveau cadre stratégique pour le multilinguisme », la Commission annonçait pour 2006 la publication d’ « une étude sur l’incidence de la pénurie de compétences linguistiques sur l’économie européenne ».

C’est donc le rapport ELAN (Effects on the European Economy of Shortages of Foreign Language Skills in Enterprise), publié un an plus tard, en décembre 2006, qui met « à notre disposition l’enquête la plus exhaustive jamais menée sur la pratique, et le besoin, de langues et de connaissances culturelles » (…) en évaluant notamment :
  • les pertes commerciales, ou la sous-performance, dues à des compétences linguistiques et des connaissances culturelles insuffisantes ;
  • les obstacles aux échanges commerciaux posés par des compétences linguistiques et des connaissances culturelles insuffisantes,
et analyse un panel de 30 grands groupes (ayant une envergure internationale et commercialisant leurs produits ou services dans au moins 10 pays du monde, dont Total, BP, Canal+, Unilever, Saatchi & Saatchi, Pernod Ricard, Accor, Air France, General Electric, GlaxoSmithKline, etc.) et d’à peu près 2000 PME, dont 90% sont en activité depuis plus de 5 ans : un échantillon sélectionné dans 27 pays pour être aussi représentatif que possible du profil d’exportation des pays concerné, représentatif des secteurs d’exportation types (industries alimentaires, fabrication de machines et équipements, de meubles, travail des métaux, commerce de gros, industries chimique, textile, du caoutchouc et des plastiques, fabrication d’équipements de radio et télécoms, services fournis principalement aux entreprises, etc.), et offrir une vue d’ensemble des différentes tailles d’entreprises (des micro-entreprises aux moyennes entreprises employant 250 personnes), l’objectif étant de présenter une vision nationale plutôt que régionale. Quant à la fonction des personnes interrogées, environ ¼ sont Directeurs export, ¼ Directeurs généraux, ¼ PDG et ¼ Administrateurs.

Je ne sais pas si l’étude est disponible chez Reportlinker, mais au moins elle est librement téléchargeable sur le Web, en anglais et en français, j’espère que vous vous en contenterez. :-)

En attendant, même si résumer 85 pages en un seul billet peut sembler une gageure, je cite abondamment le rapport pour vous en proposer ma propre synthèse, celle d’un professionnel de la langue qui lutte quasi-quotidiennement depuis plus de 20 ans afin de sensibiliser les entreprises aux défis linguistiques et culturels, et faire comprendre à ses clients les bienfaits d’une traduction de qualité, vs. les méfaits des « bricolages linguistiques » qu’ils s’inventent à tour de bras en tentant – vainement – de résoudre la quadrature du triangle[Début]

* * *

I. Commençons par le premier constat : les ENJEUX

L’enquête menée auprès des 2000 PME montre que les entreprises européennes subissent de fortes pertes commerciales, faute de disposer de compétences linguistiques suffisantes. Il est déjà arrivé à 11 % d’entre elles de perdre un contrat pour cette raison ; 11%, le chiffre semble faible. Toutefois, rapporté aux quelque 20 millions d’entreprises qui formaient la population de l’Europe à 19, ces « fortes pertes commerciales » (évaluées dans une fourchette oscillant entre 16 400 000,00 € et 25 300 000,00 euros pour les entreprises du panel) pour cause « de compétences linguistiques insuffisantes » concerneraient la bagatelle de … 2 millions deux cent mille entreprises !!!

De plus, ce chiffre de 20 millions d’entreprises est un calcul prudent, puisqu’il est largement dépassé dans l’Europe des 25. En attendant, cela nous donne, par défaut, 1 point de pourcentage = 200 000 entreprises à l’échelle communautaire ! Un ordre de grandeur qu’il y a lieu de garder à l’esprit tout au long de la lecture de cet article…

Quant aux grands groupes, ils représenteraient 0,2% du total, soit environ 50 000 multinationales, quand même !

Donc, pour reprendre les mots du rapport, « Tous pays confondus, cela représente potentiellement une perte énorme », puisque, « selon notre estimation », … « les pertes totales pour l’économie communautaire, dues au manque de compétences linguistiques dans le secteur des PME, avoisinent 100 milliards d’euros par an », avec une perte moyenne par entreprise de 325 000 euros sur une période de trois ans.

Et dès lors qu’en moyenne, 48% des entreprises de l’échantillon (provenant davantage des états non anglophones et des états récemment admis) déclarent appliquer des « stratégies linguistiques », on se demande où l’on en serait si les PME n’en appliquaient pas…

Que sont donc ces stratégies ? Quatre mesures de « gestion linguistique » apparaissent associées à de bons résultats à l’exportation :
  1. adoption d’une stratégie de communication multilingue (dont l’adaptation des sites web, puisque plus de 50 % des entreprises de 22 pays proposent des sites dans d’autres langues que la leur, en anglais pour 62 % de l’échantillon, la publication de documents commerciaux relatifs à l’entreprise et ses produits/services, etc.)
  2. recrutement de locuteurs natifs (22 % des entreprises y recourent)
  3. recrutement de personnel possédant des compétences linguistiques
  4. recours à des traducteurs et à des interprètes.
L’étude calcule qu’une PME investissant dans ces quatre mesures pourrait réaliser des ventes à l’exportation supérieures de 44,5 % à celles d’une PME qui s’abstiendrait de procéder à de tels investissements.

En d’autres termes, « le rapport des exportations aux ventes totales pourrait augmenter de 44,5 points de pourcentage pour les PME qui ne disposent actuellement d’aucun investissement dans le secteur des langues et qui mettraient en œuvre les quatre types. Les PME représentent entre 30 et 60 % de la production, selon le pays européen. En supposant, pour les besoins de l’exemple, une moyenne de 45 % de la production dans toute l’Europe, et en supposant que les PME représentant la moitié de cette production adoptent les quatre investissements en compétences linguistiques, les exportations augmenteraient alors de 0,45*0,5*0,445 = 0,10, soit 10 % du PIB (qui est d’environ 1,1 trillion d’euros pour l’UE à 25 en 2005). »

À signaler que la batterie de solutions de « stratégies linguistiques » est plus vaste pour les grands groupes, pour lesquels l’étude identifie neuf techniques de gestion linguistique :

1. Formation linguistique
2. Service linguistique interne
3. Recours à des traducteurs/interprètes externes
4. Recrutement sélectif
5. Formation interculturelle interne
6. Expatriation
7. Impatriation (Embauche d’agents locaux)
8. Programmes d’aide entre collègues
9. Traduction automatique


Concernant le recrutement sélectif, « … il semble que les grandes entreprises s’attendent à ce que le marché de l’emploi mette à leur disposition les niveaux appropriés de compétences linguistiques plutôt que de renforcer elles-mêmes les capacités au sein de leurs activités.
Étant donné les prévisions de croissance de la demande de compétences linguistiques aussi bien de la part des grandes entreprises que des PME à l’avenir, et l’insatisfaction actuelle dans les entreprises en termes de niveaux de compétences et de volumes de production dans le domaine des langues, il est concevable que les compétences linguistiques, associées à une familiarisation avec le monde des affaires, soient très demandées à l’avenir sur le marché de l’emploi » (au désavantage des employés monoglottes), et que « la demande de locuteurs natifs augmente simultanément pour réduire les écarts de compétences auxquels les systèmes éducatifs ne peuvent répondre. »

Quant au dernier point, sur l’utilisation de la traduction automatique (TA) et d’outils Internet, l’étude signale que, dans ce domaine, « les personnes interrogées indiquent, en plus grand nombre, que leur entreprise a testé cette démarche avant de l’abandonner (37 %). »

Franchement, je ne comprends même pas comment la TA peut être mise au rang des « techniques de gestion linguistique », mieux vaudrait parler de « systèmes interactifs de traduction semi-automatique, pour une traduction rapide et de qualité dans des domaines spécifiques », à l’instar des orientations préconisées par la CE dans le cadre stratégique pour le multilinguisme. Même si ce champ de recherche est probablement appelé à évoluer, vite, avec Google & Co ou le programme GALE, entre autres…

Seul véritable point commun entre grands groupes et PME, le recours aux traducteurs/interprètes externes : 80 % des premiers font appel à des collaborateurs externes possédant des compétences linguistiques, dont 47 % régulièrement. Sur les 30 multinationales interrogées, deux « ont indiqué que cette politique avait été abandonnée suite à des expériences insatisfaisantes avec des fournisseurs externes »

Des chiffres, là encore, bien plus élevés que ceux des PME, qui enregistraient une moyenne de 45 % pour l’ensemble de l’échantillon communautaire. « Cela suggère que certaines PME n’ont peut-être pas la volonté ni les capacités d’assumer les coûts de la traduction de documents de vente et de présentation peut-être essentiels et laissent éventuellement leurs agents locaux se charger de ce service. »

Certes, les grands groupes ont beaucoup d’avantages sur les PME en la matière, vu que le coût des investissements relatifs à l’acquisition de compétences linguistiques internes a un effet de seuil important. Pour autant, s’il est vrai que la raison d’entreprendre de tels investissements pour les PME – qui constituent des coûts fixes à l’exportation –, est l’amélioration de l’accès aux marchés étrangers, il est probable que celles-ci ne se lanceront que dans de bonnes conditions du marché et lorsque la valeur d’acquisition des compétences linguistiques pour l’entreprise dépassera leurs coûts. Un point d’équilibre plutôt délicat à trouver, et une réponse individuelle. D’où la nécessité pour chaque PME d’analyser et de comprendre en amont où elle se situe par rapport aux quatre dimensions principales de gestion linguistique :

1. Degré d’anticipation linguistique : le niveau de compétences linguistiques que possède l’entreprise, exprimé en fonction des besoins actuels et prévisionnels.
2. Réactivité linguistique : la volonté et la capacité de l’entreprise à s’adapter aux besoins linguistiques de ses partenaires/concurrents internationaux.
3. Sensibilisation aux langues : la mesure dans laquelle les questions linguistiques sont ancrées dans les stratégies et politiques de l’entreprise.
4. Gestion linguistique : la mesure dans laquelle l’entreprise peut satisfaire ses besoins linguistiques grâce à un déploiement prévoyant de méthodes de gestion linguistique variées, y compris par exemple, des stages de formation linguistique et des expatriations. [Début]

* * *

II. Ce qui nous amène au principal sujet de cette étude : les LANGUES.

Avant de nous demander quelles sont les langues et les situations qui posent davantage problème aux entreprises, il est bon de faire un préambule pour mieux cerner la question.

Qui dit LANGUES dit compétences linguistiques ET culturelles.

Pour faire un exemple, un traducteur ne traduit pas UNIQUEMENT avec les mots, mais AUSSI avec les mots (ce qu’on appelle la terminologie : tous les termes dont j’ai besoin mais que j’ignore). Il y a derrière chaque texte une infinité de situations qui vont au-delà des mots, contextuelles, implicites, puisées dans la culture d’un pays, d’une région, dans les non-dits linguistiques/culturels, etc., autant de raisons pour lesquelles un traducteur disposant de tous les mots nécessaires à son travail (grâce aux dictionnaires, en clair) ne fournira pas forcément une bonne traduction s’il manque d’autres capacités indispensables, à la fois techniques et culturelles, autant dans la langue de départ que d’arrivée, et plus encore dans cette dernière (qui devrait correspondre à sa langue maternelle dans la normalité des choses).



À noter que le faible pourcentage de l’espagnol ou l’absence du portugais sont certainement imputables à l’appartenance européenne du panel des PME, « plus susceptibles d’avoir besoin de langues européennes », puisque les énormes débouchés naturels de ces deux langues (Amérique Latine et Brésil) intéressent probablement davantage les grandes entreprises, qui opèrent « sur une échelle plus mondiale » et « ont un besoin bien plus prononcé pour de grandes langues mondiales » (l’italien et l’allemand n’apparaissent pas du tout dans leur liste des besoins).

Quant aux PME, une interprétation possible est qu’elles « cherchent à exporter vers des marchés plus près de leur pays », la proximité jouant parfois un rôle important, de même que les unions politiques et de libre-échange, voire le degré d’association politique et coloniale, potentiellement associé au partage d’une langue commune. Il n’empêche que 30 % d’entre elles « citent l’espagnol comme langue clé à améliorer » et 26 % considèrent « que des investissements devraient être faits en faveur du chinois. »

Les nécessités en anglais semblent être à un niveau similaire dans les deux types d’entreprise, qui « reconnaissent qu’elles ont besoin d’améliorer leur pratique de l’anglais », puisque « les niveaux de compétence en langue des affaires et la familiarisation avec les pratiques commerciales sont bien inférieurs aux besoins. »


Donc, sans surprise, l’anglais est au premier rang, même si, pour reprendre les termes de l’étude, « il est surprenant de constater que l’anglais n’est pas utilisé davantage. Cela s’explique par la tendance des entreprises à essayer d’employer la langue locale du marché si possible, ou d’utiliser sinon l’une des grandes langues européennes comme l’allemand ou le français. » De fait, les résultats « et les commentaires recueillis dans les entreprises donnent à penser que l’idée très répandue selon laquelle l’anglais est la langue universelle pèche par simplisme et que le tableau est bien plus complexe », « presque comme si l’anglais n’était plus perçu comme une langue étrangère mais était supposé être la lingua franca commerciale de nombreux pays. » Or en réalité, « la demande de compétences dans d’autres langues que l’anglais est supérieure à la demande de compétences en anglais ».

À l’évidence, « un marché mondial a besoin de compétences dans une multiplicité de langues », et « tandis que l’anglais ne perd pas en importance sur Internet, d’autres langues comme le chinois, le russe, l’espagnol et le portugais prennent quant à elles de plus en plus d’importance par comparaison ». Car « au fur et à mesure que l’équilibre du pouvoir économique s’éloignera de la domination occidentale, avec l’émergence des économies dites BRIC (Brésil, Russie, Inde et Chine), les grandes langues mondiales comme le chinois, l’hindi/ourdou, le portugais et le russe gagneront en puissance et en statut relatifs ».

Quant aux situations commerciales problématiques les plus souvent rencontrées, essentiellement dues au manque de personnel possédant des compétences linguistiques (aux dires de 63 % des PME interrogées), elles concernent, en vrac :

• les négociations
• les réunions, les relations sociales
• le protocole (surtout en Asie)
• la correspondance
• les demandes de renseignements ou devis sans suivi
• le manque de confiance
• les problèmes de téléphone/standard
• les problèmes avec les agents/distributeurs
• les erreurs de traduction/interprétation
• l’incapacité à tirer profit des opportunités
• les foires exposition/salons commerciaux, voyages
• la publicité, le marketing
• le manque d’affinité culturelle
• mieux comprendre les mentalités, etc.

L’étude, qui ajoute un découpage langues/situations, nous rappelle qu’Usunier (2000) suggère un certain nombre de moyens pour minimiser l’incidence de la culture dans les négociations et pour pouvoir bâtir des relations transculturelles gratifiantes :

• avoir la volonté de s’adapter ;
• être conscient du fait que les interprètes influencent le sens ;
• être conscient des obstacles culturels qui se posent lors de traductions ;
• éviter les stéréotypes négatifs ;
• avoir une bonne préparation préalable dans le domaine de la compréhension interculturelle.

En effet, « la négociation est l’un des domaines de compétence clés pour pouvoir travailler de manière efficace dans plusieurs cultures. » Et d’ajouter : « Les problèmes interculturels résultant de l’utilisation de l’informatique ont été identifiés il y a relativement peu », en suggérant l’utilisation de « moyens grâce auxquels les concepteurs d’interfaces de programmes pourraient développer leurs produits en vue d’une utilisation effective par des personnes de cultures différentes. »

Ce que nous appelons la « localisation » dans le métier, un secteur qui a donné naissance à la nouvelle industrie GILT.

Là encore, bien que de multiples voies ne soient pas explorées à ce jour, Internet pourrait sûrement apporter un éventail de solutions aux PME que les barrières linguistiques et culturelles freinent dans leur volonté d’expansion, notamment à cause de coûts souvent jugés prohibitifs, à tort ou à raison. Pour ne citer qu’un exemple, combien de PME supportent-elles des coûts importants pour louer un stand dans une foire-exposition internationale, sans avoir en parallèle une communication commerciale, bilingue ou multilingue, à la hauteur de l’événement ? Quant aux exemples de sites Web où tout reste à faire, ils sont légions… Or ce n’est pas toujours une question de moyens, loin s’en faut, voir à ce propos mon étude sur les sites localisés des multinationales.

Pourtant, avec l’avènement d’Internet, nous pouvons considérer que toutes les entreprises présentes sur le Web sont « nées pour l’international » et ont vocation à s’exporter, donc il est clair que celles qui permettront à chacun de leur client de « décider de sa langue de communication » auront un avantage compétitif évident sur celles qui utilisent l’anglais comme langue pivot lorsqu’elles ne peuvent pas travailler dans la langue de leurs partenaires, puisque la mise en place d’une relation client fructueuse passe par « la pratique de la langue du client comme base d’une gestion à long terme de leurs relations », où « le contact personnel avec le client étranger est nécessaire ».

En outre dialoguer dans la langue des clients étrangers est la première étape indispensable si l’on veut comprendre les différences culturelles et surmonter les difficultés qu’elles génèrent. Ce qu’ignorent la plupart des entreprises des pays anglophones (Royaume-Uni, Irlande, États-Unis, etc.), qui semblent croire que l’anglais convient à toutes les situations commerciales et entretiennent une certaine complaisance « reposant sur l’absence de mise en place de stratégies de communication multilingue », probablement fortes du fait que leur langue native ouvre aussi « de grands marchés où l’anglais n’est pas la langue officielle », utilisée « pour négocier sur plus de 20 marchés différents » (contre une quinzaine de marchés pour l’allemand et 8 marchés identifiés par l’étude pour le français).

La preuve en est qu’à 96% les entreprises irlandaises n’ont jamais recours aux traducteurs-interprètes (bien que, paradoxalement, les principaux acteurs de l’industrie GILT aient tous leur siège en Irlande…), un pourcentage qui passe à 85% au Royaume-Uni, à comparer avec les 26% des PME allemandes qui font appel à leurs services, alors même que « nous pouvons constater un positionnement très fort de l’allemand en tant que deuxième lingua franca majeure des entreprises européennes ». [Début]

* * *

Conclusion

« Dans chaque pays étudié, il a été demandé à cinq prescripteurs de discuter des résultats de l’enquête dans leur région. Ils ont été choisis parmi un groupe représentatif comprenant chefs d’entreprise, universitaires travaillant dans le domaine du commerce ou de la formation linguistique, personnel politique et fonctionnaires employés dans le domaine de l’assistance aux entreprises ainsi que représentants d’organisations commerciales comme les Chambres de Commerce. »

Les résultats de l’enquête ont été acceptés de façon très homogène ; ainsi, « 79 % des personnes interrogées les ont trouvés entièrement exacts, 21 % partiellement exacts et aucun désaccord n’a été exprimé. »

De façon globale, 60 % d’entre eux « pensent que l’anglais est trop mis en avant et qu’il faudrait développer les connaissances en d’autres langues dans leur pays », et leurs commentaires « confirment les résultats de l’analyse de l’enquête menée auprès des PME ». Or compte tenu de « la diversité des expériences et des positions de départ des 27 pays étudiés », « il est remarquable de constater que les questions liées aux compétences linguistiques et aux performances commerciales reçoivent, à maintes reprises, des réponses aussi homogènes pour l’ensemble de l’échantillon. »

Récapitulatif :

Parmi les PME sondées dans le cadre de l’étude, les plus performantes à l’exportation « possèdent souvent une stratégie de communication multilingue », 13 % indiquent « que les compétences linguistiques de leur personnel ont eu une influence sur le marché d’exportation choisi par l’entreprise », 18 % qu’elles ont « éprouvé des difficultés avec des clients étrangers à cause de différences culturelles », et 42 % que leur « demande de connaissances et de compétences linguistiques (aussi bien qualitative que quantitative) » va « augmenter dans les trois prochaines années ».

Par ailleurs, sur ce même échantillon, « 40 % des entreprises exportent plus de la moitié de leurs ventes totales » (les PME italiennes étant celles qui ont le niveau de productivité relative le plus élevé), et une large part perdent des contrats d’exportation, faute de disposer de compétences linguistiques et interculturelles suffisantes. Notamment, les entreprises les plus petites (avec un chiffre d’affaires moins important) n’ont pas les ressources qui leur consentiraient de prévoir des investissements en compétences linguistiques.

Des chiffres qui, rapportés à l’échelle communautaire, se traduisent concrètement en millions de PME et en milliers de multinationales, dont beaucoup « ne savent pas vraiment de quelles compétences elles disposent », ce qui leur permettrait pourtant de trouver plus facilement en interne « la bonne personne pour la bonne tâche » au bon moment, et ainsi de mieux mesurer leur degré de dépendance « par rapport (aux) prestataires externes de services linguistiques ».

Or c’est bien connu, le malheur des uns faisant le bonheur des autres, il revient aux professionnels des différents métiers liés aux langues (traduction, édition, correction d’épreuves, rédaction de résumés, interprétation, terminologie, technologies linguistiques [traitement de la parole, reconnaissance et synthèse vocales], formation linguistique, enseignement des langues, certification, essais et recherche dans le domaine linguistique, etc.) de sensibiliser les clients et les donneurs d’ordre sur les implications d’une bonne (ou mauvaise) prestation linguistique/culturelle en termes de marchés gagnés (ou perdus), d’image valorisée (ou dévaluée) et de clientèle fidélisée (ou définitivement passée à la concurrence)…

C’est également une voie toute tracée pour nos métiers de faire valoir nos professions, et notre professionnalisme, souvent en manque de reconnaissance et des justes gratifications économiques.

Enfin, l’étude termine ses conclusions générales en soulignant que « ces investissements sont essentiels pour permettre à l’UE d’être concurrentielle sur la base des compétences et des connaissances plutôt que sur celle des prix bas ».

Un mot de la fin que les traducteurs pourraient aisément reprendre à leur compte : UE et traducteurs, même combat !

Pour une fois qu’il semble y avoir consensus sur ce que sont les enjeux et la nature d’une communication multilingue… [Début]


P.S. Je suis actuellement sans connexion Internet à cause des inefficiences chroniques de Telecom Italia. Soyez donc patients si vous ne voyez pas vos commentaires s'afficher de suite, je suis au café Internet du coin et ça risque de durer un peu (beaucoup)… [Début]

, , , , , , , , , ,