Tout cramer pour repartir sur des bases saines

Ré(d)action #1 : un visionnaire du siècle passé contre les forbans du nouveau millénaire.

Paul Otlet est connu comme « l’homme qui voulait classer le monde ». Pas simplement « un bibliothécaire qui s’est réveillé un matin en se disant tiens, je vais inventer ma propre classification, ça sera jamais que la mille-trois-cent-quarante-douzième cette année ». Non, classer le monde, rien que ça. Le bonhomme est fascinant : humaniste et pacifiste convaincu, il a réfléchi une bonne partie de sa vie (1868–1944) aux moyens de donner à chaque citoyen les clés du savoir, s’inscrivant là dans les pas des créateurs de l’Encyclopédie. Le lecteur, pour lui, ce n’est pas seulement un réceptacle passif mais un créateur en puissance. Il voulait voir les gens lire et réfléchir mais surtout contribuer à leur tour, car à travers la construction d’un savoir partagé, il voyait un moyen pour l’humanité de vivre en paix.

Et c’est en cela qu’il est furieusement actuel : dans nos sociétés modernes, intégralement écrites sous forme numérique, où les actualités, l’argent, les rêves et les secrets circulent à fond les ballons dans les tuyaux de l’internet, il est bon de s’interroger sur le caractère utopique ou non de la vision de Paul Otlet. Car si aujourd’hui le citoyen lambda se promène à toute heure avec un ordinateur de poche par le truchement duquel sa pensée vagabonde dans mille lieux de savoir et de loisir, lisant et écrivant à tout va, c’est bien qu’il a atteint ce statut de lecteur-acteur, non ? N’est-on pas parvenu à une société dans laquelle chacun peut documenter à coups de tweet ou de selfie les paysages qu’il traverse, son indignation ou son ennui, son plat de pâtes et jusqu’à l’air qu’il respire ? N’est-on pas entrés dans l’ère de l’hyperdocumentation, où quelques milliards d’émetteurs-récepteurs mobiles hybrides, mi-téléphone, mi-humain et re-mi-téléphone derrière nourrissent quotidiennement des banques d’information partagées avec leurs données ? Ne sommes-nous pas tous les contributeurs-propriétaires-bénéficiaires bienheureux d’un grand fourmillement d’idées annonçant le glorieux troisième millénaire, celui du progrès par les communs ?

Non, évidemment. Le projet d’Otlet reste de l’ordre de l’utopie, même si on s’en rapproche peu à peu. Certes, l’informatique et en particulier le Web 2.0 permettent d’absorber et régurgiter l’information de manière simultanée : ce sont les commentaires sous les textes, images et vidéos hébergées sur les sites que nous visitons et participons à construire quotidiennement par nos petits bouts de contributions. Certes, certes, la variété des sites en question est stupéfiante, touchant à tous les phénomènes de l’univers ou presque, de la physique quantique à la télé-réalité en passant par la quiche lorraine avec ses gros sabots, ce qui permet de s’informer et se déformer sur à peu près tout et surtout n’importe quoi. Certes, certes, certes, les machines coûtent de moins en moins cher et le réseau quadrille de mieux en mieux le globe, repoussant lentement les limites de l’exclusion informationnelle à quelques villages qui résistent encore et toujours aux riants bénéfices de la mondialisation galopante.

Certes donc. Sauf que nous sommes malgré tout très loin du compte. Et je vois plus ou moins deux grandes raisons à cela.

Premièrement, je me suis légèrement emballé par souci rhétorique. Otlet rêvait en quelque sorte d’une documentation à l’échelle 1:1, comme la carte imaginaire du même genre inventée par Umberto Eco et qui recouvrait entièrement le royaume de cartophiles déchaînés en ayant eu l’idée, au centimètre près. L’hyperdocument d’Otlet, c’est une planète dont la moindre molécule, la moindre parole, le moindre vrombissement d’ailes de papillon, le moindre frémissement marin annonciateur de tsunami déchaîné, bref tout atome informationnel est rendu sensible par « l’instrument-document ». Passé à la moulinette du tandem humain-machine, le monde d’Otlet passe de l’incertain au certain, de l’imperceptible au perceptible. Otlet est ce qu’on pourrait appeler un positiviste type documentaire : point de métaphysique pour lui mais un univers borné par la science, qu’il est donc possible de classifier de rat à zèbre.

Or clairement, nous n’en sommes pas encore là. Peut-on vraiment tout trouver sur tout en ligne ? Pas vraiment : la Toile est véritablement une toile, c’est-à-dire un fin réseau de certitudes tendu sur un vide colossal, entre quelques piliers battus par des vents contraires. Tenez, pas plus tard qu’hier, je cherchais les adaptations des polars de Fred Vargas par Josée Dayan sur le Web, eh ben mon vieux… à moins de casquer 100 balles pour un DVD d’occasion destiné à l’origine au marché allemand et ne contenant même pas tous les épisodes, bon courage. Tout n’est pas sur Netflix. Tout n’est pas non plus sur Google. Et tout le monde n’est pas forcément sur Facebook, LinkedIn, Snapchat ou Academia. En somme, tout n’est pas documenté, car tout n’est pas mis en ligne – et tout ce qui est documenté n’est pas indexé, loin de là. Il y a des trous dans la toile, par définition.

Deuxièmement, si on s’intéresse un peu aux fils de la toile, on se rend vite compte que les autoroutes de l’information sont truffées de péages invisibles dont les concessionnaires sont bien connus. C’est une réalité qui maintient pour le moment les projets d’Otlet dans le domaine de l’utopie : certains acteurs du Web sont quasiment parvenus à accomplir l’hyperdocumentation rêvée par le visionnaire belge, mais à un prix terrible. De la privatisation de la langue à la formation d’une caste de non-documentés dépourvus d’identité numérique, le succès des fameux GAFAM (acronyme désignant les entreprises menant la danse technologique) s’accompagne de phénomènes justement analysés par certains chercheurs comme les dérives d’un capitalisme en roue libre. Non seulement tout n’est pas documenté ni indexé, mais ce qui l’est tombe sous le contrôle quasi-exclusif d’une poignée de géants du Web à l’appétit sans limite.

Dans sa conférence sur le sujet, Olivier Ertzscheid décompose le problème posé par ces plateformes de la façon suivante : ambitions politiques émanant d’acteurs non-élus, privatisation de ressources publiques et d’objets n’ayant pas vocation à être privatisés – comme le langage, monétisé sous forme de mots-clés par les moteurs de recherche –, avantage écrasant quant à la capacité de développer des services sur une échelle massive. Non, les griefs ne manquent pas. Une réponse possible se trouve selon lui dans une initiative politique proposée par Dirk Lewandowski : constituer un index libre qui serve de base à une concurrence plus juste des entreprises voulant créer des services sur le Web. J’y ajouterais volontiers une autre piste, qui me paraît potentiellement utile pour garantir le succès de cette approche : démanteler les monopoles existants pour libérer les masses de données qu’ils ont accumulées jusqu’ici. Ouvrir les vannes tout en garantissant la solidité des fondations ; tout cramer pour repartir sur des bases saines, à coups de standards ouverts, de lois anti-trusts et d’investissements publics. Et ne me dites pas que c’est une lubie de militant tiers-webiste : la question commence à pointer son nez dans la presse de tous les pays, signe que la prise de conscience est en bonne voie. Car lorsqu’on s’abrite derrière des montages fiscaux et un premier amendement de la constitution américaine interprété de façon aussi altruiste que les fous de Dieu penchés sur leurs textes sacrés, il ne faut pas s’étonner que le citoyen lambda finisse par venir demander des explications à coups de fourches législatives dans le derrière.

À la clé, c’est un peu l’universalité du Web qui se joue. La limite des GAFAM, c’est cette normalisation des connaissances, cette rigidité documentaire : un seul index pour chaque chose – Google pour les documents, Facebook pour les gens, Amazon pour les produits, Airbnb pour les biens locatifs, etc. Avec au fond le rêve secret d’absorber les autres et de constituer un index unique et incontournable, géré via l’intelligence artificielle à travers les assistants vocaux, les bots de messagerie, les voitures autonomes… Sauf que ça revient à traduire le monde en une seule langue, une seule religion, une seule science. Voilà qui n’a rien d’universel, c’est au contraire parfaitement totalitaire. Paul Otlet quant à lui avait une vision plus mutualisée et décentralisée de l’information, plus universelle que celle des GAFAM et leur oligopole à franges. C’est à cette vision que nous devrions consacrer nos efforts.

De mon côté, c’est parti : je vais m’y appliquer pendant les trois ans qui viennent, dussé-je infiltrer les data center de l’oligopole et tapisser les murs avec des photos d’Otlet (mais après la soutenance, pas fou non plus).

Publicités

2 réflexions sur “Tout cramer pour repartir sur des bases saines”

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

w

Connexion à %s