ProspecTIC 2010 : Centralisation / Décentralisation

Lire et commenter le dix-septième chapitre de ProspecTic 2010 : Centralisation / Décentralisation.

Il est temps d’aborder la troisième et dernière partie de Prospectic 2010, consacrée aux enjeux et incertitudes du développement des technologies et de leur mise en application. Parce que ceux-ci ne sont pas des processus linéaires, mais sont influencés par l’économie, le contexte politique et réglementaire, leur perception dans la société, etc. Parce qu’il remet en cause bien souvent des situations acquises, ce processus est source de tensions, qui deviennent aujourd’hui des carrefours à partir desquels les dynamiques techno-économiques peuvent adopter des trajectoires différentes.

En intégralité

L’internet est né autour d’un principe d’organisation totalement décentralisé et égalitaire, dans lequel aucun « nœud » du réseau n’a un statut différent des autres. Cette idée s’opposait de manière assez radicale aux concepts traditionnels d’organisation des réseaux de communication. Le débat sur la localisation de l’intelligence du réseau (dans le réseau ou dans chaque terminal) n’a pas cessé depuis, malgré la victoire du protocole IP sur ses concurrents d’alors.

Dès lors, il est facile et tentant d’opposer les partisans d’un internet totalement décentralisé et ceux d’un réseau « géré » et hiérarchisé. La liberté contre le contrôle, le bottom-up contre le top-down, mais aussi les libertaires contre les réalistes, les informaticiens contre les utilisateurs… La réalité est moins tranchée. Les partisans d’installer plus de fonctions de contrôle, de sécurité, de gestion du trafic, disposent d’arguments solides et ne sont pas nécessairement désireux de clore la parenthèse de l’internet ; les partisans de l’architecture décentralisée de l’internet ne sont pas forcément mus par une vision démocratique et altruiste.

Le modèle décentralisé de l’internet s’est toutefois montré extraordinairement robuste. En 20 ans, l’internet est passé de quelques milliers à près d’un milliard d’utilisateurs ; son trafic a doublé chaque année ; il a supporté des applications de plus en plus diverses et exigeantes. Il ne s’est jamais effondré, aucune révision déchirante n’a été nécessaire. En outre, son architecture extrêmement ouverte a permis à l’internet d’être un support d’innovation d’une efficacité sans précédent.

Aujourd’hui, l’internet vit cependant une crise de croissance et a du mal à répondre à quatre exigences : la mobilité, la sécurité et la lutte contre les pollutions numériques (telles que le spam), la qualité de service pour répondre à de nouveaux usages exigeants en débit ou en délai, et enfin, la rentabilité des acteurs qui en font leur métier.

En outre, le choix originel consistant à déporter l’intelligence aux extrémités du réseau, déporte également la complexité vers les utilisateurs. Il existe un énorme coût caché de l’internet, qui réside d’une part dans les équipements dont se dotent les utilisateurs, et d’autre part, dans le temps consacré à s’en approprier les concepts et les outils, à entretenir les outils, à traiter les problèmes rencontrés, etc.

Les questions techniques soulevées par la crise de croissance de l’internet peuvent trouver des réponses dans un modèle centralisé comme dans l’actuel modèle décentralisé. C’est donc dans l’analyse que l’on fera de ce coût caché, et des bénéfices qui le compensent ou non, que se trouve la clé de l’avenir.

Première question : pourrait-on, en re-centralisant certaines fonctions, faire baisser ce coût d’une manière significative, ou bien ne ferait-on que transférer les coûts d’un endroit à l’autre ? Rappelons que sur les actuels réseaux téléphoniques, centralisés et « intelligents », l’on estime que les coûts liés à la gestion de systèmes complexes de comptabilisation, facturation, compensation, et aux services associés, représentent plus du tiers des charges des opérateurs.

Seconde question : à supposer que le coût d’un système décentralisé soit, à usages identiques, globalement supérieur à celui d’un système plus centralisé, le surcoût est-il justifié par d’autres bénéfices économiques et sociaux – par exemple en termes d’innovation, de concurrence et d’appropriation par les utilisateurs ? On peut par exemple penser qu’un réseau très contrôlé, qui n’admettrait (pour les meilleures raisons du monde) que des usages déjà identifiés, des services répertoriés a priori, freinerait considérablement l’innovation. La concurrence sera aussi, vraisemblablement, plus vive sur une infrastructure très neutre et ouverte, que lorsque quelques grands acteurs tiennent à la fois les routes, les bretelles d’accès, les octrois et même une partie des entreprises de transports. Ces grands acteurs sont nécessaires, mais il est indispensable que s’exerce sur eux la menace constante d’un bouleversement du marché.

Troisième question : un réseau étant par définition un système complexe (un ensemble d’éléments interconnectés), dès lors que celui-ci atteint une certaine échelle, une approche centralisée peut elle encore valablement contrôler cette complexité et les phénomènes émergents qui en découlent ?

Enfin, le coût d’appropriation d’un outil peut être la condition d’une certaine liberté, d’une nouvelle capacité d’agir pour les individus, les entreprises, les communautés. Pour les mêmes raisons, on apprend à conduire et nul ne s’en étonne. Si cet investissement est nécessaire pour que les internautes soient des citoyens actifs dans une société de la connaissance, faut-il en être chiche ?

Venez réagir et collaborer à ProspecTic 2010, l’exercice de prospective de la Fing et de l’Irepp.

À lire aussi sur internetactu.net