L’internet peut-il casser ?

L’internet est-il « cassé » ? Ou à défaut, s’emploie-t-on à le faire ? L’architecture fondamentale de l’internet n’a pas changé depuis 15 ans au moins. De rustines en petites améliorations, en passant par la mise en place de systèmes de régulation, l’internet a fait mieux que tenir le coup : il a vu le nombre de ses utilisateurs multiplié par 1000, il a accueilli un trafic infiniment plus important et une diversité d’applications sans cesse croissante. Pourtant, les emplâtres pourraient ne plus suffire…

L’internet est-il « cassé » ? Ou à défaut, s’emploie-t-on à le faire ?

La question revient de manière périodique depuis le milieu des années 1990. Du point de vue des utilisateurs finals, elle ne sera pas vraiment d’actualité en 2006 : leur internet continuera de les servir à peu près fidèlement, avec les mêmes bénéfices et les mêmes limites (complexité, performance irrégulière, sécurité…). Mais dans les laboratoires, chez certains grands industriels et opérateurs, ainsi que chez certains régulateurs, la réflexion sur l’internet du futur prend bel et bien forme.

L’architecture fondamentale de l’internet n’a pas changé depuis 15 ans au moins. De rustines en petites améliorations, en passant par la mise en place de systèmes de régulation rendus nécessaires en partie par l’antiquité des solutions sur lesquelles reposent certaines de ses fonctions essentielles, l’internet a fait mieux que tenir le coup : il a vu le nombre de ses utilisateurs multiplié par 1000, il a accueilli un trafic infiniment plus important et une diversité d’applications sans cesse croissante.

Des emplâtres à la « feuille blanche »

Pourtant, les emplâtres pourraient ne plus suffire. « L’internet est cassé », titre ainsi la célèbre Technology Review. A l’heure où les applications web connaissent une nouvelle jeunesse, l’infrastructure, elle, accuserait son âge. Pour le chercheur du MIT David D. Clark, l’internet coûte trop cher à administrer, pose des problèmes de sécurité insurmontables et s’adapte de plus en plus mal aux nouvelles applications, au point de devenir un frein à l’innovation.

Il semble en tout cas certain que l’actuel internet ne pourra pas être celui de demain : à la fois le réseau du téléphone, de la télévision, des jeux en réseau et des échanges de données ; à la fois le réseau privatif des entreprises, le support des communications privées et celui des communications publiques ; à la fois le réseau fixe et mobile ; à la fois le réseau de milliards de machines multimédias de plus en plus exigeantes en débit et de centaines de milliards d’objets communicants ; à la fois le réseau de la liberté d’expression, de l’innovation débridée, et celui d’une société de plus en plus paranoïaque…

Alors à quoi ressemblera cet internet de demain, et en quoi diffèrera-t-il de celui d’aujourd’hui ? Certains ont là-dessus des idées bien précises, et parfois divergentes, mais il est frappant de voir que, 7 ans après le programme Next-Generation Internet (NGI, auquel la Fing doit en partie son nom), la National Science Foundation américaine relance un grand programme de R&D, FIND (Future Internet Network Design), qui fait lui-même partie d’un programme plus vaste intitulé GENI (Global Environment for Networking Investigations, environnement global de recherche sur les réseaux). FIND donne aux chercheurs pour mission de travailler à partir d’une page blanche (« clean slate« ). Les questions posées sont intéressantes : « A quoi ressembleront dans 15 ans les extrémités du réseau, quand des milliards de capteurs et de systèmes enfouis y seront raccordées ? Comment le réseau gèrera-t-il demain les fonctions qui comptent vraiment pour ses utilisateurs ? Où se situeront des fonctions telles que l’accès à l’information, la localisation, la gestion d’identités ? A quoi ressemblera le cœur du réseau dans l’économie changeante de la fibre optique ? »

Vaut-il mieux être riche et intelligent ?

Sur ces questions, deux positions s’opposent aujourd’hui de manière nette autour d’une question simple : le réseau doit-il devenir intelligent ou demeurer aussi bête que possible ?

D’un côté, dans la mouvance de l’Union internationale des télécommunications (UIT), les partisans du Next-Generation Network (réseau de nouvelle génération) considèrent que pour répondre de manière efficace, fiable et sûre à des demandes aussi contradictoires que celles que nous décrivions plus haut, le réseau doit être « sensible » aux usages pour lesquels il est sollicité. Au point que certains imaginent que le routage sur l’internet pourrait être géré, non plus par les techniques classiques de commutation de paquet (plus ou moins affinées par des outils de différenciation de trafics), mais directement au niveau sémantique, via le protocole XML aujourd’hui utilisé pour décrire des documents et des services !

De l’autre côté de la controverse, l’organisme historique de standardisation de l’internet, l’IETF, cherche à faire passer l’architecture de l’internet à l’échelle supérieure, tout en respectant son concept architectural (et urbanistique) essentiel : le réseau ne sait rien des usages, l’intelligence et le sens se situent à ses extrémités. Du fait même de la diversité des usages et de la vitesse avec laquelle ceux-ci évoluent, tout réseau censé connaître par avance ses usages pour adapter la manière de répondre à chaque sollicitation serait condamné à s’effondrer sous son propre poids.

D’autres enfin, se demandent si ce vieux conflit, dont les acteurs et les arguments n’ont pas beaucoup bougé depuis quinze ans, conserve sa raison d’être. L’avenir pourrait être fait de multiples réseaux spécialisés (des réseaux locaux d’entreprises, des réseaux dédiés aux objets communicants, des réseaux personnels…), l’internet ayant pour fonction de leur permettre de se relier les uns aux autres en tant que de besoin.

Et les projets « feuille blanche » du programme FIND apporteront peut-être des réponses radicalement neuves…

Cherchez l’argent

Au-delà des débats théoriques, les dispositifs de gestion du trafic IP permettent déjà d’en savoir beaucoup sur ce qu’il se passe dans le réseau, voire d’en ajuster le comportement en fonction des usages. Au point de déclencher une véritable polémique sur l’avenir de l’internet aux Etats-Unis, qui porte, cette fois, plutôt sur le « dernier kilomètre », celui qui atteint l’utilisateur final, que sur l’architecture d’ensemble du réseau.

En mars 2005, un petit opérateur téléphonique local du Tennessee, Madison River Communications, se voit contraint par la FCC (Federal Communications Commission, l’équivalent américain de l’Arcep) de ne plus bloquer le trafic de téléphonie internet de ses utilisateurs pour protéger ses revenus téléphoniques.

En novembre 2005, le P-DG du géant de la téléphonie locale SBC, Edward Whitacre, déclare à Business Week : « Nous avons réalisé un investissement [en installant des lignes de téléphone et les transformant en « tuyaux » haut débit grâce à l’ADSL], et si Google, Yahoo ! ou Vonage [opérateur de téléphonie internet, Ndlr] s’imaginent qu’ils vont utiliser nos tuyaux gratuitement, ils sont fous ! »

Que signifient ces deux exemples ? Que l’on peut rapidement imaginer voir les fournisseurs d’accès haut débit bloquer certains usages si le fournisseur du service ou l’abonné ne passent pas au péage ; ou que les fournisseurs d’accès passeront des accords avec un moteur de recherche et rendront très lent l’accès à ses concurrents ; ou encore, que les jours de championnat de [insérez ici le nom du sport national], la bande passante du réseau sera presque exclusivement réservée à la télévision et aux sites sportifs, au détriment des autres… Fantasme ? Mais dans ce cas, pourquoi SBC et Verizon, qui dominent la téléphonie locale et longue distance ainsi que l’Adsl, se sont-ils (pour obtenir l’approbation de leurs rachats respectifs des opérateurs longue distance AT&T et MCI) engagés devant la FCC à ne pas empêcher certains usages de leurs réseaux haut débit, mais seulement pour deux ans ?

Mise à jour 18/1/2006 : Bell South confirme avoir engagé des discussions avec certains sites, notamment des sites de téléchargement de musique et de vidéo, dans le but de leur faire payer un accès prioritaire (à plus haut débit) aux clients de ses offres ADSL.

Tuyaux… d’évacuation ?

Tout le web américain, du blogueur de quartier aux grands acteurs (Microsoft, Google, Yahoo !, eBay…) réunis, malgré la concurrence qui les oppose, dans un effort commun de lobbying, est levé contre cette perspective. Dans un article très commenté, Doc Searls, rédacteur en chef du Linux Journal, n’y va pas par quatre chemins : il s’agit « d’empêcher les opérateurs de tuer l’internet » (le jeu de mots du titre, « How to keep the carriers from flushing the net down the tubes » est intraduisible : il s’appuie sur le sens originel du mot « tuyau » par accuser les opérateurs de faire prendre au Net le chemin du tuyau… de la chasse d’eau). « Dès lors que vous demandez au réseau de donner la priorité à la voix ou à la vidéo, sous prétexte qu’ils en ont besoin, vous dites à tous les autres usages qu’ils vont devoir attendre. Et dès que vous faites cela, vous transformez l’internet, d’une infrastructure simple destinée à tous, en une infrastructure complexe destinée à un objectif unique. Ce n’est plus l’internet. » De manière plus officielle, la coalition s’exprime par la voix du patriarche Vinton Cerf, récemment débauché de MCI (que Verizon vient de racheter) par Google : « Permettre aux fournisseurs d’accès haut débit de discriminer en faveur de certains types de services et d’en défavoriser d’autres reviendrait à leur donner le contrôle de toutes les activités en ligne. »

Certes, la situation en Amérique, où le marché local est au mieux partagé entre un seul opérateur téléphonique et un seul câblo-opérateur, sans aucun dégroupage, diffère assez profondément de la situation française. Mais les grandes figures de l’internet américain qui sont à l’origine de la toute nouvelle « Coalition internationale pour un internet ouvert » généralisent le propos :

« Dans le monde entier, des gouvernements ainsi que des fournisseurs d’accès internet de plus en plus gros et concentrés restreignent, ou menacent de restreindre, l’accès de leurs citoyens et des internautes à des services web de toutes sortes. La liste des services concernés inclut des moteurs de recherche, des sites d’e-commerce, des bases de données, des services de courriel ou de téléphonie IP, de diffusion ou de téléchargement audio et vidéo, des services P2P et d’autres applications légitimes de partage de fichier, des forums de discussion et bien d’autres (…)

Dans certains cas, ces actions relèvent d’une volonté politique. Dans d’autres, elles sont au coeur de plans minutieusement élaborés par les fournisseurs d’accès pour donner l’avantage leurs propres services et pour contraindre les autres services internet à payer pour bénéficier d’un traitement ‘privilégié’ (…)

La tendance commune est claire. Un internet qui s’éloignerait de plus en plus de son statut de ressource neutre et ouverte verrait sa valeur et son utilité sociales et commerciales se dégrader sérieusement, et s’ouvrirait à des abus massifs et dangereux. »

Ce débat redonne en tout cas une nouvelle jeunesse aux modèles alternatifs de gestion du « dernier » (sera-t-il le premier ?) kilomètre, après quelques années pendant lesquelles la flexibilité inattendue du fil de cuivre avait conduit à l’oublier quelque peu. Il ne s’agit pas, ou pas seulement, de remplacer le cuivre par la fibre optique, mais bien de s’interroger sur les architectures locales, les modèles de déploiement, la propriété des tuyaux locaux : fibre noire de proximité, « réseau géré par ses utilisateurs » (customer-empowered networks), nœuds d’interconnexion locaux fonctionnant comme des « places de marché » sur lesquelles se présentent fournisseurs d’accès et de services… A ce niveau aussi, l’internet de demain se cherche.

À lire aussi sur internetactu.net

0 commentaires

  1. On peut rajouter dans le « dernier kilomètre » les liaisons sans fil (réseaux wifi maillés par exemple), qui rendent difficile un contrôle de son utilisation puisque chaque appareils connectés y serait un noeud du réseau.

  2. Article très intéressant. C’est vrai qu’internet on s’y habitue mais ce qui est vraiment fabuleux, c’est que c’est sa nature ouverte et libre qui pourrait disparaître si on n’y prend pas garde.

  3. La problématique n’est pas nouvelle. Elle a concerné au moyen âge les ponts, les routes, les chemins de fer, les réseaux de distribution d’électricité, d’eau etc. avec une réponse qui est le classement comme service ou infrastructure publique, soustraite donc aux dynamiques de l’entreprise, parce que ça répond mieux (ou moins mal) aux besoins de la majorité.

    À suivre

    Michel ER

  4. ce qui est dit dans l’article est simplement la transposition de ce qui se passe, pour la circulation des gens et des marchandises en France. Pour de bonnes raisons de liberté et la révolution, la dimes et les octrois ont été supprimés. Pour de bonne raisons économiques, les pèages ont été instaurés.

    Internet est un gateau trop alléchant. pour batir le besoin, la nécessité il est ouvert. mais maintenant il va falloir passer a la caisse. les 30€ d’une connexion « a tout faire » on va passer a de multiples services. a quand le http gratuit et un plan pour les autres protocoles…. tant de Go pour le plan jeune en P2P, le FTP et le MMS pour les seniors etc… vous verrez,, dejà certaines entreprises , des FAI ayant pignon sur rue occulte le port 80 chez ses abonnés, officiellement pour des raisons de sécurités, mais en réalité pour proteger la vente de ses serveirs et ses revenu téléphoniques que skype grignote( téléfonica). Et tout ça avec l’approbation implice, voire explicite de tout le monde : gouvernements, maisons de disques ou de films, organes de presse… bref tout ceux qui veulent proteger leur pré carré au detriment de la liberté des autres… ceux la même qui veulent justement la globalisation pour eux et le marché etroit pour les autres (exemple, les dvd… vente globale, usages limités par la zonification)
    Bon, je retourne me coucher… ils m’enervent tout ces requins…

  5. Optimisme de rigueur !

    Bien vu de la part de Daniel Kaplan (§Vaut-il mieux être riche et intelligent ?)
    Effectivement, depuis l’accession d’Internet au marché de masse, une sourde rivalité oppose UIT et IETF, en termes d’architecture, de responsabilités, de régulation, et aussi d’objectifs et d’usages.

    Un « prolongement analytique » de cette dualité aboutit aux dipôles suivants :
    – sur un plan général : monde télécom vs. monde informatique
    – sur un plan normatif : UIT vs. IETF
    ETSI vS. IEEE
    – sur un plan technique : monde non IP vs. monde IP
    monde ATM vs. monde Ethernet
    réseaux intelligents (« usines à gaz » à haute valeur ajoutée) vs. réseaux stupides (simples et peu chers)
    intelligence dans le réseau vs. intelligence dans les terminaux

    Et là, je risque de me faire mal voir, tant pis :
    – régulation stricte vs. « esprit anar » de l’Internet
    – contrôle vs. liberté
    – « anciens » vs. « modernes »
    – dinosaures vs. espèces mieux adaptées
    – « bad guys » vs. « good guys »
    – immobilisme vs. mouvement
    – intérêt des opérateurs vs. intérêt des utilisateurs

    Sur un plan strictement technique, depuis une quinzaine d’années une lutte plus ou moins ouverte, plus ou moins spectaculaire, fait s’affronter le monde de l’informatique (le monde de l’IP) et le monde des télécoms. Cette lutte est parsemée de batailles que l’informatique a toujours gagnées :
    – le mode paquets contre le mode circuits
    – l’Ethernet contre le X25 puis contre l’ATM
    – TCP/IP contre l’EDI « classique »
    – des solutions légères contre « l’artillerie lourde »
    – des solutions peu onéreuses contre un modèle économique assommant le client
    Même la radio, domaine jusque là réservé aux opérateurs, est attaquée par le monde IP (WiFi, WiMAX, …)

    Par ailleurs, d’où viennent les innovations d’usages depuis une dizaine d’années ? du monde IP : e-mail, chat, newsgroups, VoIP, P2P, e-commerce, VoD, blogging, …

    Pour toutes ces raisons, je pense que l’Internet tel qu’il existe actuellement (celui de l’IETF) possède tous les atouts pour perdurer et continuer à croître, malgré les peaux de banane que tente de jeter le monde des opérateurs historiques.

    Je vous suggère deux textes écrits par l’Américain David Isenberg et restés très actuels :
    http://www.isen.com/stupid.html
    http://netparadox.com/fccletter.html

  6. Bah ya pas a reflechir trop longtemps sur le probleme, ya des tas de solutions qui nous permettrais a nous meme de monter internet et d’en faire un pseudo ethernet Géant.
    y a les transmission wi fi et wimax, y a aussi les transmission optique aérienne.
    bon c’est pas forcément evident au début mais si personne se lance personne ne pourra contracarré les lobbies de tous ces enfoirés qui voit le net comme un grand puit de pétrole.
    reste a savoir si les gens sont près a partager des connexions les uns entres les autres…. a bon entendeur.
    a suivre.