L’internet de demain : plus transparent ou plus intelligent ?

On a tendance à considérer que l’internet est un « réseau de réseaux » – ce qu’il est bel et bien, au vu de son architecture technique. Mais cette approche « informatique » du Net peut masquer une vision plus profonde de ce que doit être, pour certains, son véritable aboutissement : un « système diffus », permettant aux objets et aux humains de participer à un réseau global sans se poser de questions sur les interconnexions entre chaque élément. Cet « internet de bout en bout » poussé à son extrême, distribué et partagé, pourrait constituer l’évolution ultime du « réseau », conduisant à sa propre disparition. Tout le monde ne partage cependant pas cette vision de l’évolution du réseau.
Par Jean-Michel Cornu, Cyril Fievet, Hubert Guillaud et Daniel Kaplan

On a tendance à considérer que l’internet est un « réseau de réseaux » – ce qu’il est bel et bien, au vu de son architecture technique. Mais cette approche « informatique » du Net souligne une vision plus profonde de ce que doit être, pour certains, son véritable aboutissement : un « système diffus », permettant aux objets et aux humains de participer à un réseau global sans se poser de question sur les interconnexions entre chaque élément. Cet « internet de bout en bout » poussé à son extrême, distribué et partagé, pourrait constituer l’évolution ultime du « réseau », conduisant à sa propre disparition. Tout le monde ne partage cependant pas cette vision de l’évolution du réseau.
Par Jean-Michel Cornu, Cyril Fievet, Hubert Guillaud et Daniel Kaplan

Sommaire :
« J’voudrais le 22, à Asnières »
Le jardin clos et les boîtiers intermédiaires
Réseau, traitement, applications… Tout peut être de bout en bout
Vers un Internet sans couture ?
Centraliser ou décentraliser l’intelligence ? Les bases du débat
Une autre vision du « réseau »
Encadré : le « peer-to-peer » au coeur du « bout en bout »

« J’voudrais le 22, à Asnières »

L’histoire des télécommunications au cours des dernières décennies montre une évolution vers davantage de transparence, qui n’a pas échappé à l’utilisateur.

L’utilisation du téléphone d’avant-guerre supposait par exemple que l’appelant connaisse l’endroit physique où se trouvait son correspondant, comme l’a immortalisé le sketch de Fernand Raynaud. Par la suite, le plan de numérotation global transforma le modèle : il n’était plus nécessaire de savoir où une personne habitait pour pouvoir l’appeler.

Ce type de « transparence », alors révolutionnaire, paraît banal aujourd’hui. Il est pourtant également l’un des fondements de l’internet : aujourd’hui, on peut adresser un e-mail à un correspondant où qu’il se trouve, et lui peut le lire, même s’il est très loin de son domicile. De même, nous ignorons en général l’endroit physique où se trouvent les pages Web auxquelles nous accédons d’un clic de souris, ou les fichiers que nous partageons en P2P.

Pourtant, sur le réseau téléphonique comme sur l’internet, cette transparence n’est qu’apparente. Il est parfaitement possible de savoir où sont situées les adresses IP (fixes ou dynamiques) que nous utilisons en nous connectant à l’internet. De plus, pour communiquer avec une autre machine, nous passons par de multiples relais, qui sont autant de points de contrôle et de régulation. Certains de ces « boitiers intermédiaires » (middle box) sont transparents, au sens où ils se contentent de contribuer à l’acheminement des paquets IP, d’autres non.

Le jardin clos et les boîtiers intermédiaires

Ces « middle boxes » sont nombreuses et diverses. Un routeur disposant d’une fonction de traduction d’adresses NAT (Network Address Translation), qui « traduit » les adresses IP internes à un réseau en adresses internet publiques, et vice-versa, n’est nullement neutre : vu de l’internet, tous les ordinateurs qui se trouvent derrière le routeur ne représentent qu’une seule adresse IP, donc un seul « utilisateur ».

L’une des conséquences est que les utilisateurs n’ont pas forcément accès à toutes les fonctionnalités de l’internet de façon simple, naturelle et transparente.

C’est le cas par exemple de la capacité d’être appelé de l’extérieur. Lorsque l’on veut placer un serveur dans l’entreprise, il doit disposer de sa propre adresse publique. Un boitier NAT ne lui attribue qu’une adresse provisoire qui rend son accès difficile. De même, dans le cas des messageries instantanées, pour appeler directement un correspondant, il a été nécessaire d’utiliser une « astuce » au niveau applicatif pour pallier l’inaccessibilité des adresses au niveau réseau. Cela a conduit à reconcentrer les informations sur un serveur centralisé.

D’autres middle boxes assurent des fonctions spécifiques (Firewalls, Proxy…) avec également des limitations. Un firewall (pare-feu) protège mais exclut, aussi (c’est même sa raison d’être).

Il en va de même, dans une certaine mesure, pour bon nombre de portes d’entrées du réseau. Les offres actuelles de TV par Adsl forcent l’usager à disposer d’un ordinateur d’un côté (pour les données) et d’un téléviseur de l’autre (pour les programmes télévisés) sans pouvoir faire communiquer l’un avec l’autre, de quelque manière que ce soit. Le choix des opérateurs a donc été de « sortir » la TV par Adsl de l’internet : on utilise le même fil et le même boîtier, mais on n’est plus sur l’internet pour les programmes TV. La télévision se retrouve dans un « jardin clos », un réseau indépendant de l’internet.

Ces « jardins clos » (Walled garden) représentent donc des zones donnant faussement l’impression qu’elles font partie de l’internet, ou auxquelles on n’accède qu’au travers de quelques portes bien gardées, ou qui ne cohabitent que partiellement avec le reste du réseau mondial. Le plus vaste jardin clos est sans doute l’internet chinois, entièrement protégé par un mega pare-feu et qui ne communique que partiellement, en entrée ou en sortie, avec le reste du monde. Il peut bien sûr y avoir de bonnes raisons de « clôturer son jardin ». Un intranet par exemple est aussi un jardin clos et permet de protéger l’entreprise de l’extérieur.

Pour prendre une analogie, certaines parties de l’internet d’aujourd’hui ressemblent à un bar un peu étrange. Avant d’y entrer, il faut s’acquitter d’un droit de péage. Il faut ensuite demander la permission au patron de l’établissement pour s’accouder au zinc, et passer par son intermédiaire pour adresser la parole aux autres clients de l’établissement. Tout dialogue passe par le barman, et éventuellement par les garçons de café. Sans compter que certains des clients présents demeurent totalement invisibles…

A l’inverse, certains estiment que l’intelligence peut ne se trouver qu’à chaque bout du réseau. Les réseaux ad-hoc, comme les réseaux tout optique ou de fibre noire ne distribuent l’intelligence qu’à leurs bouts. C’est ce qu’explique George Gilder dans Telecosm (2000) : « Nous pouvons remplacer les sept couches des réseaux intelligents par un réseau ‘sans couche’, beaucoup plus simple et beaucoup plus rapide. Laissons les messages se promener librement et demandons aux machines situées aux extrémités du réseau de s’occuper d’eux. Dans l’océan de la bande passante abondante, quiconque veut boire a juste besoin d’inventer sa propre bouteille. »

Le modèle des réseaux autogérés (customer-empowered networks) promu par le réseau de recherche canadien Canarie (http://www.canarie.ca/MLISTS/news2001/0222.html et http://www.canarie.ca), le National LambdaRail ? américain (http://www.fing.org/index.php?num=4044,4 et http://www.nationallambdarail.org), le réseau Néerlandais SURFnet 6 (http://www.fing.org/index.php?num=4186,4 et http://www.surfnet.nl/en/) ou encore le projet Optiputer (http://www.fing.org/index.php?num=4314,4 et http://www.optiputer.net) reposent sur la même philosophie. Un réseau entièrement optique rend transparents la plupart des équipements intermédiaires ; à l’extrème, chaque utilisateur est le propriétaire de longueurs d’onde pour constituer ses propres routes privilégiées ; chaque utilisateur est un relais potentiel des communications des utilisateurs voisins. Autrement dit, les utilisateurs contrôlent les longueurs d’onde pour configurer, fractionner et acheminer le trafic tout le long du réseau.

Ces constats font naître des prises de position tranchées sur la Toile. La vision libertaire, soutenue avec force par les pionniers de l’internet, s’oppose à la vision plus centralisée portée par certains acteurs industriels et institutionnels. D’un côté on défend l’idée d’un « éther communicant », dans lequel l’utilisateur seul aurait le pouvoir de ce qu’il voit et de ce qu’il montre, de l’autre on cherche à cloisonner pour mieux connaître, sécuriser, contrôler la qualité, ou lutter contre le piratage…

Réseau, traitement, applications… Tout peut être de bout en bout

Cette dichotomie quasi philosophique de ce que doit être l’avenir du Réseau se retrouve à de multiples niveaux. En termes de traitement, elle correspond à l’opposition entre un supercalculateur auquel on accède à distance, et le concept de « grid computing », reposant sur une puissance de calcul qui peut être répartie entre quelques gros ordinateurs, mais aussi entre des milliers d’ordinateurs appartenant à des utilisateurs plus ou moins anonymes.

Au niveau applicatif, c’est par exemple la différence entre l’accès à un serveur de fichiers centralisé et l’échange de fichiers « peer-to-peer », selon lequel tous les utilisateurs peuvent échanger des fichiers entre eux, sans intermédiaire (cf. encadré ci-dessous).

Dans le cas de la VOD (« Video On Demand ») par exemple, la plupart des solutions disponibles mettent en avant la qualité de service. Pour l’assurer, on optimise les flux, les fichiers vidéo étant répliqués sur de gros serveurs centraux répartis en différents points du réseau, situés le plus près possible des utilisateurs. L’architecture retenue est donc pyramidale, et si l’utilisateur ne sait jamais où se trouve le serveur vidéo auquel il accède, le serveur, lui, « connaît » chaque usager, ce qui remplit une fonction de sécurisation et de protection des contenus.

Mais, même dans un domaine aussi techniquement exigeant, il existe des approches en pair à pair ou les vidéos sont dupliquées et réparties sur les machines des utilisateurs (voir « Le V2V si loin et si proche du P2P », http://www.fing.org/index.php?num=4551,4). Dans les deux cas, il existe des vidéos stockées sur des serveurs et éventuellement répliquées sur d’autres pour facilter leur accès. Dans le premier cas le stockage s’effectue dans le réseau (serveur de VoD chez des FAI, serveurs de cache) et dans l’autre à la périphérie (machine des utilisateurs).

IPv6 va également dans le sens de la décentralisation, comme le rappelait Mario Tokoro de Sony (http://www.fing.org/index.php?num=3874,4 et http://www.ipv6style.jp/en/interviews/20030212/index.shtml), que l’on retrouve également dans la messagerie instantanée, la distribution de traitements, de stockage. Sans compter le domaine des connexions physiques comme les réseaux maillés (mesh networks), les software-defined radio (la radio réalisée par le logiciel ou réseaux radio logiciels : http://www.fing.org/index.php?num=3588,2), l’Adaptative Radio (les objets sans fil savent modifier leur puissance d’émission, leur fréquence, leur durée pour s’adapter à l’environnement radio où vous vous trouvez) ou la connexion de longueurs d’ondes (où chaque utilisateur à sa longueur d’onde comme sur le réseau CA*Net 4).

Vers un Internet sans couture ?

La voix sur IP soulève les mêmes questions, comme l’explique Gordon Cook dans son « Cook Report » de mars 2003 (http://cookreport.com et http://www.lessig.org/content/archives/march2003cookrep.pdf) : « La révolution fondamentale des communications vocales est en route. Les transporteurs sont en train de perdre le contrôle dans leur capacité à fournir des services, puisque ceux-ci ne sont désormais plus que des applications que tout utilisateur peut facilement acquérir à un coût modique », écrivait-il, soulignant que « la voix est en train de devenir un ‘capital’ (asset) comme un autre, possédé et contrôlé par l’utilisateur ». Autrement dit, la nouveauté n’est pas la numérisation de la voix, mais le fait que l’opérateur téléphonique cesse d’être un intermédiaire obligé.

Pour Cook, « une stratégie monopolistique de type ‘jardin clos’ est en concurrence directe avec les utilisateurs ».

Cook – et d’autres – croient donc à la « commoditisation » (banalisation) de l’internet, sous la forme d’un « tout » pervasif, dans lequel des relations « sans couture » (seamless) peuvent se tisser entre les usagers, sans contrôle ni contrainte.

On parle parfois de « nuage internet » (Internet cloud) pour décrire cette vision. Ici, ce qui importe ce ne sont plus les liens, physiques ou logiques, entre les sous-parties du réseau, mais un ensemble de « choses » (ordinateurs, objets, personnes) cohabitant et communiquant de façon diffuse dans un même réseau de réseaux. Les interconnexions deviennent suffisamment évoluées pour devenir transparentes et permettre de se concentrer sur le réseau global – et les usages qu’il permet – et non plus sur les liens et les noeuds d’interconnexion.

Cette vision n’est pas seulement théorique. Le nouveau standard IPv6 lui redonne une nouvelle jeunesse en fournissant suffisamment d’adresses à tout le monde pour rendre le réseau à nouveau transparent. C’était d’ailleurs la logique de son prédécesseur IPv4, conçu pour fonctionner de bout en bout, mais que le manque d’adresses a rendu plus « cloisonné ».

Avec IPv6, il devient ainsi possible d’attribuer de façon automatique des adresses IP à l’ensemble – ou presque – des éléments qui composent notre monde. Tout objet pourrait alors devenir « communiquant » et « adressable », de façon native et transparente, tandis que l’adressage des ordinateurs deviendrait multiple : « Une des forces d’IPv6, en permettant de gérer plusieurs adresses IP par interface est de permettre le changement dynamique d’adresses en fonction du moment, des services mis en oeuvre, des réseaux utilisés… Votre ordinateur peut donc rester connecté 24h/24, recevoir des paquets sur plusieurs adresses utilisées en réception et émettre ses paquets en utilisant d’autres adresses qui peuvent évoluer dans le temps. », explique Patrick Cocquet, Vice-Président de l’IPv6 Forum (http://fing.org/index.php?num=2642,4).

Centraliser ou décentraliser l’intelligence ? Les bases du débat

Dans une synthèse essentielle (et exceptionnellement lisible pour un internet draft) intitulée « L’émergence du milieu et le futur du ’bout en bout’ : réflexions sur l’évolution de l’architecture de l’internet » ( le draft, provisoire : http://www.ietf.org/internet-drafts/draft-iab-e2e-futures-05.txt ; présentation, PDF : http://www.ietf.org/proceedings/03mar/slides/plenary-18.pdf), James Kempf et Rob Austein de l’Internet Architecture Board (IAB) identifient quatre raisons qui conduisent les acteurs de l’internet à remettre en question son organisation décentralisée (end to end) :
Le besoin de sécurité et d’authentification, qui ont pour origine l’impossibilité de faire confiance a priori à son interlocuteur, sur un internet dont la dimension n’a plus rien à voir avec celle d’un réseau de chercheurs, de « pairs » ; De nouveaux modèles de service exigeants en ressource et dépendants du temps (vidéo, téléphonie ou visiophonie, jeux en réseau…) qui nécessitent de pouvoir assurer un certain niveau de qualité de service : débit, temps de latence, fiabilité du réseau, etc. ; La multiplication des intermédiaires techniques et de services (fournisseurs d’accès, de services, ASP, caches…), qui doivent interagir entre eux… et financer leurs investissements et leur activité.
A ces motifs, on pourrait en ajouter au moins deux :
La recherche d’une simplification de l’expérience utilisateur sur un réseau dont les ménages sont désormais les principaux utilisateurs ; La volonté de limiter la diffusion de contenus préjudiciables et illégaux et de réduire l’échange illégal de fichiers protégés par la propriété intellectuelle.
C’est dans cet esprit que les initiatives pour fonder un « nouvel internet », plus intelligent , plus sécurisé, se multiplient : PlanetLab (voir http://www.fing.org/index.php?num=3990,2 et http://www.fing.org/index.php?num=4160,3) ou l’infranet de Juniper Networks (voir http://www.fing.org/index.php?num=4160,4), en sont deux exemples.

Mais le débat n’est pas uniquement technique, loin de là. Après d’autres, Austein et Kempf rappellent que l’organisation « de bout en bout » de l’internet est capable de répondre aux nouvelles exigences.

La sécurité ? Le protocole IPv6 et les fonctions de sécurité « de bout en bout » qu’il intègre, associé à des dispositifs de protection intégrés dans chaque machine seraient, selon beaucoup d’experts dont Christian Huitema, architecte des réseaux Windows chez Microsoft, beaucoup plus approprié (que la protection d’un réseau physique à l’aide de firewalls centralisés) pour la sécurisation des applications, de systèmes et d’utilisateurs de plus en plus mobiles ou dispersés dans le temps et l’espace (voir http://www.fing.org/index.php?num=3293,4#4.2).

La qualité de service ? Le débat demeure toujours aussi vif entre les promoteurs de démarches visant à différencier le service rendu en fonction des utilisateurs et des applications, et ceux qui, tels l’économiste Andrew Odlyzko ou René Hatem, « architecte en chef » du réseau Pancanadien Canarie, estiment que le coût d’une telle approche dépasse celui qui consiste simplement à élargir la capacité des réseaux (voir http://www.fing.org/index.php?num=2458,4, en particulier « La recherche d’un nouveau modèle d’affaire pour les réseaux »).

Ainsi, c’est ailleurs, dans l’économie, la structure industrielle des acteurs du réseau, les règles de propriété… que se joue l’avenir de l’internet. Olivier Bomsel, économiste, qui vient de publier une étude sur « Les enjeux économiques de la distribution de contenus » (voir http://www.fing.org/index.php?num=4493,4), ne disait pas autre chose lors d’une rencontre organisée par les ministères de la Culture et de l’Industrie, le 1er mars 2004 : « Il s’agit d’énoncer une règle qui consiste à dire que la distribution doit être favorisée par rapport à l’échange. L’objet de cette action est de protéger la propriété de la destruction, de ne pas laisser transformer les biens privés en biens publics. C’est une décision d’ordre public et industriel. »

Dans un autre ordre d’idée, l’enjeu économique, pour les opérateurs et fournisseurs d’accès internet, est de dépasser la seule fourniture d’accès « brut » à l’internet, où les marges sont faibles et la seule différenciation se fait par les prix. Pour fidéliser des clients aujourd’hui volages et augmenter le fameux ARPU (« Average Revenue Per User », ou revenu moyen par utilisateur), ils doivent non seulement offrir de nouveaux services, mais également capter tout ou partie de chaînes de valeurs qui dépendaient auparavant d’autres acteurs (médias, intermédiaires commerciaux ou financiers, opérateurs télécoms – quand ils n’en sont pas eux-mêmes filiales), et enfin contrôler l’accès, l’usage et la facturation de ces services.

Ces enjeux ne peuvent pas être négligés. Quelle qu’en soit la forme, l’internet ne sera bâti, amélioré et exploité que si un grand nombre de grandes, moyennes et petites entreprises peuvent en vivre. Pour autant, la question des conséquences pour la collectivité de la somme des décisions individuelles des acteurs, est naturellement posée.

Chercheur aux universités d’Oxford et de Stanford, Paul A. David posait dès 2001 la question en termes d’arbitrage : « Les gains attendus des ‘améliorations’ apportées au coeur du réseau devraient être analysés au regard de la perte des bénéfices économiques et sociaux qui découlent de l’architecture ‘end to end’. » (http://www-econ.stanford.edu/faculty/workp/swp01012.pdf).

Sur un ton plus offensif, le juriste Lawrence Lessig dénonce depuis plusieurs années ce qu’il décrit comme une « contre-révolution » : l’alliance des grandes entreprises de communication (qui tirent parti du développement des hauts débits pour « refermer » l’architecture de l’internet), des industriels du logiciel (avec les brevets logiciels), des détenteurs de droits (qui militent pour un contrôle sans cesse accru des usages en ligne) et des élus de plusieurs grands pays, Amérique en tête, pour « mater » l’internet : « Avec le end to end, l’innovation sur l’internet ne dépendait pas du réseau. De nouveaux contenus et de nouvelles applications pouvaient l’emprunter sans que le réseau ait à les connaître. [Mais] nous assistons à un mouvement par lequel, par la loi et la technologie, les caractéristiques de cette architecture d’origine changent (…) En ce moment même, nous retournons d’une architecture de l’innovation vers une architecture du contrôle. Sans avertissement ; sans résistance ; sans nous poser de question. » (http://www.lessig.org/content/archives/architectureofinnovation.pdf)

Une autre vision du « réseau »

Le terme « réseau » s’est banalisé, au point qu’il nous semble, peut-être à tort, savoir ce qu’est un réseau. Pourtant, selon que l’on s’intéresse aux télécommunications ou aux médias, aux transports publics ou privés, à la distribution de produits ou à celle de l’eau, à la proximité ou la distance, aux machines ou aux humains… la notion prend au fond des sens très différents et s’appuie sur des logiques extraordinairement diverses.

L’internet s’est nourri de ces différentes acceptions. Deux issues lui sont aujourd’hui ouvertes : celle d’une reprise en mains, pour répondre de manière plus efficiente aux besoins d’aujourd’hui et soutenir la reprise d’une économie mondiale convalescente ; ou celle qui consiste à aller au bout de la banalisation, à « disparaître » – comme l’air ambiant – en devenant un simple principe de connexion de tout avec tout, à proximité ou à distance, pour les grandes comme pour les petites choses. Disons : le réseau ferré d’un côté, le réseau routier de l’autre.

A nouveau, le choix n’est pas technique.

Jean-Michel Cornu, Cyril Fievet, Hubert Guillaud et Daniel Kaplan

Encadré : le « peer-to-peer » au coeur du « bout en bout » Les systèmes d’échanges de fichiers constituent un bon exemple de l’affrontement entre deux visions de l’internet dans un domaine différent que celui de l’architecture réseau présenté dans le dossier (« L’internet doit-il disparaître ? », http://www.fing.org/index.php?num=4652,2), celui des applications.

L’évolution actuelle des technologies P2P va plutôt dans le sens de « l’intelligence répartie » en différents points du réseau, et de l’augmentation de l’anonymat des utilisateurs.

A l’origine, le modèle P2P s’appuyait en partie sur une structure pyramidale issue de l’architecture client/serveur traditionnelle : un serveur centralisé contient les adresses auxquelles il est possible d’accéder aux fichiers. La première version de Napster reposait fortement sur un serveur centralisé, avec les conséquences juridiques que l’on sait.

L’apparition des réseaux P2P alternatifs, FastTrack et Gnutella notamment, a changé les choses : il n’y existe plus de serveur central, mais chaque utilisateur y joue à la fois le rôle de « client » et de « serveur ».

On peut d’ailleurs remarquer au passage que l’on parle de « réseau P2P » via un abus de langage : FastTrack et Gnutella sont en réalité des protocoles d’échange, exploités par des applications distinctes (LimeWire, Morpheus, Grokster, Kazaa, pour n’en citer que quelques unes). Mais les réseaux dont il s’agit n’ont pas de réalité concrète, et résultent d’une topologie totalement dynamique et largement imprévisible : tout utilisateur qui s’y connecte rajoute un noeud au réseau…

Aujourd’hui, suite aux actions de la RIAA (Recording Industry Association of America, http://www.riaa.com), le P2P connaît une nouvelle mutation, qui va également d’une part dans le sens d’un réseau « virtualisé » et « anonymisé » – un « non-réseau », en quelque sorte.

L’un des problèmes soulevés par les défenseurs du partage de fichiers est ainsi le fait que tout utilisateur est « trahi » par son adresse IP, qui l’identifie de façon unique et non masquée. Le réseau Mute (http://mute-net.sourceforge.net) cherche à pallier cet inconvénient, en « virtualisant » les adresses IP qui transitent, de telle sorte qu’aucun noeud du réseau ne sait à qui sont destinés les paquets qu’il envoie ou reçoit. La référence permanente des créateurs de Mute aux fourmis (qui sont d’ailleurs représentées sur le logo du projet) n’est pas un hasard : comme un fourmi dans sa fourmilière, chaque utilisateur n’a qu’une connaissance très parcellaire des tâches et fonctions qui lui incombent, mais le tout, c’est-à-dire l’ensemble des utilisateurs échangeant des fichiers, constitue une structure parfaitement organisée et optimisée.

Mais un autre problème du P2P provient de la consommation excessive de bande passante (http://www.technologyreview.com/articles/wo_hadenius022504.asp?trk=top), ce qui suscite de nouvelles velléités de centralisation. Si vous et votre voisin de pallier souhaitez télécharger un fichier situé en Asie, le fichier va transiter deux fois sur l’ensemble du réseau. Certains administrateurs estiment que le trafic représenté par le P2P correspond déjà à plus de la moitié du trafic global des FAI haut débit. C’est la raison pour laquelle plusieurs dispositifs de cache dédiés au P2P apparaissent, notamment Peercache, développé par l’un des créateurs de Kazaa (cf. Joltid, http://joltid.com). L’outil, installé chez les ISP, est capable de repérer les flux correspondant à des échanges de fichiers en P2P, et donc à les stocker sur des serveurs centralisés. Supprimez un intermédiaire « naturel », il revient au galop…

Autre bénéfice du P2P : en multipliant à l’infini les points catifs du réseau, celui est rendu moins vulnérable aux attaques et bugs et moins structurellement engorgé qu’un réseau dépendant de serveurs, comme le défend Simson Garfinkel (http://www.technologyreview.com/articles/wo_garfinkel100303.asp). Pour beaucoup, l’idée est donc de prolonger le concept « pair à pair » dans le domaine des protocoles de communication, des infrastructures physiques des réseaux comme de l’ensemble des applications.

Le End System Multicast (ESM), développé par l’université de Carnegie Mellon est ainsi un système fondé sur un réseau pair à pair qui s’auto-organise selon les récepteurs pour distribuer des vidéos en flux continu (voir : http://www.fing.org/index.php?num=3462,2).

On voit donc bien apparaître ce mouvement de balancier, entre les partisans d’un P2P totalement ouvert et transparent, dans lequel le réseau est totalement dématérialisé, et ceux qui souhaitent reconstruire un dispositif centralisé et mieux contrôlable. On voit également que le notion même de réseau est diffuse et que les différentes solutions proposées concernent parfois la structure physique du réseau, parfois les traitements, les couches logiques ou les protocoles qui les régissent.

À lire aussi sur internetactu.net

0 commentaires

  1. bonjour

    je suis bodry dexter je suis informatcien j’intervien a ceci parce que je sais l’internet de demain sera encore plus sofistiquer que ça, plus rapide que ça encore plus de truc sur et bien de tant de chose maitenant si vous avez de chose qui vous complique dans votre ordinateur conatacter à mon Email qui est bodrydexter21@yahoo.fr

  2. salut ,mr bodry dexter varie de ta connaissance , je me présente warkan sonia , je suis étudiante et je travail sur la connaissance de l internet et je serrais très heureuse de me voire m’aider ( document) et merci d’avance

Répondre à bodrydexter Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *