Christian Huitema, Microsoft, architecte du groupe « Windows Networking & Communications »

Quelques semaines après la fin des rencontres d’Autrans, un retour sur l’intervention de Christian Huitema, l’un des pères-fondateurs de l’internet, sur la base des notes de Daniel Kaplan.

On a rêvé et on peut continuer à rêver l’internet : 1974 : mettre au point la technologie de base – c’est fait ! 1984 : connecter les réseaux de recherche entre eux – c’est fait ! 1994 : connecter tous les ordinateurs du monde – c’est fait ! 2004 : libérer le potentiel de l’humanité ?
En facilitant la propagation des connaissances, on donne plus de pouvoir à l’humanité. Mais on peut aussi se réveiller en sursaut : spam, virus, firewalls (de l’entreprise, du fournisseur d’accès, de pays), NAT, facture numérique, DNS-ICANN-UIT…

On voit des gens qui commencent à s’éloigner de l’internet à cause du spam, des virus… Par ailleurs les réactions à ces problèmes aboutissent à créer des frontières partout. Du coup, certaines pratiques ne peuvent plus se développer : on ne peut plus avoir son propre serveur web, son propre serveur de messagerie… La liberté de communication se réduit. Cela peut aller loin dans des pays qui n’ont pas la même vision que nous de la liberté d’expression.

Avec les NAT (dispositifs de translation d’adresses IP, que l’on rencontre y compris derrière les routeurs ADSL domestiques), par exemple des communications vidéo ne fonctionnent pas. On régresse par rapport à l’internet dial-up où le poste de travail disposait de sa propre adresse IP !

Enfin il y a une lutte pour le contrôle des fonctions centralisées de l’internet.

Est-ce que cela signifie que le rêve n’était qu’un rêve ? On peut rêver quand même !

Le contenu existe : il y a des millions de pages sur le web, dans les universités, les journaux… Il n’y a pas de crise du contenu. Ce n’est pas le point le point le plus critique. On voit se multiplier les formes de communication : la voix sur IP, la messagerie instantanée, les jeux massivement distribués… Tout cela va continuer. Mais si l’on veut que cela continue, il faut faire un travail sérieux dans 3 domaines principaux : la sécurité, la connexion et la décentralisation.

La sécurité
L’absence de sécurité crée des frontières. La première frontière, c’est celle qu’instaurent les firewalls (pares-feux). Pourquoi ? Parce que les gens ont peut d’être connectés au réseau. Mais en même temps qu’on se protège des attaques, on empêche les nouvelles applications de se développer – car elles sont considérées par les pares-feux comme des communications non sollicitées. Donc les firewalls bloquent l’innovation – sans d’ailleurs arrêter les attaques. Dès que le périmètre est grand, l’intérieur n’est pas sûr non plus. Donc il faut que chaque machine sur l’internet soit en mesure de se protéger elles-même, ce qui permet également à chaque utilisateur de prendre ses propres décisions. Pour cela il faudra plusieurs niveaux de défense dans chaque machine : firewalls, antivirus… mais aussi un chiffrement de bout en bout des données, qui permet de vérifier à chaque moment que les gens avec lesquels on communique sont bien ceux avec lesquels on croit communiquer. Il s’agit de remplacer une protection physique par une protection logicielle. Cela se fait avec IPSEC, SSL pour chaque connexion ; avec S-MIME ou des dispositifs équivalents pour les communications… Chaque application doit aussi être sécurisée.

La connexion
Second type de frontière : les NAT. C’est la frontière la plus bête, et elle crée des complications terribles dans beaucoup d’applications, notamment de communication. Elle vient de la rareté des adresses : les fournisseurs d’accès offrent une adresse Ipv4 par abonné haut débit, or celui-ci va de plus en plus partager son accès entre plusieurs machines en réseau (des ordinateurs, mais aussi la télé, la domotique, la chaîne hi-fi…). Mais si l’on a une seule adresse, chaque ordinateur ne peut plus être qu’un « client », il ne peut pas publier, devenir un serveur. La réponse consiste à remplacer Ipv4 par Ipv6 qui permet à chaque ordinateur de devenir un serveur. IPv6 permet un adressage « continu ». Les mécanismes de transition sont prêts : Teredo pour tout ordinateur derrière un NAT ; 6TO4 pour les routeurs ; ISATAP pour les entreprises. Le développement d’Ipv6 est une priorité.

La décentralisation
Troisième type de frontière : la centralisation. Le pouvoir centralisé attire le contrôle. Le contrôle étatique renforce la fracture numérique : monopole des communications, taxation des communications internationales, réglementation du chiffrement, censure des informations… L’internet est robuste, mais les fonctions centralisées, essentiellement l’allocation d’adresses IP et les noms de domaine, attirent les politiciens (exemple de l’ICANN). Il serait très facile d’utiliser l’allocation d’adresses comme un point de contrôle.
La réponse est dans la décentralisation, pour laisser faire inventeurs et commerçants. Il y a des technologies pour cela, autour du pair à pair :
. Pour les noms : des serveurs de noms décentralisés, une résolution décentralisée des noms qui supprime une possibilité de contrôle.
. Des réseaux de confiance pour les clefs publiques. Les tiers de confiance n’apportent rien à la sécurité ; ils n’apportent rien à ma relation avec ma banque.
. Généralisation du chiffrement : aujourd’hui les données chiffrées apparaissent comme exceptionnelles. Il faut que toutes les données sont chiffrées, du coup il y aura très peu de contrôle dans le réseau de ce qui peut ou ne peut pas être chiffré. Donc il faut continuer à rêver, ne pas accepter de contrôle – et préparer le réseau de demain qui sera :
Sûr : des logiciels de sécurité dans chaque système, chiffrement Ouvert : des connexions complètes à l’internet avec Ipv6 Décentralisé, en particulier avec des serveurs de noms et de clés basés sur le pair à pair.
Daniel Kaplan

Sources
http://www.microsoft.com/protect
http://www.microsoft.com/ipv6
http://www.microsoft.com/p2p
Site personnel : http://www.huitema.net

Quelques questions à Christian Huitema

Question : En mettant des systèmes de sécurité dans chaque poste, ne risque-t-il pas d’y avoir trop d’information inutile qui circule et écroule le réseau ?
Réponse : C’est mon dernier souci, qu’il y ait trop d’information dans le réseau. SI je publie une revue commerciale je veux une sécurité qui restreint l’accès. Si je veux la fournir gratuitement la sécurité porte sur l’intégrité de l’information.

Question : les gens ont toujours cherché à protéger leurs communications. Le rêve d’un internet ouvert est parfaitement utopiste et contradictoire avec toute notre histoire. C’est un postulat utopiste, ce n’est pas le meilleur. Ce qui serait intéressant serait qu’un entreprise n’ait pas pour objet de capturer les informations des internautes…
Réponse : Microsoft ne cherche pas à contrôler ce que font les gens. Des règles sont aujourd’hui imposées à tous les développeurs de Microsoft pour protéger la vie privée. MSN Messenger utilise un serveur pour établir les communications mais ne regarde pas ce que les gens font. Il y a eu des erreurs, mais celles-ci ne viennent généralement d’une démarche stratégique de Microsoft et elles ont été corrigées.

À lire aussi sur internetactu.net

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *