L’internet 4G, ambiant et plus tard… autonome

Par Jean-Michel Cornu [1]

Les nouvelles technologies, au fur et à mesure qu’elles sont plus matures, deviennent plus transparentes. Trois courants vont dans ce sens dans le domaine des réseaux et des télécommunications :

  • La 4G (4e génération) qui permet d’utiliser indifféremment les réseaux sans fils ou les systèmes de téléphonie mobiles
  • L’internet ambiant qui permet une connexion partout en particulier pour les objets intelligents et communiquants
  • Et un peu plus tard, l’autonomic computing qui permet aux réseaux de s’auto-configurer en fonction d’objectifs généraux.

La 4G

Il existe actuellement deux grands courants dans les communications sans fil : les réseaux sans fil autour des standards IEEE 802 (voir l’article sur « la Wi-Generation : W-USB, Wi-Fi, WDSL, Wi-Mobile« ) et la téléphonie sans fil de 3e génération (voir la fiche d’expertise sur la mobilité). Ces deux approches sont différentes. Il est cependant possible de les faire converger grâces à plusieurs évolutions :

  • Les terminaux doivent devenir multimodes et reconfigurables (par exemple avec la radio logicielle) pour passer d’un réseau à l’autre.
  • Il est également nécessaire de passer sans couture d’un type de réseau à l’autre. L’intégration entre les réseaux peut être faible au niveau de la couche réseau (pour le « handover » vertical qui permet de passer sans coupure, par exemple d’un réseau sans fil à un réseau mobile). Il est également possible de réaliser une intégration forte en couplant les réseaux au niveau des couches basses (liaison et physique).
  • Les utilisateurs ont enfin besoin d’une identification universelle et de contrats unifiés. Il s’agit cette fois d’unifier les couches hautes du réseau (en particulier les mécanismes AAA pour « Authentification, Autorisation, Accounting »)

Divers projets travaillent dans ce sens. C’est le cas du projet européen pour les réseaux de formation et de recherche ANWIRE (Academic Network for Wireless Research in Europe). Il a commencé en 2002 et s’est terminé en 2004. Il a eu pour objectif de mettre au point des technologies pour se connecter au meilleur réseau à un moment donné (always best connected) en fonction de divers critères (consommation, qualité, coût…).

Un exemple de convergence pour 2005 : la téléphonie fixe et mobile
En attendant la 4G, des premiers résultats de la convergence des mondes des télécommunications mobiles et des réseaux sans fil devraient voir le jour dès cette année. Il s’agit de passer automatiquement du réseau mobile GSM à un réseau de téléphonie sur l’internet lorsque l’on arrive chez soi, dans la zone de connexion de son réseau Wi-Fi. Des expériences ont d’ores et déjà eu lieu en 2004 aux Etats Unis. Pour cela les téléphones doivent pouvoir se connecter à la fois sur le réseau GSM et sur un réseau Wi-Fi.

Le système fonctionne également dans l’autre sens : une personne est appelée sur son téléphone mobile avec un préfixe 06. Si on détecte qu’elle est chez elle dans la zone d’interaction de son réseau Wi-Fi, l’appel est rerouté sur sa connexion de téléphonie sur ADSL (préfixe 08XX).

Outre des téléphones bi-standards, il est nécessaire d’intégrer les deux réseaux. Chacun dispose de sa propre chaîne de traitement. Dans un réseau GSM/GPRS, le terminal (MS, Mobile Station) est relié sans fil à un sous système radio fixe (BSS, Base Station Sub-system). Celui-ci sépare alors la voix des données :

  • La partie voix va vers un sous-système réseau GSM ;
  • La partie données (le GPRS) est acheminée vers un sous-système réseau GPRS.

Dans un réseau Wi-Fi connecté à l’internet, le terminal est relié sans fil à un point d’accès (PA) et un routeur xDSL/Wi-Fi qui permet la connexion via une ligne xDSL au reste du réseau internet. Pour éviter de toucher aux briques existantes du réseau GSM/GPRS, l’astuce consiste à insérer dans le réseau de l’opérateur xDSL un boîtier qui va trier et convertir les données :

  • La voix sur IP sera convertie et transmise au sous-système réseau GSM. La voix venant du GSM sera au contraire convertie en voix sur IP.
  • Les autres données seront converties entre IP (venant de l’internet) et GPRS (venant du réseau GSM/GPRS).

Ainsi, un simple boîtier permet de relier les données et la voix venant du réseau Wi-Fi/xDSL vers le réseau GSM/GPRS sans nécessiter de transformations importantes dans les réseaux. La société Kineto fournit par exemple ce type de boîtier, qui permet aux opérateurs d’offrir la convergence entre la téléphonie mobile et la téléphonie en voix sur IP via Wi-Fi.

L’internet ambiant

L’internet sans fil n’est pas qu’une question de mobilité et de nomadisme. Il permet également d’accéder à l’internet partout, ce qui est particulièrement important pour les objets intelligents et communiquants, ainsi que les réseaux de capteurs. La société Ozone se fixe ainsi pour objectif d’offrir un réseau pervasif où la connexion devient transparente.

Ces réseaux utilisent les WLAN (réseaux locaux sans fil). Cependant pour couvrir des territoires importants, il est nécessaire d’avoir plusieurs cellules et la faculté de passer de l’une à l’autre de façon transparente (handover horizontal). Pour éviter d’avoir à relier les points d’accès entre eux par des réseaux filaires, les mesh networks permettent une interconnexion sans fil entre les cellules. Les réseaux ad-hoc permettent même de s’affranchir des points d’accès. Chaque terminal, objet ou capteur, devient un relais pour acheminer les données de proche en proche jusqu’à leur destination.

La miniaturisation des capteurs est telle que l’on parle aujourd’hui de poussière intelligente (smart dust). La société Dust Network, basée à Berkeley a commercialisé ses premiers produits en 2004 avec des systèmes intelligents et communiquants dont la taille ne dépasse pas 1 à 2 mm. Il devrait être possible de gagner un rapport 10 en taille dans les prochaines années tout en fournissant des « poussières » dont chaque grain à la puissance d’un PC. Dans ce cadre, les nanotechnologies pourraient permettre des progrès très importants.

Outre les applications militaires, c’est par exemple dans le domaine de la surveillance des feux de forêts que l’on pourrait très bientôt rencontrer cette technologie. Il suffit d' »inonder » une forêt de ces minuscules capteurs pour qu’ils puissent communiquer de proche en proche et donner l’alerte en cas d’incendie.

Pour ces réseaux de capteurs et les objets intelligents, la grande question est l’énergie. Outre l’évolution des batteries, ces systèmes devraient pouvoir se recharger auprès… du vivant, en absorbant des épinards, du sucre, des limaces ou des mouches ! En parallèle, de nombreux travaux cherchent à déterminer les meilleurs choix pour économiser l’énergie. Par exemple vaut-il mieux consommer de l’énergie pour envoyer plus de données ou bien pour un effectuer un calcul de compression afin de réduire le nombre de données transmises ? Les protocoles de réseau sont gourmands en énergie :

  • Pour transmettre 1 bit (sans protocole), il faut 1000 cycles du processeur.
  • Avec Tcp/Ip, il faut 10 000 cycles du processeur pour transmettre 1 bit (soit 10 fois plus d’énergie).

Tcp/Ip est un protocole pour les réseaux riches et non pour les réseaux pauvres. La gestion des adresses consomme beaucoup trop d’énergie. Pour les réseaux de capteurs, on s’oriente vers un adressage physique en fonction de l’endroit où se trouve le capteur plutôt qu’une adresse logique.

Et pour le futur : les réseaux autonomes

Les réseaux ont grandi et leur configuration est devenue complexe. De plus, la configuration ne représente qu’une partie du pilotage d’un réseau. Un des objectifs pour rendre les réseaux plus transparents est de leur permettre de se configurer et de se piloter eux-mêmes. On parle alors de réseaux autonomes (autonomic computing). Les futures générations de routeurs auront un « cerveau » pour s’autoconfigurer automatiquement en fonction de ce que l’utilisateur souhaite optimiser : la performance, la consommation, la fiabilité…

Pour permettre au réseau de devenir plus autonome, plusieurs aspects sont nécessaires :

  • Une connaissance (pour reconnaître les flots d’un réseau).
  • La sécurité (il faut sécuriser tous les flux).
  • Le pilotage du réseau (avoir un pilote et savoir ce qu’il faut optimiser).
  • La configuration (automatiser la configuration).

Des travaux sont en cours en Europe et aux Etats-Unis pour développer des réseaux autonomes. Le projet Autonomic computing de la Commission Européenne a pour terme 2020. Il définit les objectifs à atteindre :

  • Etre capable de se configurer tout seul (self configuring)
  • Etre capable de redémarrer tout seul (self healing – auto cicatrisant)
  • Etre capable de s’optimiser tout seul (self optimising)
  • Etre capable de s’auto-protéger (self protecting)

Le réseau doit pour cela se connaître lui-même (self-aware) ainsi que son environnement (environment-aware). Il doit être capable de se surveiller lui-même (self-monitoring) et d’ajuster ses propres paramètres (self-adjusting).

Jusqu’à présent, le fonctionnement des réseaux était vu au travers de trois plans :

  • Le plan de gestion, qui gère les différents plans
  • Le plan de données, qui utilise les données elles-mêmes circulant sur le réseau (via des routeurs ou des boîtiers intermédiaires tels que des pare-feu…)
  • Le plan de contrôle, qui déroule un algorithme en fonction de la politique de gestion à appliquer (agents réactifs, algorithmes de contrôle)

Les réseaux autonomes vont ajouter un quatrième plan proposant un niveau encore plus élevé d’abstraction :

  • Le plan de connaissance. Il doit définir lui-même la bonne politique en fonction de la connaissance qu’il a de l’environnement (méta-agents – décision globale).

Suivant le cas, le réseau utilise un niveau plus ou moins élevé. Par exemple dans un réseau de capteurs et de moteurs, la réponse peut passer par une réaction immédiate (utilisation du plan de données), ou bien nécessiter une routine qui utilise des algorithmes pour définir la réponse (utilisation du plan de contrôle). Mais si la réponse nécessite une réflexion qui prenne en compte l’environnement et les objectifs définis par l’utilisateur alors il faut remonter jusqu’au plan de connaissance.

Les réseaux autonomes sont donc une architecture centrée sur les buts : l’utilisateur définit les objectifs (économie d’énergie, fiabilité, performance…). Le plan de connaissance définit quant à lui, la politique à appliquer pour atteindre ces buts. Le plan de contrôle applique la politique choisie sous la forme d’algorithmes (« si tel événement alors… »).

Pour en savoir plus
Le chef d’orchestre du plan de connaissance est un serveur d’objectifs centralisé : le « Goal Decision Point« . Les musiciens (les agents réactifs) configurent ensuite les équipements en dessous dans lesquels on trouve des « points d’application de l’objectif » (Goal Enforcement Point, GEP). Ces derniers apportent la connaissance du réseau et s’efforcent d’atteindre les buts fixés. Mais les données sont de plus en plus chiffrées dans les réseaux et il n’est souvent plus possible de reconnaître les différents flux qui passent dans un routeur par exemple. Pour cela, les GEP (points d’application des objectifs) doivent se trouver dans la machine terminale. Il s’agit d’un retour à l’origine de l’internet avec l’intelligence dans le terminal et presque rien dans les routeurs. Une idée consisterait à mettre la gestion des buts (GEP) dans une carte à puce pour sécuriser la partie du réseau qui se trouve dans le client mais qui est contrôlée par le serveur d’objectifs (GDP).

On retrouve la même architecture pour le plan de contrôle avec les serveurs de politiques (PDP) et les points d’application de politiques (PEP). Le protocole COPS qui est utilisé pour le plan de contrôle pourrait être adapté pour échanger des buts en plus des politiques.

L’arrivée des réseaux autonomes devrait changer le rôle des spécialistes réseaux. Il devrait y avoir besoin à terme de moins d’ingénieurs réseaux, mais le rôle d’architecte réseau (définissant les buts) devrait prendre une importance croissante.

Jean-Michel Cornu

_________
1. L’auteur tient à remercier Guy Pujolle (Lip6) et Jean-Marc Dolivramento (Bouygues Telecom) pour leur relecture attentive et leurs corrections judicieuses.Ce document est un résumé des présentations sur le thème de la 4G, des réseaux ambiants et des réseaux autonomes faites lors du 18ème congrès DNAC les 30 novembre et 1er décembre 2004 sur le thème « Contrôle, maîtrise et autonomie des réseaux » en particulier la présentation de Guy Pujolle dans le cadre du tutoriel sur « Stratégies à moyen et long terme dans le monde des réseaux et des protocoles » et celle de Hakima Chaouchi (Kings College London) sur « Autonomic au niveau haut de l’architecture ».

À lire aussi sur internetactu.net

3 commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *