ProspecTic 4/12 : Stratégies pour l’informatique et les réseaux

ProspecticA l’occasion de la parution de « ProspecTic, nouvelles technologies, nouvelles pensées ? » par Jean-Michel Cornu, directeur scientifique de la Fing – un ouvrage pédagogique et de synthèse sur les défis des prochaines révolutions scientifiques (Amazon, Fnac, Place des libraires) -, il nous a semblé intéressant de revenir sur les enjeux que vont nous poser demain nanotechnologies, biotechnologies, information et cognition.

Quelles sont les prochaines révolutions technologiques à venir ? Quels défis nous adressent-elles ?

Trois nouveaux paradigmes

La loi de Moore et les lois équivalentes (croissance de la capacité des disques durs, débit des fibres optiques) ont permis une évolution exponentielle des moyens disponibles. Le nombre de transistors inclus dans un même circuit intégré a été d’abord suffisant pour y placer le coeur d’un ordinateur simple adapté au traitement des caractères (un microprocesseur 8 bits), puis un coeur plus élaboré capable de traiter plus facilement des nombres et donc des interfaces graphiques (un microprocesseur 32 bits). Il a ensuite été possible de créer des mémoires – permanentes grâce à la technologie flash – d’une capacité suffisante pour y stocker une dizaine de photos, donnant naissance au marché des appareils photo numériques. La taille des mémoires a permis ensuite d’y placer un album musical complet, puis un film, ouvrant la porte aux baladeurs musicaux puis vidéo.

Aujourd’hui, une mémoire flash de quelques gigaoctets est suffisante pour y placer des programmes et des données. Nous en sommes à l’arrivée des miniPC sans disque dur. Demain, c’est l’ensemble de l’ordinateur qui pourra tenir sur une seule puce. L’évolution technologique est donc exponentielle avec parfois même des décrochages lors de l’arrivée de technologies de rupture – la possibilité de stocker deux bits, puis quatre dans un seul transistor dans les mémoires flash. Nous franchissons ainsi des seuils d’usage ouvrant la porte à de nouvelles possibilités et de nouveaux marchés. En deçà du seuil, la réalisation d’un appareil permettant cet usage est possible, mais complexe et onéreuse. Au-delà du seuil, nous pénétrons dans le domaine de l’abondance qui modifie profondément notre façon d’utiliser la technologie. Le domaine du traitement est déjà en très grande partie dans un paradigme d’abondance. C’est le cas également des communications et prochainement des communications mobiles à haut débit. Nous entrons actuellement dans l’abondance de la mémoire. Nous devrions arriver prochainement dans une ère d’abondance d’objets intelligents et connectés, mais aussi de robots. Il nous reste à franchir les seuils nécessaires pour faciliter l’interface entre l’homme et la machine.

Le deuxième paradigme est une conséquence du premier. La virtualisation est rendue possible par l’abondance de capacités de traitement et de communication. On peut désormais faire tourner n’importe quelle machine virtuelle au-dessus d’une machine physique. De même, il devient possible de créer pratiquement n’importe quel réseau logique au-dessus d’un réseau physique pour expérimenter de nouveaux protocoles, d’exploiter différents réseaux étanches entre eux pour des usages différents. À l’inverse, il est possible d’assembler de façon transparente la puissance de plusieurs machines ou de plusieurs types de réseaux. L’innovation sur les machines et les réseaux – et non plus seulement sur les logiciels et les données – devient à la portée de celui qui a accès aux machines et aux réseaux physiques et non plus seulement de ceux qui peuvent les fabriquer.

À une phase de grande innovation technique s’est ajoutée une nouvelle phase d’innovation d’usage, qui est bien illustrée par l’arrivée du web et surtout du web 2.0. Nous entrons dans une nouvelle phase où il faudra également ajouter l’innovation sur les modèles économiques. L’économie est entrée dans une logique d’abondance avec les possibilités de mutualisation de la virtualisation, mais aussi de réplication des données grâce à la numérisation.

Demain, nos biens matériels deviendront peut-être aussi faciles à répliquer. Cette abondance de l’offre ne signifie pas automatiquement une abondance de richesses, mais elle doit nous inciter à repenser profondément nos modes de régulation. L’arrivée de la musique en ligne, par exemple, ne nous limite plus aux transactions économiques anciennes, et elle a été l’occasion de nombreuses innovations économiques. L’importance de cette innovation économique, en complément des innovations techniques et d’usage, constitue un troisième changement de paradigme pour le domaine numérique.

Comme dans le cas des nanotechnologies et des biotechnologies, il est possible de décomposer les risques et débats selon quatre grandes familles.

Le risque sanitaire
Il comprend bien sûr le débat sur l’innocuité ou non des ondes radioélectriques, mais aussi des champs électriques et magnétiques produits par les différents équipements électriques et électroniques. Dans cette catégorie pourraient également entrer les risques environnementaux et les débats sur le recyclage de certaines matières.

Encadré
Les champs électromagnétiques sont-ils nocifs ?
Il existe beaucoup plus d’études qu’on ne le pense généralement sur l’impact des champs électromagnétiques sur la santé, bien qu’aucune ne permette encore de trancher définitivement dans un sens ou dans un autre. Les opérateurs commanditent eux-mêmes de nombreuses études. En cas de problème, ils souhaitent être les premiers informés pour avoir le temps de réagir. Pour l’instant, les études indépendantes (hors études des opérateurs qui ne sont en général pas rendues publiques) semblent montrer des résultats contradictoires, en particulier sur l’innocuité du GSM. Des associations comme Robin des toits diffusent des études qui concluent à un danger pour la santé.

Par précaution, les puissances utilisées ont diminué au fur et à mesure de l’évolution des technologies et la fourniture de kits oreillettes filaires est devenue obligatoire, ceux-ci restent cependant peu utilisés. Si les premiers terminaux avaient une puissance de 8 W, les téléphones GSM actuels font tous 2 W. Le Wifi – qui est le plus souvent situé dans l’ordinateur plutôt que près de l’oreille – a une puissance maximum de 100 mW, mais il émet dans la bande des 2,4 GHz, qui est également celle de la résonance de la molécule d’eau dont nous sommes en majorité formés. La 4G aura une puissance encore plus réduite, 50 mW. Les oreillettes Bluetooth pour leur part ont une puissance de 1 mW. Il faut cependant prendre en compte le fait que les oreillettes sont parfois portées toute la journée sur l’oreille, près du cerveau. Si, à des puissances élevées, les champs électromagnétiques produisent un effet d’échauffement, les effets éventuels des terminaux mobiles placés tout près de nous sont également de nature non thermique. Des études récentes montrent ainsi que les ondes électromagnétiques pulsées, non continues mais modulées, comme le sont les réseaux informatiques, peuvent avoir un effet cumulatif et endommager les membranes cellulaires, même à très faible puissance.

Quant aux antennes relais pour la téléphonie mobile, l’Organisation mondiale de la santé (OMS), la commission internationale de protection contre les rayonnements non ionisants (ICNIRP), la société de biomagnétisme américain (BEMS), l’association européenne de bioélectromagnétisme (EBEA) et divers groupes d’experts nationaux britanniques et français ne retiennent pas l’hypothèse d’un risque sanitaire pour les riverains. Le recul semble suffisant, le champ s’atténuant rapidement avec la distance. Cependant, par principe de précaution, la ville de Paris a décidé de limiter l’exposition des habitants aux champs électromagnétiques dus à la téléphonie mobile à 2 volts/mètre (valable pour la fréquence de 900 MHz utilisée) contre les 41 à 61 volts/mètre prévus par la législation nationale. Cependant, la question se pose pour les personnes qui interviennent sur ces antennes. Elles risquent de dépasser les seuils conseillés et doivent donc respecter un certain nombre de consignes de prévention.

Le champ électrique d’une rallonge – même éteinte – placée sous un lit où nous passons près d’un tiers de notre temps peut également poser question. Les études sur la sensibilité du corps humain recommandent de limiter le champ électrique auquel nous sommes soumis à une valeur de 5 volts/mètre dans les lieux de repos et 15 volts/mètre dans les lieux de passage pour un champ électrique à 50 Hz. Cela peut se faire en utilisant des appareils électriques équipés d’une prise de terre. Quant au champ magnétique, rayonné par un appareil en marche, il est recommandé de ne pas dépasser certains niveaux (2 milligauss dans les lieux de passage). Mais les seuils officiels de l’ICNIRP en vigueur dans la plupart des pays sont bien plus élevés (5 000 volts/mètre et 1 000 milligauss pour le courant 50 Hz).

Les opérateurs prennent en compte aussi bien la question rationnelle des seuils d’innocuité que celle émotionnelle des peurs générées par le risque. En effet, au-delà d’un certain seuil de préoccupation, l’inquiétude peut rendre réellement malade. Quelle que soit l’évolution des recherches sanitaires sur l’effet des ondes et des champs électromagnétiques, il est indispensable que les opérateurs montrent une réelle transparence pour éviter une crise de confiance avec le reste de la société.

Le risque pour les libertés individuelles
Ce risque est alimenté par les possibilités de connexions ubiquitaires et permanentes, avec le débat sur le droit à la déconnexion et celui sur le droit à l’oubli. Les virus, publicités non sollicitées (spam) et logiciels espions (spyware) posent également des questions mal résolues.

D’autres problèmatiques concernent la traçabilité en ligne et hors ligne, la télédétection et les différents moyens d’authentification des personnes. La technologie devient de plus en plus invisible au fur et à mesure de son évolution et l’internet « sort de l’écran » pour s’intégrer à nos objets de tous les jours. Il devient difficile de connaître les capacités d’identification, de localisation ou de récupération d’information des objets les plus usuels – comme les emballages des produits commerciaux qui commencent à intégrer des étiquettes à radiofréquence : les tags RFID. Pour permettre une appropriation par le plus grand nombre, il faudra cependant aborder les questions liées à la possibilité de traçage des personnes par ceux qui installent ces étiquettes ou même la possibilité pour un tiers de lire une étiquette à l’insu de son propriétaire : emballages dans les poubelles ou encore nationalité sur un passeport à puce pour des attentats ciblés. Le manque de transparence dans le débat a suscité des réactions telles que la création du groupe Caspian contre les RFID et il commence à faire réagir les politiques.

Certaines puces sont d’ores et déjà implantées en sous-cutané pour identifier des personnes aux États-Unis ou encore en Espagne. Des technologies, comme la poussière intelligente commercialisée dans le civil depuis trois ans, représentent à la fois une formidable opportunité – par exemple dans la surveillance des massifs forestiers face aux menaces d’incendies – et un risque sans précédent d’intrusion dans la vie de chacun.

Le risque de dérive des usages
Le manque de transparence de certaines technologies peut induire des utilisations déviantes ou frauduleuses. Cela peut être le cas dans le commerce électronique, mais également au sein même de notre processus démocratique avec les machines à voter.

De plus, la technologie quitte peu à peu l’écran et le clavier et investit notre environnement direct. C’est le cas des objets intelligents et communicants, ce que l’on appelle l’informatique ambiante, mais aussi des robots. L’Europe, avec le projet Europeen Roboethics, et la Corée du Sud réfléchissent à une « éthique des robots ». Tout comme les nanotechnologies et les biotechnologies, les technologies de l’information et de la communication peuvent être implantées directement dans l’homme, en faisant un « homme transformé » ou un « homme augmenté », un cyborg. Aujourd’hui, on sait déjà réparer ou remplacer certaines fonctions – comme redonner la vue à un aveugle – mais demain sera-t-il toujours possible de trouver du travail pour une personne qui aurait refusé de se faire « augmenter » ?

Le risque de déconnexion entre les chercheurs, les industriels et les politiques et le reste de la société
Le manque de transparence dans les choix opérés amène une défiance des utilisateurs qui pourraient rejeter en bloc aussi bien les côtés positifs que ceux négatifs des TIC. La confiance nécessaire au commerce mais également au fonctionnement de la société s’effrite du fait du manque de transparence des débats dans le secteur de l’informatique et des télécommunications (comme l’innocuité des ondes radioélectriques). Ainsi, des formes d’organisation en ruptures apparaissent (hacktivisme, déclaration d’indépendance du cyberespace de J. P. Barlow ou encore les États virtuels).

La difficulté à traiter ces différents domaines est amplifiée par deux facteurs aggravants :

Le déséquilibre entre la rentabilité et la gestion des risques
La question des conflits d’intérêts est centrale avec, par exemple, la question des brevets ou bien la structure du débat public sur les libertés individuelles entre les différentes parties. Quelques bonnes intentions ne suffisent pas à la résoudre. On rencontre de nombreux conflits d’intérêts dans les technologies de l’information. C’est le cas par exemple du débat, fortement développé aux États-Unis, sur la neutralité du réseau : faut-il ou non permettre aux acteurs des réseaux de faire passer en priorité certains flux au détriment d’autres, considérés comme moins importants ? Un autre exemple de conflit d’intérêt vient de la convergence des technologies autour de trois types de réseaux : télécommunications, données informatiques et télévision ; le territoire des acteurs est ainsi en pleine redéfinition.

La difficulté culturelle à travailler de façon pluridisciplinaire
Même à l’intérieur des seules technologies de l’information et de la communication, il existe une grande diversité de disciplines. Développer des approches innovantes nécessite de croiser les savoir-faire et les connaissances.

Il s’agit bien sûr de favoriser les échanges pluridisciplinaires et ceux entre les différents acteurs impliqués (chercheurs, industriels, politiques, associations d’utilisateurs). Mais il ne s’agit pas seulement d’une question d’information. Les approches sont ainsi différentes entre ceux qui s’intéressent aux mécanismes élémentaires, par exemple les protocoles réseaux, aux comportements globaux des réseaux (théorie des graphes) et à l’influence
des caractéristiques environnementales. De leur capacité à travailler ensemble dépendra l’évolution vers de nouveaux systèmes intelligents et communicants de plus en plus complexes.

Jean-Michel Cornu
Extrait de ProspecTic, nouvelles technologies, nouvelles pensées, FYP Editions, 2008.

Pour en savoir plus, voir les annexes sur le blog de Jean-Michel Cornu :

Encadré
Les grands domaines de l’informatique
Les technologies de l’information et de la communication comprennent plusieurs domaines qui chacun ont des degrés de maturité différents.

On trouve tout d’abord les technologies de base dont certaines évoluent régulièrement (la loi de Moore qui s’applique aux circuits intégrés en silicium, mais aussi les technologies Winchester pour les disques magnétiques et les fibres optiques qui suivent des lois similaires) , mais également d’autres technologies de rupture qui pourraient changer la donne dans les prochaines années : la spintronique qui utilise non seulement la charge des électrons mais également leur spin ; le graphène qui permet aux électrons de circuler plus vite que dans la plupart des matériaux, à environ 1000 Km/s (1/300e de la vitesse de la lumière ; les systèmes de traitement optiques qui remplacent les électrons par des photos, avec un gain par rapport aux routeurs électronique qui pourrait être d’un rapport 1000 ; l’ADN comme une mémoire bien plus performante que nos mémoires actuelles (un acide nucléique a une taille d’environ 35 nm et permet d’encoder 4 possibilités, soit 2 bits contre 500nm et 4 bits pour une mémoire flash gravée avec une finesse de 45 nm), ou encore l’électronique quantique qui permet d’étudier plusieurs hypothèses en même temps avec un même circuit.

Au dessus de ces technologies, six grands domaines se développent :

  • Le traitement qui utilise de plus en plus l’association de machines, de processeurs et de cœurs avec les grilles d’ordinateurs, les machines massivement parallèles ou les processeurs double cœur.
  • Les communications avec en particulier les réseaux mobiles de 4e génération qui devraient permettre une multiplication des débits par 1000 en sept ans (LTE pour la suite de l’UMTS, UMB pour l’approche de la téléphonie mobile américaine ou encore WiMAX mobile qui vient dispose déjà du débit mais acquière la mobilité.
  • Les mémoires qui en ayant des tailles de plus en plus grande permettent le « lifelogging » pour enregistrer et conserver l’ensemble des archives de toute une vie.
  • Les interfaces utilisateurs qui sont particulièrement diversifiées avec l’arrivée de nouveaux écrans (papier électronique, Oled…) mais permettent également des interactions avec les 5 sens, sans compter les interfaces cerveau-machine dont la commercialisation grand public est prévue dans les prochains mois (EPOC de Emotiv, Mindset de Neurosky…).
  • Les robots avec des approches différentes au Japon (des compagnons) ou aux USA (avant tout des services fonctionnels. Le France n’est pas en reste avec un nouveau langage de programmation uinifié pour les robots URBI (Universal Real-Time Behavior Interface) créé par le français Jean-Christophe Baillie, ou encore la sortie de Nao, le premier androïde de la société française Aldebaran Robotics, qui a été choisi comme plate-forme standard pour la robocup de juillet 2008.
  • Les objets intelligents et communicants qui sont juste en train de dépasser le nombre d’humain sur la planète. On y trouve des services ne nécessitant pas d’intervention humaine entre un objet et un serveur (le Machine to Machine, M2M) ; des réseaux de capteurs, plus sophistiqués, capables de capter des informations sur leur environnement ou encore des objets intelligents et communicants disposant de suffisamment d’intelligence et d’autonomie.

ProspecTic, la carte des technologies de l'informatique et des réseaux

Des applications font appel à plusieurs de ces domaines pour proposer des applications front end (devant l’utilisateur) ou back end (sur un serveur à l’arrière, par exemple pour les systèmes de gestion de base de donnée).

À lire aussi sur internetactu.net

2 commentaires

  1. Bonjour.
    Juste une petite précision, vous ecrivez que la fréquence de 2,4GHz est la : « résonance de la molécule d »eau ». Le mot « résonance » est malheureux, 2,4GHz n’est pas du tout (la fréquence de) la « résonance » de l’eau. La fréquence de « résonance de l’eau » se situe à des fréquences bien plus élevées et est en fait constituée de plusieurs résonances dont la plus importante se situe vers 183 GHz.
    Il existe d’ailleurs des fours à micro-ondes opérant nettement plus bas que 2,4GHz, par exemple 915MHz.

    La fréquence de 2450 MHz a été choisie pour des raisons pratiques :
    1) c’était une fréquence « poubelle » disponible car exploitée par l’industrie et le médical avec l’avantage d’être au dessus du GHz (à partir du GHZ les molécules d’eau ont du mal à suivre l’oscillation HF)
    2)un compromis (pas vraiment précis) sur la pénétration dans les aliments : trop bas en fréquence, l’onde fait tout autant osciller les molécules d’eau mais traverse les aliments sans chauffer assez. Trop haut en fréquence elle tend à chauffer la surface.
    Si on utilisait une des fréquences de résonance de l’eau, la surface absorberait toute l’energie (qui par ex se vaporiserait) et l’intérieur resterait complètement froid.
    JFC

  2. Vous avez raison le terme « résonance » n’est pas adéquat. Il s’agit en fait de chercher l’efficacité avec laquelle l’énergie électromagnétique de l’onde est convertie en chaleur : le facteur de perte (loss factor).

    La molécule d’eau forme un dipôle magnétique qui interagit avec le champ électromagnétique. La molécule est alors déplacée d’avant en arrière et réciproquement. Cela a comme conséquence de modifier les liaisons de l’atome d’oxygène avec les hydrogènes. Elles s’allongent, se rétrécissent et se fléchissent (voir l’illustration

    En dessous de 1 GHz la molécule est agitée trop lentement pour voir un échauffement perceptible. Au dessus de 100 GHz, elle n’a pas assez de temps pour réagir aux variations trop rapides du champ et on ne constate pratiquement pas d’échauffement non plus. Entre les deux, le facteur de perte dépend de la température de l’eau (et se modifie donc au fur et à mesure que l’eau s’échauffe) comme le montre cette courbe (voir les courbes bleues, « dielectric loss) pour des températures comprises entre 0 et 100°C) b. La fréquence de 2,45 GHz des fours à micro onde est effectivement un compromis en fonction de la pénétration de l’onde.

    Bien évidemment, la puissance d’émission du Wi-Fi (100mW pour une borne et 30 mW pour un appareil connecté) n’a rien à voir avec la puissance des fours à micro onde. Il faut cependant se poser la question de la distance pour un téléphone Wi-Fi posés sur notre tempe (l’énergie décroît comme le carré de la distance). La question actuelle est plutôt sur le fait que les ondes électromagnétiques des réseaux informatiques ne sont pas continus mais « pulsés ». Il est nécessaire de voir plus avant l’impact de ce type d’onde sur l’eau mais aussi par exemple sur la paroi cellulaire.

    Pour en savoir plus sur l’influence des micro ondes sur l’eau : Martin Chaplin, Water and Microwaves, London South Bank University : http://www.lsbu.ac.uk/water/microwave.html

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *