Technologies émergentes 2008

La couverture du numéro de mars de la Technology ReviewChaque année, la Technology Review nous offre son palmarès des technologies qui, selon elle, marqueront l’année qui vient. Pour 2008, on remarquera qu’ont été sélectionnées un certain nombre de technos qui touchent à l’incertitude, à la complexité, aux rapports sociaux. Il semble bien que les chercheurs s’aventurent aujourd’hui dans des domaines dangereux où les certitudes bâties par Newton et Descartes s’effondrent.

Ainsi, on ne peut être qu’étonné par ce projet d’un nouveau modèle de processeur « probabiliste », autrement dit capable de se tromper légèrement dans ses calculs. Quel intérêt ? En fait, les processeurs dépensent beaucoup d’énergie pour éviter toute erreur. Lorsque les premiers ordinateurs ont été créés, ils devaient essentiellement gérer des tâches pour lesquelles l’exactitude était une exigence fondamentale, que ce soit le lancement de fusées ou les bilans comptables. Mais aujourd’hui, on manipule des informations beaucoup plus floues, comme le son ou la musique. Quelle importance si le processeur se trompe un peu sur la couleur d’un pixel, sur la tessiture d’un instrument de musique ou la hauteur d’une note ? Après tout, la compression « avec perte » (comme le mp3) nous a habitué à ces petites infidélités qui se trouvent en dessous du seuil de perception. En utilisant un tel système « probabiliste » on peut largement faire baisser le voltage nécessaire aux processeurs, et allonger la durée de vie des batteries des ordinateurs portables ou des mobiles. Mais dans un avenir plus lointain, le système permettrait de continuer l’amélioration constante des processeurs décrite par la fameuse « loi de Moore ». La miniaturisation approche en effet un stade, celui de la physique quantique, où l’on ne peut plus être exact de toute façon, ou la probabilité devient la règle. Or ce nouveau type de processeur intègre justement une « logique probabiliste » qui peut gérer ce genre d’incertitudes.

Encore de l’inconnu, de l’imprévu : comment modéliser la surprise ? Cela peut sembler une contradiction dans les termes, car la surprise, c’est presque par définition ce qu’on n’arrive pas à modéliser. Pourtant, ce n’est pas la première fois que des chercheurs essaient de décrire l’inattendu : les multiples théories du chaos, de la complexité, les systèmes multi-agents en témoignent. Mais ces recherches restent pour la plupart extrêmement théoriques. Eric Horvitz, qui dirige le groupe « Systèmes adaptatifs et Interaction » au sein de Microsoft research,a essayé de développer une application pratique. Il a donc créé Smartphlow, qui observe le trafic de la ville de Seattle et envoie des alertes aux conducteurs uniquement lorsqu’il se passe un évènement inattendu : par exemple un bouchon dans une rue généralement fluide. Horvitz espère par la suite appliquer ses techniques à d’autres domaines, par exemple la prédiction de conflits armés.

Le comportement humain, voilà encore un phénomène bien difficile à modéliser. Au MIT, Sandy Pentland utilise les téléphones cellulaires pour repérer un certain nombre de constantes dans les actions des différents utilisateurs. Il aimerait que les téléphones portables se montrent encore plus capables de capter des informations sur leur utilisateur, comme leur activité physique. Une telle indiscrétion permettrait, selon lui, d’examiner et d’améliorer les conditions de travail, le bien-être des communautés, et même de prédire les épidémies ou l’état de santé d’un utilisateur (voire ce que nous disions de cette fouille de la réalité).

Encore de la complexité avec la « connectonomie », l’une des deux technologies touchant aux neurosciences dans ce top dix 2008. Le travail de Jeff Lichtman à Harvard consiste à cartographier les interactions entre neurones au sein du cerveau des mammifères. Jusqu’ici, les scientifiques ne disposaient pas de diagrammes leur permettant de saisir d’un coup d’oeil l’ensemble d’une configuration de plusieurs centaines de neurones.

Peut être un jour Lichtman utilisera-t-il pour ses travaux des « magnétomètres atomiques », la seconde des technologies sélectionnées cette année ayant un rapport avec les neurosciences. Les capteurs de champs magnétiques sont en effet utilisés pour obtenir des images précises du cerveau grâce à la technique de l’IRM (imagerie à résonance magnétique), mais ils ont bien d’autres usages, notamment en chimie. Problème : pour obtenir des données assez précises, il faut un capteur énorme. Le physicien John Kitching a mis au point des capteurs très précis d’une taille analogue à celle d’un grain de riz. Si sa technologie se généralise, on pourrait donc par exemple concevoir des appareils à IRM beaucoup plus petits, et peut être même portables.

Dans la série « small is beautiful », la TechnologyReview a également placé dans sa sélection des « nanoradios », basées sur un unique nanotube. Ces radios sont si petites qu’il pourrait un jour devenir possible de les implanter directement dans le corps : elles seraient alors en mesure d’envoyer des informations sur la santé de leur porteur à un détecteur situé à l’extérieur.

On a vu que le processeur probabiliste était un moyen de contourner la loi de Moore. Une autre possibilité serait de remplacer le silicium par le graphène, un cristal de carbone des plus communs, puisqu’à l’origine du graphite de nos crayons noirs (mais également des nanotubes et des « fullerènes »). Selon Walter de Heer, du Georgia Institute of Technology ce nouveau matériau pourrait multiplier la vitesse des ordinateurs de demain : « Il existe une limite physique à la vitesse du silicium, un point au-delà duquel vous ne pouvez plus accélérer ses performances. Nous sommes actuellement bloqués au niveau du gigahertz. Mais avec le graphène je crois qu’on pourrait monter jusqu’au térahertz – mille fois un gigahertz… » Le site de Futura-Sciences a publié un dossier très intéressant sur le graphène et ses propriétés.

Deux autres des technologies mentionnées par la TechnologyReview concernent l’énergie. La première est la généralisation de l’électricité sans fil. Aujourd’hui, transmettre de l’énergie sans fil est compliqué : par les ondes radio, la déperdition est trop importante ; en utilisant le laser, la technique de réseau point à point pour relier les appareils est trop contraignante. D’où l’idée de Marin Soljačić, professeur de physique au MIT, d’essayer une autre piste : celle de la résonnance, qui repose sur le fait que deux objets émettant à une même fréquence échangent une grande quantité d’énergie. L’exemple classique c’est celui du verre qui explose quand un chanteur parvient à émettre un son à la même fréquence que le verre. Les premières expérimentations sont plutôt concluantes, même si elles portent sur de courtes distances (quelques mètres) et de faibles puissances (60 watts), avec une déperdition en diminution par rapport à d’autres technologies (50 % de la puissance pour l’instant). Contrairement aux techniques de recharge par induction proposées par Powercast, Fulton Innovation ou WildCharge, la technologie de Soljačić permettra peut-être un jour de recharger automatiquement des batteries, sans avoir besoin de tablettes de chargement.

L’autre technologie énergétique émergente couronnée par la Technology Review se base sur les travaux visant à améliorer la production de biocarburants à partir de la dégradation de la cellulose, et utilisant des matériaux comme le bois, la paille ou les déchets agricoles. Contrairement aux autres techniques de création de biocarburant, cette « filière cellulosique » n’utilise pas de ressources alimentaires comme le maïs ou la canne à sucre. Elle est aussi plus écologique : elle est capable de réduire les émissions de gaz à effet de serre de 87 % par rapport aux dérivés du pétrole. A titre de comparaison, un biocarburant comme l’éthanol produit à partir du maïs ne réduit ces émissions que de 18 à 28 %. Mais hélas, la production de biocarburant cellulosique à l’échelle industrielle est chère et non rentable. Frances Arnold, professeur d’ingénierie chimique et de biochimie au Caltech pense avoir trouvé la solution : les enzymes. En effet, une seule de ces protéines suffit à transformer le maïs en sucre, lequel est une source d’énergie. Mais au contraire, il faut tout un groupe d’enzymes, pour dégrader la cellulose et produire de l’énergie. Frances Arnold cherche à créer des micro-organismes capables d’effectuer ce travail de manière plus efficace. Pour cela, elle a utilisé une technique « d’évolution dirigée » pour créer une multitude de séquences ADN capables de coder de nouvelles protéines. Puis elle insère ces gènes mutants dans des bactéries pour tester leur action. En effet, il ne s’agit pas seulement de trouver un bon enzyme, mais de constituer un « groupe de travail » de plusieurs d’entre eux, susceptible de collaborer efficacement.

La seule technologie web a avoir été distinguée est celle des applications web offline, comme celle développée par Adobe avec AIR (Adobe Integrated Runtime), permettant d’accéder à des applications en ligne et hors ligne (voir les applications déjà disponibles). Pour Kevin Lynch, architecte logiciel chez Adobe, ce type d’applications hybrides devrait permettre aux utilisateurs de tirer simultanément avantage de l’internet comme des capacités de leurs propres machines. AIR est un environnement d’exécution, une couche logicielle qui permet à un même programme de fonctionner sur tout type de système d’exploitation ou de matériel : un logiciel développé à partir d’AIR n’aura donc pas besoin d’être adapté pour fonctionner sur différents systèmes. Pour Lynch, AIR est la réponse à l’évolution du web vers un média plus interactif. Alors que le navigateur était créé pour les pages web, Lynch estime que nous avons désormais besoin d’interfaces plus appropriées pour le « web logiciel » que nous utilisons aujourd’hui.

Rémi Sussan et Hubert Guillaud

À lire aussi sur internetactu.net