2020 : l’avenir du calcul informatique et de la science

La couverture du numéro du 23 mars 2006 de NatureNature consacre un passionnant dossier à l’avenir des relations entre informatique et science d’ici les 15 prochaines années. Des relations de plus en plus interdépendantes, comme le souligne Stephen H. Muggleton : non seulement à cause de l’accroissement exponentiel des volumes de données, mais surtout parce que les scientifiques sont de moins en moins capables de conceptualiser la profondeur des relations entre données sans l’aide de l’informatique.

Si on n’est pas passionné par le sujet, on ne s’attardera pas nécessairement sur l’histoire du calcul scientifique ou la révolution de l’ordinateur quantique, mais on prendra le temps de parcourir le très intéressant papier d’Alexander Szalay et Jim Gray sur l’évolution des méthodes scientifiques et du travail des chercheurs dans un monde où le volume des données accumulées par les chercheurs double chaque année. Et de rappeler la nécessité de former tous les futurs scientifiques à la gestion de données, aux concepts informatiques et aux techniques statistiques. Sans compter que « trop d’efforts sont encore consacrés à convertir des données d’un format propriétaire à un autre », comme le montre ce bon exemple : « Imaginez une mesure utilisant une machine séquençant l’ADN. La production des données est réalisée avec une séquence provenant de la GenBank et les résultats analysés avec le logiciel Matlab. Documenter complètement ces étapes serait difficile, il y a donc peu de chance que quelqu’un puisse reproduire la procédure dans 20 ans. Sans compter que Matlab et GenBank auront énormément changé d’ici là. Les expériences comporteront toujours plus de données, les analyses deviendront toujours plus complexes et les données seront incrémentalement plus difficiles à documenter et à reproduire. »

Declan Butler s’intéresse, lui, à l’informatique ambiante : c’est-à-dire comment l’internet des objets va bouleverser la science expérimentale elle-même en permettant de recueillir des données en temps réel à partir d’un très grand nombre de points, ou d’agir sur ces points. Le réseau de 10 capteurs que les chercheurs du groupe de recherche sur les réseaux extrêmes ont déployé dans une petite forêt aux abords de l’université Johns Hopkins, dans le cadre du projet la vie sous nos pieds, a ainsi collecté 1,6 millions de mesures en 147 jours. Selon Butler, « Des milions ou des miliards de minuscules ordinateurs seront enchâssées dans la structure du monde réel. Ils agiront de concert, partageant les données que chacun d’entre eux amasse, afin de produire des représentations numériques utilisables du monde. Les chercheurs pourront exploiter ce « web de capteurs » en posant leurs questions ou en testant directement leurs hypothèses. Même quand les scientifiques seront occupés à autre chose, ces réseaux de capteurs continueront de manière autonome à produire des mesures et des analyses, en modifiant leur comportemens pour s’adapter à leur expérience changeante du monde. » Une perspective qui pourrait bien venir bouleverser le cycle actuel des expérimentations.

Comment se préparer à un tel avenir ?, s’interroge Vernor Vinge, professeur émérite en informatique de l’université d’Etat de San Diego et auteur d’un récent roman, Rainbows End consacré à l’internet en 2025. « Peut-être est-ce le plus important projet de recherche pour notre machine à créativité [Ndlr : c’est ainsi que Vernor Vinge caractérise l’internet]. Nous avons besoin d’exploiter la couche croissante des capteurs et actionneurs, pour transformer le monde lui-même une base de donnée temps-réel. Dans les couches humaines et sociales de l’internet, nous devons concevoir et expérimenter des architectures de collaboration à grande échelle. Nous avons besoin de linguistes et de chercheurs en intelligence artificielle pour étendre les capacités des moteurs de recherche et des réseaux sociaux, et produire des services qui dépasseront les barrières que créent les jargons techniques, relieront les spécialités, rassembleront des groupes dont les problèmes ou les solutions sont complémentaires – y compris lorsque ces groupes ne sont pasa priori conscients de ces complémentarités. Au bout du compte, l’ensemble que constituent les ordinateurs, les réseaux et les gens est plus grand que la somme des parties. Il sera plus grand, à terme, que la créativité humaine. Pour devenir quoi ? Nous ne pouvons le savoir avant d’y parvenir. »

À lire aussi sur internetactu.net

0 commentaires

  1. et je me demande dans quelle mesure réfléchir à comment vivre et accepter la société de demain n’est pas le sujet prioritaire, urgent, même par rapport à d’autres problématiques essentielles comme les déséquilibres de la croissance économique actuelle, etc. Car la fracture numérique est déjà là, et l’absence de réflexion, de prospective, ainsi que (et ce n’est pas négligeable), l’absence de préparation des opinions publiques, préparent pour demain la guerre des artilectes contre les nostalgiques (en m’inspirant des propos récents d’un chercheur américain).

  2. « web de capteurs » : non. internet de capteurs. le concept derrière les capteurs c’est l’interconnexion.
    le web n’est qu’une partie de l’internet qui a pris de l’importance.

    bon j’arrête de pinailler. bon billet.

  3. Assez proche du concept des « utility fog » de Storrs Hall en ce qui concerne les nanotechnologies.