Qu’est-ce que la « réalité numérique » ?

Neil Gershenfeld, le père des fablabs et directeur du Centre des bits et des atomes du MIT, vient de publier une longue conférence vidéo sur la « réalité numérique », sur le site Edge.org, qui propose aussi une version texte de son discours.

Ce long document qui fourmille d’idées brillantes et inédites virevolte volontiers d’un sujet à l’autre – de manière parfois un peu rapide, il faut l’avouer. Cela va de la nature de la fabrication numérique à l’économie des fablabs et de la musique, en passant par une critique des MOOCs et des considérations sur l’avenir de l’éducation à distance.

gershenfeld640
Image : Nei Gershenfeld via Edge.org.

Mais les points les plus originaux restent sa définition de la « réalité numérique » et son point de vue sur l’avenir de la fabrication.

Tout d’abord, qu’est-ce que le numérique ? Il ne s’agit pas seulement de tout représenter avec des zéros et des uns. Gershenfeld, qui préfère y voir une révolution entamée par Claude Shannon, à l’origine de la théorie de l’information. Celui-ci est le premier à avoir découvert qu’une communication de type numérique (autrement dit codée sous la forme de symboles) permettait une meilleure correction d’erreurs et donc la transmission plus sûre du message qu’une communication analogique passant par des ondes. Si le niveau de bruit est inférieur à un certain seuil, le message peut être transmis correctement. Les parasites et autres grésillements ne sont plus un problème.

Von Neumann s’est contenté d’appliquer les théories de Shannon au calcul. A l’époque, explique Gershenfeld : « Vannevar Bush avait construit un « analyseur différentiel », une salle pleine de roues et de poulies, et les réponses devenaient de plus en plus mauvaises avec le temps. John von Neumann a montré que l’on pouvait obtenir un calcul correct avec un système non fiable, du moment que le calcul se faisait à l’aide de symboles« . On est ainsi passé de la communication numérique à la computation numérique, résume-t-il.

La fabrication numérique : une très, très, très vieille histoire…

Comment la nouvelle notion de « fabrication numérique » s’insère-t-elle dans ce schéma ?

Tout d’abord, elle n’est pas si nouvelle. En fait, la première fraiseuse contrôlée numériquement date de… 1952, la période où Claude Shannon élaborait ses théories sur la communication ! Quant à l’impression 3D elle a été inventée par Chuck Hull dans les années 80. Et elle est loin d’être un élément fondamental de la fabrication numérique. Gershenfeld note que, dans son fablab, l’imprimante 3D n’est utilisée qu’environ 20 % du temps. Les autres machines à commandes numériques sont beaucoup plus efficaces pour bon nombre de tâches.

Mais de toute façon, la « fabrication numérique » n’est pas vraiment numérique : elle reste analogique, provoque Gershenfeld. Le design, la conception sont numériques, mais on continue quand même à travailler le matériau de la manière traditionnelle, en le coupant, en le modelant, bref, autant de techniques « analogiques ».

Une véritable fabrication numérique serait toute autre. Et là aussi, ce n’est pas une nouveauté, puisque son apparition daterait de 4 milliards d’années ! Il s’agit du ribosome, cette partie de la cellule qui utilise le code ADN (via un passage par l’ARN messager) pour fabriquer des protéines. Et pour comprendre la puissance du ribosome, on peut comparer son action à celle d’un enfant jouant au Lego.

RNAi-translation-originalLorsqu’un enfant bricole avec ses Lego, il n’a pas besoin de règle ou de compas. La forme des briques suffit pour créer toutes sortes d’objets : « La géométrie de l’ensemble est déterminée par l’assemblage des parties« , explique Gershenfeld. Première conséquence, l’enfant peut élaborer des structures dont la taille le dépasse. Et c’est pareil avec le ribosome : ses briques Lego sont des acides aminés, qu’il assemble un à un pour créer des structures bien plus grandes que lui. « Vous pouvez fabriquer un éléphant en ajoutant un acide aminé à la fois parce que la géométrie provient des pièces. Dans une imprimante 3D aujourd’hui, ce que vous pouvez faire est limité par la taille de la machine. La géométrie est externe ».

Autre avantage de cette méthode Lego, et on retrouve ici la définition que Gershenfeld a préalablement donnée du numérique : la correction d’erreurs est améliorée. « La tour de Lego est plus précise que ne l’est le contrôle moteur de l’enfant qui la construit parce que la contrainte d’assemblage des briques permet de détecter et corriger les erreurs ». Même chose avec le ribosome : « Dans un laboratoire, quand vous mélangez des produits chimiques le pourcentage de réussite est environ de un sur 100. Dans le ribosome, lors de la fabrique de protéines, le taux d’erreur est de un sur 104, et lorsque vous répliquez l’ADN il y a une étape supplémentaire de correction d’erreur et le taux d’erreur passe à un sur 108 (…) Parce que les pièces sont des éléments discrets, vous pouvez détecter et corriger les erreurs simplement en les associant« .

Mais il existe encore des différences entre la méthode Lego et la fabrication numérique actuelle. On peut associer des briques en Lego fabriquées dans divers matériaux. De même, le ribosome utilise 20 acides aminés différents. Or il est très difficile d’employer plusieurs types de matériaux lors d’une même tâche avec une imprimante 3D.

Enfin, et ce n’est pas le moins important, lorsqu’un enfant en a terminé avec ses Lego, il ne jette pas ses briques. Il en va de même avec le monde du vivant. Lorsqu’un organisme a terminé sa course, il meurt et ses constituants sont réassemblés. En revanche, dans l’univers de la fabrication numérique il y a bien des tentatives de recyclage, mais on ne cherche pas à réutiliser les pièces.


Vidéo : Nathan Sawaya, l’artiste du Lego.

Quand le code est intrinsèque au matériau

Voilà donc en quoi consiste la véritable « fabrication numérique » : « La géométrie créée par les pièces, la détection et la correction des erreurs, l’assemblage de matériaux différents, la séparation et la réutilisation des composants« . Mais l’idée centrale derrière tout cela, assène Gershenfeld, c’est que le code n’est pas étranger au matériau. Il lui est intrinsèque. C’est cela, la « réalité numérique ». Cette idée d’une programmation intrinsèque à la matière, nous l’avons déjà abordée dans nos colonnes, que ce soit avec les travaux un peu spéculatifs sur la matière programmable ou avec les expériences de design de Skylar Tibbits (qui, comme Gershenfeld, travaille au MIT).

Et naturellement, Gershenfeld et son équipe oeuvrent déjà sur ces nouveaux concepts. Ainsi, ils sont en train de réfléchir à une usine portable pour fabriquer des puces. Elle assemblerait à bas prix des circuits intégrés à partir de blocs de composants électroniques. Autre projet, la réalisation, à partir de petites briques, de gigantesques structures ultralégères et durables comme des avions. Gershenfeld affirme travailler aujourd’hui sur des « imprimantes à jumbo jets », « bien qu’il s’agisse plutôt en fait, d’assembleurs« … A noter que le MIT a obtenu un accord avec Airbus pour tester ces nouvelles méthodes de construction.

Gershenfeld s’intéresse aussi à la « géoimpression ». L’idée ici est de créer des systèmes robotiques capables une fois encore d’assembler à la manière des ribosomes des structures de grande taille intégrées sur le terrain, modifiant le paysage. Cela permettrait notamment de protéger les villes et les infrastructures contre des catastrophes comme l’ouragan Katrina en restructurant le terrain, alors qu’aujourd’hui on ne sait guère qu’accumuler des sacs de sable. Et comme on pouvait s’y attendre, l’idée attire également la NASA, qui envisage d’utiliser cette technologie dans l’espace.

Reste enfin le vivant qui est l’inspiration de base de toute cette nouvelle conception de la construction. Gershenfeld travaille avec le biologiste Craig Venter pour créer des systèmes microfluidiques susceptibles d’insérer des génomes artificiels dans les cellules.

A noter aussi que lors de cette conférence Gershenfeld a annoncé qu’en association avec le généticien George Church, il va créer l’année prochaine au MIT un cursus sur le modèle de How to make almost anything (comment faire presque n’importe quoi), son cours sur la fabrication qui a connu un grand succès, et qui s’appellera How to grow almost anything (comment faire pousser presque n’importe quoi). Il y expliquera comment créer des biolabs pour y enseigner la biotech…

Rémi Sussan

Je n’ai abordé ici qu’un des aspects de la longue conférence de Gershenfeld. Si vous avez le temps et si l’anglais ne vous rebute pas, n’hésitez pas à regarder (ou plus simplement à lire) l’intervention intégrale.

À lire aussi sur internetactu.net

0 commentaires

  1. Monsieur Rémi Sussan,
    Vous pardonnerez d’être vieillot au point de citer Aristote.
    « … révolution entamée par Claude Shannon, à l’origine de la théorie de l’information. Celui-ci est le premier à avoir découvert qu’une communication de type numérique (autrement dit codée sous la forme de symboles) permettait une meilleure correction d’erreurs et donc la transmission plus sûre du message qu’une communication analogique passant par des ondes. »
    Dans le livre VI de ses Topiques, chap. X, Aristote énonce ce qu’il a été convenu d’appeler la règle de l’univocité: un mot, un sens. Cette règle est une condition préalable à la production d’une proposition bivalente, c’est-à-dire soit vraie, soit fausse. (on admet avec Bourbaki (Éléments d’histoire des mathématique) qu’Aristote code déjà en symboles, en appliquant au discours le modèle des langages mathématiques, et part d’ailleurs du principe que c’est toujours possible (tiers-exclu). Le codage de la bivalence à proprement parler par le binaire attendra Leibniz –dont la logique, inspirée par les chinois, n’est « redécouverte » qu’au début du xxe par Couturat.)
    Il y a clairement chez Aristote une théorie de la « sûreté » de la communication: il est possible de communiquer la vérité vraie *sans perte d’information* et *sans erreur* à condition de sélectionner un seul sens pour chaque forme (Saussure dit signifiant), autrement dit de coder le message en symboles mathématiques. Donc : « meilleure correction d’erreurs et donc la transmission plus sûre du message ».
    C’est à travers cette sélection par le codage en symboles, qui fait la vérité « vraie » dépendre de la « correction » linguistique (correction sintactico-sémantique), que l’on peut établir que la vérité a bien été reçue par l’interlocuteur, à travers la démonstration (en langage explicite). Vérité apprise démontrée par le disciple? Donc message reçu, chez Platon. Sinon, message non reçu. Le résultat de la transaction communicationnelle devient vérifiable.
    Mais l’idée d’une communication absolument sans perte est empreinte d’absolutisme religieux. Elle met la vérité philosophique au-dessus de la « corruption » humaine, à pied d’égalité avec la reproduction de l’âme, inaltérable, qui s’opère par la ré-incarnation selon la théorie de la réminiscence de Platon.
    C’est, il me semble, la première partie de la théorie du signal.
    Une fois que la réalité physique ne se plie pas au déterminisme absolu du mécanicisme, elle devient incertaine. Donc il y a risque de perte dans la communication du vrai, ce qui menace l’intégrité de la vérité (on appelle ça sécurité — voire la sûreté rsss — des données). Elle demeurerait à ce titre
    irréductiblement analogique selon les propos de Gershenfeld.
    Mais la logique classique, qui n’admet que la bivalence, représentation par vrai ou faux, ne permet pas de codage des valeurs intermédiaires, a fortiori de les quantifier (l’essence aristotélicienne n’étant pas une variable mais une qualité, soit qui est, soit qui n’est pas, la question même de la quantifier ne se pose pas ou seulement après).
    L’avènement de la statistique, concomitant à celui de l’héliocentrisme (fin de la séparation aristotélicienne absolue du cosmos en céleste, pur, et terrestre, corrompu, et son unification par une même mesure donc quantification), fournit les ingrédients à une conception de la vérité comme probabilité.
    Une fois que la réalité physique n’est plus absolument automatique et (pré-)déterminée selon des paramètres invariants, comme le laissait penser le mécanicisme triomphant, le signe de la vérité cesse d’être une unité de langage naturelle et divine compréhensible en elle-même. Le signe est conçu comme une forme possible entre autres, situé dans la tradition donc dans l’histoire, et nous voilà revenus aux synonymes du livre VI, chap. X des Topiques d’Aristotes, à une étape antérieure à la symbolisation, pré-formelle, analogique. Mais pas complètement, ces possibilités ne sont pas totalement chaotiques, elles peuvent théoriquement être ramenés à des régularités de forme, et, dans la théorie mathématique de la communication, nécessairement à une représentation binaire. « Le mot a perdu son être ; il est l’instant d’un système sémantique particulier » écrit Bachelard dans la « Philosophie du non », c’est-à-dire que la parole perd son rang de qualité indissociable de la raison pure. Par là le codage du vrai cesse d’être exempt de toute erreur, et outre le vrai ou faux de la vérité, il peut y avoir des erreurs d’interprétation quantifiables, parce qu’elles portent sur la forme du message (morfo-syntaxe).
    Tout ça sans avoir l’air de toucher à l’essence, donc à l’existence une vérité éternelle, utile pour justifier et légitimer un ordre social technologique, fondé sur le signal, et sur une théorie qui finit toujours sur le happy end de l’univocité.
    De façon brutale, transposée dans la communication de la vérité en général, la théorie mathématique se résume ainsi : est vrai ce qui est dicible en langue correcte grammaticalement (langue politique officielle) et selon les règles sémantiques purement formelles de la Logique (langue cognitive officielle), à l’exclusion donc de toutes les autres formes possibles d’expression (=langues barbares en Grèce Antique), et dans un espace officiel (à l’exclusion donc de tous les acteurs non citoyens possibles=femmes, esclaves, barbares en Grèce Antique). On continue depuis à « filtrer » les « impuretés » de la « communication », de façon à transmettre des messages plus « corrects » de façon plus « sûre », reproduits toujours plus à l’identique, réduisant ainsi l’entropie sociale, tout en faisant mine d’être purement rationnel, quoi.
    Bien sûr j’exagère, on n’invalide pas une théorie physique au motif que, transposée au monde social, elle donne des aberrations. Mais alors il faut bien savoir quand on la transpose dans le social, et avec quelles conséquences.
    Au fait : « le code est intrinsèque au matériau”. Après le réalisme platonicien, le réalisme aristotélicien. Et ce n’est pas une blague. La réalité extrinsèque peut bien succéder à l’intrinsèque, tant que ça se fait en toute absoluité, la sûreté de l’ordre social peut être garantie, et la théorie de la communication univoque est là pour corriger – rectifier l’entendement de – ceux qui n’auraient pas encore compris qu’ils sont l’entropie. Mais on ne sait jamais, on s’expose toujours au risque des questions stupides, alors on espionne en masse et on fait tout pour y répondre à l’avance.
    Comme on lisait dans un dessin de feu Cabu, où on l’on voyait un type ligoté à un poteau entouré de barbouzes en train de le torturer, et qui disait « très bonne question, je vous remercie de me l’avoir posée ». Mais c’est une autre histoire. Pourtant si proche.
    http://remacle.org/bloodwolf/philosophes/Aristote/topiques610.htm