Philosophie de la programmation

Par le 23/04/12 | 2 commentaires | 2,585 lectures | Impression

turingscathedralLa lecture de la semaine, une fois n’est pas coutume, est une critique de livre, publiée dans le Guardian, sous la plume de Francis Spufford. Le livre critiqué est celui de George Dyson (Wikipédia, il est l’un des contributeurs principaux de la revue The Edge), Turing’s Cathedral (La cathédrale de Turing), qui raconte la construction de l’un des premiers ordinateurs, à Princeton, entre la fin des années 40 et le début des années 50. MANIAC, c’est le nom de cet ordinateur. Construction qui s’est faite sous la double égide de John Von Neuman et Alan Turing. Je ne vous livre que la fin de cette longue recension d’un livre qu’il y a fort peu de chance qu’on puisse lire un jour en français. Spufford termine son article en donnant trois raisons de lire ce livre.

“Première raison. Aucun autre livre sur les débuts de l’âge numérique ne donne vie avec autant de vigueur et de pertinence à l’immense difficulté d’ingénierie que représentait la création, pour la première fois dans l’histoire, d’une machine logique électronique, à l’immense difficulté d’ingénierie que représentait la création originale, et sans précédent, d’un modèle d’organisation qui est devenu ensuite absolument familier, qui a été gravé dans le silicium sur des surfaces toujours plus petites, dans des fonderies de puces. Le mot “fonderie” montre bien que cette logique est une marchandise, un matériau, l’acier de l’âge de l’information. Mais, poursuit Francis Spufford, ça n’a pas commencé comme ça. MANIAC a d’abord été une réalisation complexe, presque impossible, exigeant à la fois une haute intelligence conceptuelle et une grande habileté au bricolage. Du détail au niveau macro, l’ensemble était un assemblage de vannes, de circuits branchés à la main et de tubes à rayons cathodiques, un système alimenté par une énergie à voltages différents et protégé de risques allant du champ magnétique du tramway voisin à l’orage. Quand Dyson raconte que le MANIAC a été construit dans sa caisse “comme un cortex cérébral replié”, il veut vraiment dire “comme un cerveau”.”

maniac
Image : le MANIAC issu du Musée de l’histoire de l’ordinateur.

Deuxième raison pour lire La Cathédrale de Turing, selon Francis Spufford : aucun autre livre n’a montré aussi intelligemment et de manière aussi déconcertante les relations entre l’ère numérique et les recherches sur l’arme atomique. Pas simplement des relations financières qu’on peut trouver moralement condamnables, mais parce que les recherches sur l’arme atomique ont eu une influence fondamentale en termes développement, ce sont elles qui ont donné au numérique les outils intellectuels qui ont permis de déployer la puissance intellectuelle de l’ordinateur. La méthode “Monte Carlo” (imaginée par Von Neumann et Stanislas Ulam) a été créée pour tester la probabilité d’une réaction thermonucléaire critique dans une bombe hydrogène. Si on n’avait pas dû imaginer et fabriquer des modèles de branchements permettant de disperser, scinder, absorber ou faire s’échapper des neutrons, il se pourrait bien qu’il n’y ait jamais eu d’algorithmes pour simuler les probabilités dans des modèles concernant l’évolution, la finance ou le climat. Réciproquement, s’il n’y avait pas eu d’algorithme “Monte Carlo” tournant à la vitesse électronique sur MANIAC, il n’y aurait pas eu la bombe H américaine en 1952, qui a évaporé l’Atoll Enewetak dans un nuage rouge qui a ébouillanté la moitié du ciel.

Troisième raison : aucun autre livre – c’est là où il devient visionnaire – n’établit comme il le fait le lien entre les leçons que l’on peut tirer des origines de l’ordinateur et celles qui permettent d’envisager son avenir. Dyson s’inspire de l’aptitude qu’ont eue Turing et Van Neuman à voir les limites de l’architecture numérique qu’ils étaient eux-mêmes en train de proposer et dans laquelle ils mettaient toute leur énergie. A la fin des années 40, ils pensaient déjà à la rigidité essentielle et, d’un certain point de vue, à l’inefficacité logique de machines qui, à la différence de processeurs d’information vivants, ne peuvent faire qu’une seule chose à la fois, laissant tout le reste de la structure désœuvrée. Comme l’écrit Dyson : “Il y a une toute petite couche d’instruction, les 99,9% qui restent sont vides et sombres”. Pourtant l’”architecture Von Neumann”, – consistant à faire passer des unités de mémoires par un processeur, chaque unité possédant sa propre adresse -, cette méthode n’est pas la seule possible, et pas la seule envisagée par Von Neuman. Dyson croit que la naissance d’autres architectures venant se superposer au substrat numérique que nous connaissons est aujourd’hui imminente. Certaines de ses suggestions sont, disons-le, en avance sur les faits. Comme l’idée que Google représente la première ébauche de ce que Turing a appelé la “machine oracle“, en suppléant ses propres états déterminés par l’injection de questions humaines non déterminées. Mais les idées de Turing et de Van Neumann étaient un peu en avance, c’est le moins qu’on puisse dire.”

C’est là selon Spufford, une des vertus de ce livre, que d’inspirer les codeurs pour inventer l’ordinateur de l’avenir.

Xavier de la Porte

Xavier de la Porte, producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.

L’émission du 21 avril 2012 était consacrée au web comme bibliothèque en compagnie de Jean-Michel Salaün chercheur en sciences de l’information au Collegium de Lyon et professeur à l’université de Montréal. Il est l’auteur de Vu, lu, su : les architectes de l’information face à l’oligopole du Web, paru aux éditions La Découverte.

Rétroliens

  1. future of the web | Pearltrees

1 commentaire

  1. Passionnant. Merci.