Et si, loin de vivre une explosion d’innovations, nous nous trouvions plutôt dans une phase de blocage ? Car s’il est vrai que nous assistons aujourd’hui à une multiplication des usages, ainsi qu’à un raffinement et une simplification de technologies déjà existantes (smartphones, web 2, etc.) les véritables innovations de rupture tardent finalement à se manifester.
Nous avons déjà abordé le sujet à propos de Neal Stephenson. Pour lui, nous nous trouvons face à un déficit de l’imagination, dont les auteurs de science-fiction sont en partie responsables. Richard Jones, lui, envisage la question sous un angle plus économique et politique.
La technologie futuriste, Richard Jones, il connait. Entre 2007 et 2009, il fut « senior strategic advisor » au conseil de la recherche britannique. Il ne fait pas partie du clan des utopistes de la nanotechnologie et se montre plus que sceptique quant à la vision « radicale » évangélisée par Eric Drexler et ses disciples, qui voyaient dans la nanotechnologie la possibilité de fabriquer des « assembleurs universels » capables de fabriquer tout et n’importe quoi à partir de rien. Cela ne signifie pas pour autant qu’il figure parmi les sceptiques indécrottables refusant toute innovation d’importance dans ce domaine. Au contraire, dans son livre Soft Machines il défend l’idée selon laquelle une « bionanotechnologie », basée sur l’eau et le carbone, pourrait avoir des conséquences tout aussi révolutionnaires que les rêves d’assembleur universel défendus par Drexler.
Bref, Jones possède à la fois l’esprit critique et audacieux qui lui donne la compétence de discuter du sujet.
Le « modèle Wired », une fausse vision de l’évolution technologique ?
Dans un post sur son blog, Jones analyse ainsi la vision actuelle de la technologie, telle que la défend notamment Kevin Kelly dans son essai What Technology Wants, qu’il nomme d’ailleurs une vision Wired du monde, en référence bien sûr au magazine dont Kevin Kelly fut longtemps le rédacteur en chef. Cette vision se caractérise selon lui par une conception essentiellement darwinienne de l’évolution technologique : celle-ci se développe spontanément, selon ses propres règles, de manière incontrôlée (Out of Control est d’ailleurs le titre du premier ouvrage de Kevin Kelly). Jones y voit une application des théories de Friedrich Hayek, l’un des principaux penseurs de ce qu’on a appelé « l’école autrichienne », aux origines du néolibéralisme. Pour Hayek, la connaissance (qui, rappelle Jones, ne se limite pas à la connaissance scientifique, mais englobe tous les savoirs tacites et implicites) est distribuée chez tous les membres d’une population, et il est par conséquent impossible de recourir à des experts pour développer un contrôle de la société puisque, par définition, ils ne peuvent à eux seuls représenter cette connaissance distribuée. Conséquence, pour Hayek, seul le marché s’avère capable de gérer au mieux cette information répartie. C’est tout simplement une formulation moderne de la « main invisible » d’Adam Smith. Pour Jones, le monde selon Wired applique les thèses de Hayek à la technologie. Ainsi, « nous sommes conduits à penser que le développement technologique est plus efficace si nous permettons simplement à beaucoup d’entrepreneurs créatifs d’essayer les différentes façons de combiner des technologies distinctes et d’en développer de nouvelles sur la base de la connaissance scientifique existante (…). Quand les innovations résultantes sont présentées au marché, celles qui survivent sont, par définition, celles qui répondent le mieux aux besoins humains. »
Jones oppose deux objections à ce raisonnement. Le premier, bien connu, est d’ordre moral : les plus riches ont le plus de poids dans cette décision répartie. Son autre critique tient au fait que, selon lui, cette vision « darwinienne » est tout simplement historiquement fausse.
Dans le reste de son post, Jones donne plusieurs exemples où l’innovation radicale est avant tout le produit de décisions venant d’un Etat fort. Et même, il faut le reconnaître, d’un complexe militaro-industriel. Ainsi, en Allemagne au début du XXe siècle, le procédé Haber-Bosch pour fixer l’azote fut adopté par la compagnie chimique BASF. « Il est difficile, explique Jones, de trouver une innovation ayant autant changé le monde. La moitié de la population actuelle n’existerait pas s’il n’avait pas eu le développement considérable de la productivité agricole entraînée par l’usage d’engrais artificiels ». Dans l’élaboration de cette technique, l’Etat allemand s’est montré très actif : la mise au point du procédé a coûté 100 millions de dollars de l’époque (ce qui correspondrait à un milliard aujourd’hui), la moitié fournie par le gouvernement. Les raisons de l’investissement ce dernier n’avaient rien de philanthropique. Il s’agissait d’utiliser cette découverte pour mettre au point des explosifs ! Et, bien entendu, il y a les ordinateurs, l’internet, les semi-conducteurs… Rappelons aussi qu’aux Etats-Unis, une bonne partie des recherches en neurosciences est soutenue par la fameuse DARPA…
Vers une panne de l’innovation « de rupture »
Pour Jones, le modèle hayekien de la technologie est parfait pour l’optimisation locale, lorsqu’il s’agit d’améliorer et combiner des technologies déjà présentes. Mais pas question d’imaginer des recherches exigeant plusieurs années, surtout, lorsque, rappelle-t-il, les entreprises rejettent de plus en plus les investissements à long terme.
Pour exemple, il compare la création de nouvelles apps pour smartphone à celle d’un nouveau modèle d’avion civil. Dans le premier cas, explique-t-il, « des dizaines ou des centaines de milliers de personnes peuvent essayer des tas d’idées, certaines d’entre elles se révélant capables de satisfaire un besoin apprécié par la masse, et rendre leurs créateurs plus riches. (…) Créer un nouvel avion implique par contraste des années de développement et des milliards de dollars avant même de vendre le produit ». De fait, cette branche d’activité est sous la houlette de deux compagnies (Boeing et Airbus) bénéficiant toutes les deux d’une aide substantielle de l’Etat.
Évidemment, on pourrait donner les contre-exemples, comme ces nouvelles sociétés de type SpaceX, Virgin Galactic ou Planetary Resources, qui cherchent à promouvoir une conquête privée de l’espace et même certaines idées radicales, comme l’exploitation de minéraux dans les astéroïdes. L’avenir seul dira si ces firmes possèdent un avenir véritable ou si elles restent la « danseuse » de milliardaires un peu utopistes comme Richard Branson. A voir si ces projets tiendront encore la route lors de la prochaine grosse crise financière ou économique.
Pour Jones, l’adoption généralisée d’une conception « hayekienne » du progrès technologique pourrait donc amener à une stagnation de l’innovation Cela pourrait signifier que « nous serons moins adaptés aux chocs brutaux, moins capables d’anticiper le futur », à une époque où les crises démographiques, énergétiques et climatiques appelleraient au contraire plus d’innovation « radicale »…
Certes, ce constat pose plus de questions qu’il n’en résout. Jones le remarque lui-même, personne ne voudrait un retour à un gouvernement fort, aux motivations dirigées vers la guerre ou l’armée. D’un autre côté, le « pur libéralisme » a montré ses limites au plan économique. Jason Pontin, le rédacteur en chef de la Technology Review dressait le même constat récemment et terminait dans la même ambiguïté.
Les « modèles alternatifs », open source, constituent-ils une alternative à la fois au libertarianisme entrepreneurial effréné et au dirigisme gouvernemental ? Si l’explosion de la fabrication personnelle, de la diybio et du logiciel libre est encourageante (et n’est pas forcée de tenir compte de la « bottom line » comme le ferait une entreprise, permettant une réflexion à plus long terme), force est de reconnaître que, par bien des côtés, elles continuent à suivre ce modèle Wired d’une technologie qui se développerait de façon distributive et incontrôlée. Elles tirent profit de la recherche fondamentale, mais y contribuent peu. Ces nouveaux modèles pourront-ils se développer au point de recevoir des aides économiques susceptibles de favoriser un jour une innovation radicale ?
Rémi Sussan
0 commentaires
Sans aller chercher les lumières d’auteurs américains et laisser croire que tout a été pensé sur le sujet, une réponse simple à la question que tu poses peut être trouvée dans la théorie des jeux en même temps que dans le simple bon sens, à savoir :
« quand les joueurs ont l’impression confuse de jouer à un jeu dans lequel ils perdent à tous les coups, ils cessent de jouer ! »
La question reformulée est dès lors : « quel est ce jeu dans lequel tout le monde perd à tous les coups, sauf peut-être un nombre très limité d’acteurs ? »
Dans le domaine des « réseaux » et plus spécifiquement de l’internet qui impose son paradigme dans la plupart des secteurs de l’innovation, la notion de « symétrie » des protocoles peut apporter quelque lumière pour penser la « machine à perdre » en question.
En effet, l’internet tel que nous le connaissons jusqu’à présent met essentiellement en œuvre des protocoles asymétriques dits « unicast », qui font qu’il est nécessaire, dès lors que l’on veut réaliser une interaction « tous-tous », de mettre en place un nœud d’interconnexion particulier qui se charge de « l’aiguillage ». Selon le principe de la « loi de puissance », c’est évidemment le plus « gros nœud » qui l’emporte car il permet de mettre en relation le plus de monde possible. Donc, dans ce jeu basé sur un protocole asymétrique, « the winner takes all » à tous les coups (Google, Facebook, Twitter, etc. chacun dans leur genre) au point qu’au bout d’un moment, plus personne n’a envie de jouer.
Il faut noter qu’il existe aussi des protocoles symétriques sur l’internet (Multicast, overlay, etc.), qui permettraient de mettre en relation tous avec tous sans l’intermédiaire d’aucun centre particulier si ce n’est l’internet lui-même dans sa globalité. Malheureusement, ces protocoles réseau ne sont pas (ou peu) rendus accessibles au public par les FAI, opérateurs et autres CDN (Content Delivery Networks) qui les gardent pour eux jusqu’à présent. Ainsi, ils se condamnent (et nous condamnent aussi) à jouer à un jeu où ils perdent à tous les coups (et nous aussi). Comme le dénote la récente escarmouche entre Free et Google, la profitabilité (des transporteurs de paquets) est en effet bien inférieure à celles des « nœuds » (Goggle, etc.) que leur politique rend absolument nécessaire. Et nous, en tant que simples utilisateurs, nous perdons aussi car nos données personnelles sont aspirées dans des puits sans fond sur lesquels nous n’avons aucun pouvoir…
Bref, pour sortir de cette spirale dépressive ou s’assèche toute innovation, il faudrait un jour que les usagers aussi bien que les opérateurs et autres, prennent conscience qu’un autre internet est possible : un internet symétrique !
Dès lors, l’internet pourrait être un peu plus « neutre » qu’il n’est à présent puisqu’il ne favoriserait plus automatiquement les positions dominantes et l’avenir cesserait de sembler écrit à l’avance.
C’est le thème d’une table ronde qui pourrait avoir lieu sous peu à la Cantine suite à ce billet d’humeur :
http://perspective-numerique.net/wakka.php?wiki=SymetrieEtNeutralite
Tout à fait d’accord avec toi, Olivier, l’internet peut certainement être amélioré dans un sens plus « symétrique ». Mais même ce nouvel internet pourra-t-il, à lui seul, contribuer de manière significative aux problèmes de réchauffement global, d’inégalités des richesses, de crise énergétique, etc. auxquels nous faisons face ? Il y contribuerait certainement, mais dans quelle proportion ? N’est il pas temps de commencer à prendre les questions autrement et sortir de la problématique du numérique et d’Internet pour repenser les innovations technologiques dans des domaines plus « matériels »? Et comment le faire sans être à la merci de complexes militaro-industriels ou de très grosses corporations?
Je n’ai certainement pas les réponses à ces questions. Mais j’observe que les problèmes matériels que tu évoques sont indissociables de l’internet et de la crise morale dont il semble être le vecteur.
Partout l’on voit se répandre un sentiment d’impuissance ponctué de simulacres de puissance qui font l’un et l’autre le jeu du statu quo.
Cf. « Abondance de la critique paralysie de l’action »
http://www.article11.info/?Abondance-de-la-critique-paralysie#pagination_page
« Code is law » dit l’ami Lessig, alors il faut aller plus loin que de répéter cette assertion. Regardons dans la structure de ce « code » ce qui produit systémiquement l’inhibition de l’action… et l’on verra que le complexe militaro-industriel contrôle effectivement ce code dans une large mesure. C’est bien normal, puisque l’internet est une arme depuis son origine, à tout le moins une contre mesure !
Je ne suis absolument pas un tenant de la théorie du complot et je n’imagine donc pas que Google, ou qui que ce soit d’autre, manipule consciemment l’arme en question. Quand Vint Cerf affirme que « l’Internet est symétrique » pour justifier la prétendue « neutralité du net » à la mode Google, ICANN, etc., je crois qu’il pense sincèrement ce qu’il dit : l’internet est effectivement POTENTIELLEMENT symétrique, et il recèle en lui toutes les ressources pour qu’il le devienne effectivement. Charge aux acteurs de les mettre en œuvre. S’ils ne le font pas, qu’ils ne viennent pas se plaindre de la domination de Google !
De même, quand Ray Kurzweil (le petit nouveau chez Google) déclare qu’il va créer un « cynernetic friend » qui nous connaîtra mieux que nous-mêmes et nous secondera en toute occasion, il sait sans doute quelle arme de destruction massive cela sera pour des milliards de connexions neuronales que l’ami en question remplacera dans nos modestes cerveaux réduits à l’état de vulgaires Minitels. Mais comme il est probablement darwinien, il se dit peut-être que si les neurones en questions se laissent zigouiller sans résistance, c’est qu’ils n’avait aucun intérêt en regard de l’évolution.
Quelle stratégie fasse à la puissance de ces robots ?
(Google and Co sont des Robots).
Je ne pense pas qu’il faille les détruire. Je ne pense pas non plus qu’il soit possible d’en prendre possession collective car cela n’est pas inscrit dans leur ADN. Comme je l’ai écrit ailleurs ( http://perspective-numerique.net/wakka.php?wiki=TaxerLesRobots ), il faut en concevoir de nouveaux selon des « perspectives légitimes ».
.
Houla! ces robots ne semblent pas obéir aux lois de la robotique d’Asimov, à la loi zéro peut être. Mais que fait Dannel Olivaw ?
L’internet symétrique comme seconde fondation ?
On peut se demander quel modèle d’innovation de rupture est décrit là. L’ « innovation », en tant que process de l’ère industrielle (remplacer incessamment un produit par un autre, un service par un autre, une méthode par une autre) semble être largement perçue comme constitutive de la « nature humaine » et participant d’une évolution sociétale implicitement vue comme linéaire, incrémentale, et donc en quelque sorte pré-déterminée par un schéma directeur invisible. On peut aussi voir les choses autrement : l’ère industrielle finissant – comme la société qui l’a portée est elle aussi finissante – signe l’essoufflement d’une certaine relation au monde, celui d’une certaine époque et la fin d’une certaine façon de se penser et de se dire. AMHA la question n’est donc pas tant celle du numérique en général (en poser les bonnes questions et leur apporter les bonnes réponses) que celle du changement d’ère dans lequel nous sommes entrés. Les enjeux du numérique ne sont pas les « moteurs du changement » (ou alors seulement si on considère qu’on est encore dans l’ère industrielle, fut-elle la troisième : voir Rifkin) mais ce à travers quoi il trouve à s’exprimer. Ce qu’il faut interroger, ce n’est pas « comment le numérique change le monde » (et encore moins « sous quelle forme, quelle organisation et selon quels principes le fera-t-il le mieux »), mais plutôt « quels changements sociétaux sont en oeuvre derrière la visibilité qu’offre et leur offre l’outil numérique ». Si l’on prend le numérique comme « lieu de dicibilité » pour que les changements sociétaux en cours trouvent à se dirent, à s’échanger et à se montrer, alors les « enjeux numériques » (ce dont on débat) se réduisent à un simple canal à travers lequel, par un ensemble de pratiques quotidiennes, la société de demain trouve à s’énoncer. Les usages imposés par les technologies choisies par les grands acteurs du numérique ne signifient pas que ces usages soient intrinsèquement porteurs de sens en ce qu’ils sont. Si ils ont un sens, il est à aller chercher au-delà des possibilités offertes par les outils (chercher, poster, partager, publier, commenter). Ni Google ni Apple ni Facebook ne sont acteurs de ce changement, ils ne sont que le support à travers lequel ce changement, en étant implicitement non-reconnu en tant que tel, est réduit à une simple prolongation industrielle innovante. A terme cette stratégie est condamnée, et avec elle « l’innovation permanente » qui y trouve sa panne.
Sans vouloir couper le débat (très intéressant) commencé dans les commentaire précédents, l’article me pose des questions sur les grandes révolution technologiques et les phases d’innovations.
L’auteur me semble regretter que la prochaine grande innovation technologique « tarde » à venir, mais est-ce vraiment le cas ? Est-ce que ce n’est pas normal et même souhaitable d’avoir des temps de latence entre 2 innovations technologiques majeures et un déclin dans l’originalité et l’apport des grappes technologiques qui s’ensuivent ? Est-ce que cette perspective n’est pas biaisée par la vision linéaire du temps qui marque nos cultures occidentales ?
Je pense que l’innovation, les périodes de progrès sont nécessaire, mais les périodes de stagnation et de déclin le sont tout autant : une vision cyclique du temps ne permettrait-elle pas de reconsidérer les « avancées » technologiques et de relativiser leur prestige au sein de la partie « progressiste » de nos penseurs (et aux conservateur de relativiser et de comprendre le phénomène de dégradation linéaire qui sous-tend leurs réflexions) et de comprendre que les périodes de déclin par rapport à une situation passée sont nécessaire pour le redémarrage du cycle vers un nouveaux cycle de progression.
Enfin, je me demande pourquoi il serait enviable ou nécessaire de passer à une autre révolution technologique si rapidement ?
On peut également se poser la question sur la mise à disposition des dernières innovations. Tout se qui est créé aujourd’hui n’est proposé que le lendemain ou le surlendemain et chaque innovation nécessite un temps de maturation. Il faut également que les technologies de dernières génération arrivent à maturité et répondent à un réel besoin de masse.
La nécéssité commerciale n’est pas souvent en adéquation avec l’innovation technologique.
Je ne suis pas certain que l’innovation dans le secteur d’internet et de la mobilité cesse en 2013.