Vers un design de la vie synthétique

Dans le cadre de l’expédition Bodyware de la Fing, un groupe de travail sur l’impact du corps dans le numérique, une journée de réflexion et d’ateliers sur la biologie synthétique était organisée le 14 mars en collaboration avec le Centre de recherches interdisciplinaires (CRI). La matinée a vu se succéder une série de trois interventions, celles d’Aleksandra Nivina (linked-in), biologiste passée par le CRI et actuellement en PhD à l’Institut Pasteur, James King, bio-designer britannique (@jamesking), et Rémi Sussan, journaliste à InternetActu.net.

Une nouvelle forme de Design ?

Il n’y a pas une seule définition de la biologie synthétique. Aleksandra Nivina en a donc choisi plusieurs qu’elle a collées dans un générateur de nuage de mots, comme le montre sa présentation.

Au premier plan apparait biological, c’est normal ! Parts vient en second, là aussi, ce n’est pas étonnant : les parts sont ces fameuses biobricks partagées dans la communauté pour faire avancer tous les projets. Rappelons que les biobricks sont des objets formels qui représentent des séquences de code génétique dont la fonction est connue et prévisible. Il suffit en théorie d’assembler des biobricks pour créer un “programme” génétique produisant un résultat recherché. C’est cette logique de “lego” qui fait de la biologie synthétique une discipline proche de l’ingénierie. Le site du MIT en tient le registre à jour. Design et re-design, sont aussi des mots importants. Beaucoup de définitions insistent sur cette dimension particulière de la biologie synthétique, qui consiste à comprendre les mécanismes du vivant, pour le réparer, ou créer de nouvelles formes et combinaisons à partir des connaissances ainsi acquises.

On peut essayer de synthétiser toutes ces notions en disant que la biologie synthétique est une discipline qui conçoit, répare et fabrique des systèmes biologiques à partir de “composants”, soit naturels, soit modifiés.

Mais on peut aussi définir la biologie synthétique par ses applications. Certaines sont réelles, d’autres en développement, et d’autres encore imaginaires. Aujourd’hui, on sait produire du fuel à partir de bactéries – pour l’instant ce n’est pas rentable économiquement -, fabriquer des médicaments à partir de bactéries ou de levures, des outils pour détecter, soigner ou détruire les cellules cancéreuses… On élabore de nouveaux matériaux, par exemple du fil d’araignée synthétique (.pdf) (le naturel est d’une solidité remarquable). On expérimente des thérapies géniques. On teste la bio-remédiation, pour nettoyer différents types de pollution ou pour designer des bio-capteurs de polluants dans l’environnement ou de pathologies dans le corps. On explore la reprogrammation de la microflore bactérienne pour prévenir ou traiter certaines maladies, dans le futur. On sait également rendre les plantes plus résistantes.

Le mot design implique l’intention de répondre à des enjeux, à des objectifs de façon rationnelle. On parle par exemple de designer un circuit génétique, l’opération de base de la biologie synthétique. On sait aujourd’hui produire des circuits génétiques complexes, on commence même à construire des organismes artificiels, en leur injectant un ADN totalement synthétique, comme l’a fait Craig Venter. On veut designer des systèmes qui soient simples, robustes, efficaces et sûrs, comme ça se fait dans les autres domaines du design. A un certain point, qui sait si, à l’avenir, on pourrait considérer la biologie synthétique comme une nouvelle branche du design.

Nouvelles nourritures… et nouvelles digestions !

James King (@jamesking) est un jeune bio-designer britannique impliqué depuis plusieurs années dans l’exploration des bio-technologies. Il nous a présenté trois projets illustrant sa démarche, qui consiste à faire du Design un élément permanent de la pratique scientifique.

Dressing the meat of tomorrow est un projet de design spéculatif qui explore les conséquences de la maîtrise de la culture in vitro de la viande. En effet, si la culture des tissus vivants est un procédé de routine dans les laboratoires, que se passera-t-il lorsque ces techniques de génie tissulaire deviendront la base de la production de l’industrie alimentaire, en dépit du dégoût que cette perspective peut inspirer ? Si la viande “in vitro” devient plus rentable, et plus humaine que l’élevage industriel, quelle sorte de viande voudrons-nous manger ? Quelle forme aura-t-elle, dès lors que nous ne sommes plus limités par la taille et l’anatomie de l’animal ? Serons no ! us heureux de manger une telle viande ? James King imagine un chef de cuisine curieux, innovant, qui se démarque en créant de nouvelles formes esthétiques pour la viande. En créant de vrais objets, James King souhaite engager autrement, plus concrètement, le débat sur le sujet de la viande “in vitro”, pour finalement répondre à cette simple question : ai-je vraiment envie d’en manger ?

E-Chromi est un autre projet de bio-design de James King et Alexandra Daisy Ginsberg développé à l’université de Cambridge en 2009 avec la collaboration de jeunes designers et scientifiques. Les biologistes ont d’abord sélectionné différentes bactéries produisant des pigments colorés visibles à l’oeil nu, pour ensuite les associer à d’autres biobricks, comme des bio-senseurs, et finalement imaginer avec les designers différents usages futurs de ces briques biologiques. Tester la qualité d’une eau, colorer autrement la nourriture et même imaginer une application “médicale” sous la forme d’un yaourt embarquant les bio-marqueurs, et permettant d’établir une série de diagnostics médicaux à partir de la couleurs de nos selles. Ce projet a remporté la compétition IGEM en 2009.

Cellularity (vidéo) est une réflexion sur la notion de vie et de mort en biologie synthétique, à partir d’un projet consistant à produire une pseudo-cellule (nommée “chell”) contenant des composants médicamenteux. Dans des conditions spécifiques, la membrane de la “chell” devient poreuse, libérant de petites quantités de ce médicament dans l’organisme.

Par la suite, l’organisme va pouvoir récupérer ce médicament, puis l’activer en fonction de ses besoins. La “chell” va acquérir des capacités à se répliquer dans des cellules par mitose, puis se recombiner avec d’autres cellules “médicaments” situées dans l’organisme afin de créer de nouveaux médicaments. Certains seront fonctionnels, d’autres non. Ceux qui ne serviront à rien seront reconnus par l’organisme comme des cellules pathogènes et seront détruites par le système immunitaire. La finalité est de produire des molécules médicamenteuses juste en fonction des besoins de l’organisme.

Au-delà des applications technologiques potentielles, ces recherches pourraient conduire à une nouvelle compréhension de la façon dont la vie et les choses non vivantes diffèrent les unes des autres. Pour explorer ces impacts, James King a imaginé l’”échelle de Cellularity” – une définition spéculative de la vie qui pourrait s’appliquer dans un avenir où, au lieu de nous demander si quelque chose est mort ou vivant, on s’inquiéterait seulement de savoir quel est son niveau, son intensité de vie. En effet, il est de plus en plus difficile de diviser les phénomènes en “vivants” et non vivants. Quels sont les caractéristiques du vivant ? La reproduction, la réplication ? Alors dans ce cas les cristaux et certains robots peuvent-ils être considérés comme vivants ? La capacité de maintenir dynamiquement sa forme ? Mais dans ce cas un cyclone est-il vivant ? Et une forêt ? Et la terre entière (c’est la base de la fameuse hypothèse Gaïa). Un virus, qui utilise l’ADN d’autres organismes pour se reproduire, est il vivant ? Et un automate cellulaire ? Voilà de nombreuses raisons de cesser d’opposer vivant et non-vivant de manière simpliste.

Informatique et biologie : un mariage d’amour et de raison

Rémi Sussan n’est pas que journaliste pour InternetActu.net ou l’auteur d’un récent livre très stimulant sur le fonctionnement du cerveau : Frontières grises. Il est également membre de La Paillasse, le premier biohackerspace français – même si dans ce domaine, il se considère comme un complet amateur.

Quelle est la relation entre la biologie synthétique et les ordinateurs, s’est-il demandé ? On observe d’abord le même type de développement d’un point de vue technique : rapide, open source, hackable… tant et si bien que si la matière sur laquelle ils travaillent est différente, on pourrait tout à fait remplacer un bio-hacker par un digital hacker. Ces deux technologies sont “autocatalytiques”, c’est-à-dire qu’elles font progresser toutes les autres. Pour Stewart Brand, auteur de cette définition, il y a 3 technologies de ce type : les infotechs, les biotechs et les nanotechs, qui utilisent d’ailleurs bien souvent les mêmes processus algorithmiques, comme l’autoréplication, l’autoassemblage ou le calcul mulitiagents.

Le même type de développement économique préside aux deux technologies, l’informatique et la biotechnologie. Dans les années 50 les ordinateurs étaient très chers. Un cadre d’IBM pensait à l’époque qu’un petit nombre conviendrait pour l’ensemble des USA. On sait ce qu’il est advenu. La baisse des prix a produit les mêmes effets sur les biotechs : les prix ont chuté, comme le montre la courbe de Carlson, l’équivalent de la loi de Moore pour les biotechs. Le séquençage (lire l’ADN) coûte de moins en moins cher ; synthétiser (c’est-à-dire écrire l’ADN) connait toutefois une baisse moins rapide. Cette chute des prix permet aujourd’hui à n’importe qui de se livrer à des expérimentations en biologie et biotechnologie. L’OpenPCR, une machine pour amplifier l’ADN afin de le séquencer, disponible pour moins de 600 $, a été développée en ligne par une communauté d’adeptes de la “biotechnologie de garage”, diybio.org.

C’est d’ailleurs ce que font les membres de La Paillasse. La liste de leurs réalisations ne cesse de grandir. Un bioréacteur pour cultiver les micro-organismes, de l’encre bactérienne, un dispositif de barcoding très low-cost pour en savoir plus sur le contenu de votre assiette et détecter par exemple la présence d’OGM, ou celle de cheval à la place du boeuf dans les lasagnes…

Comme souvent, la question de laisser de telles technologies aux mains des amateurs se pose. N’est-ce pas dangereux ? En fait, les “biohackerspaces” qui existent de par le monde sont très sensible à l’éthique. La Paillasse applique la charte des biohackerspaces, réalisée collectivement, qui insiste entre autres, sur la transparence et la sécurité. Les plus cyniques diront qu’une charte n’a jamais empêché les manquements à l’éthique. Mais franchement, les futurs bio-terroristes n’ont pas besoin des hackerspaces pour produire des armes dangereuses. L’encadrement par la communauté est certainement une meilleure réponse que de laisser les gens faire par eux-mêmes…

Reste que le flirt entre biologie et informatique ne date pas d’aujourd’hui, rappelle Rémi Sussan. La vie artificielle avait-elle un autre objectif ? D’une certaine manière, elle est l’exact contraire de la biologie synthétique. Alors que cette dernière cherche à importer les principes de l’informatique dans le vivant, la vie artificielle cherche au contraire à intégrer les principes de la biologie dans les mondes numériques. L’objectif, comme le proclamait le créateur de la discipline, Chris Langton, étant de créer la vie “in silico” : non pas une simulation du vivant, mais une véritable nouvelle version de celui-ci, se développant au sein des ordinateurs et du réseau. La vie artificielle a connu son heure de gloire dans les années 90, notamment avec le jeu Creatures, qui mettait en scène des animaux virtuels disposant d’un ADN numérique, ainsi que d’un réseau neuronal. Ces “norns”, comme on les appelait, se reproduisaient entre eux, produisant par un effet de sélection naturelle une progéniture plus débrouillarde et plus intelligente, du moins on pouvait l’espérer ! Une légende dit que c’est en voyant ces créatures qu’une employée de Bandaï a eu l’idée des Tamagotchi…

Il existe une autre différence entre la vie artificielle et la biologie synthétique. La première essayait de créer de la complexité, et de nouvelles propriétés surprenantes et inattendues, émergentes, pour employer le terme consacré, alors que la biologie synthétique veut plus prosaïquement agir de manière prévisible et contrôlable sur les systèmes vivants. Comme le résume très bien Drew Endy : “Les ingénieurs abominent la complexité. Je déteste les propriétés émergentes. J’aime la simplicité. Je ne veux pas que l’avion que je vais prendre demain manifeste des propriétés émergentes pendant son vol.”

Peut-on faire une synthèse des ces deux technologies ? Certains s’y essayent en tout cas. Georges Church et ses collaborateurs ont créé une machine qui écrit des milliers de lignes d’ADN en parallèle, en essayant d’atteindre un niveau de complexité supérieur. Du coup, cet appareil utilise à la fois les techniques de la vie artificielle (algorithmes génétiques, production de milliers de combinaisons imprévues) tout en poursuivant les objectifs de la biologie synthétique, qui consiste à fournir des produits sûrs et fiables.

Un autre parallèle entre la “synbio” et l’informatique est la création de langages de haut niveau susceptibles de permettre à quelqu’un de travailler sur le vivant sans connaitre les détails des propriétés chimiques propres aux molécules qu’il manipule : vous n’avez pas besoin de savoir comment marche votre ordinateur pour publier un billet sur un blog. Un jour, espère-t-on, vous pourrez créer tout aussi facilement de nouvelles formes de vie sur votre ordinateur. Mais il reste du travail à faire : la plupart des logiciels de ce type sont morts, et ceux qui restent ne marchent pas toujours…

Et le rêve de la biologie synthétique quel est-il ? Des maisons qui poussent toute seules ? Un Jurassic Park 2.0 comme le propose le projet de “de-extinction” soutenu notamment par George Church, et qui vise à ressusciter les espèces disparues ? Ou la vision de Freeman Dyson d’une nouvelle ère post-darwinienne mise en mouvement par un Open source de tous les gènes ?

Les espoirs sont encore nombreux.

Thierry Marcou

À lire aussi sur internetactu.net