N° 4354 - Rapport de Mme Geneviève Fioraso, établi au nom de cet office, sur les enjeux de la biologie de synthèse



DÉputés

SÉnateurs

M. Christian BATAILLE

M. Claude BIRRAUX

M. Jean-Pierre BRARD

M. Alain CLAEYS

M. Jean-Pierre DOOR

Mme Geneviève FIORASO

M. Claude GATIGNOL

M. Alain GEST

M. François GOULARD

M. Christian KERT

M. Pierre LASBORDES

M. Jean-Yves LE DÉAUT

M. Michel LEJEUNE

M. Claude LETEURTRE

Mme Bérengère POLETTI

M. Jean-Louis TOURAINE

M. Philippe TOURTELIER

M. Jean-Sébastien VIALATTE

M. Gilbert BARBIER

Mme Delphine BATAILLE

M. Michel BERSON

Mme Corinne BOUCHOUX

M. Marcel-Pierre CLÉACH

M. Roland COURTEAU

Mme Michèle DEMISSINE

M. Marcel DENEUX

Mme Chantal JOUANNO

Mme Fabienne KELLER

Mme Virginie KLES

M. Jean-Pierre LELEUX

M. Jean-Claude LENOIR

M. Gérard MIQUEL

M. Christian NAMY

M. Jean-Marc PASTOR

Mme Catherine PROCACCIA

M. Bruno SIDO

   

SOMMAIRE

___

Pages

SAISINE 7

INTRODUCTION 9

PREMIERE PARTIE : Un CHAMP SCIENTIFIQUE AUX CONTOURS encore flous 15

I.– UN DOMAINE ÉMERGENT 15

a) Les réponses affirmatives 21

b) Les réponses négatives 23

a) L’application des principes et des méthodes de l’ingénierie à la biologie 26

b) La mise en œuvre de technologies variées 29

1° La modélisation informatique : de la paillasse à l’ordinateur 30

2° Le séquençage de l’ADN 32

3° La synthèse artificielle de l’ADN 32

4° La microfluidique 33

5° Le remodelage 33

iI.– La nouveauté relative de la biologie de synthèse 35

a) Les approches binaires : top down, bottom up, construction, déconstruction 35

b) Les présentations analytiques 38

1° L’analyse de François Képès 38

2° L’analyse de Thomas Heams 39

3° L’analyse de Markus Schmidt 39

4° Les approches d’ETC 41

c) La portée de ces analyses 41

1° Les recherches concernant le génome minimal 41

2° La démarche bottom up 45

3° Les travaux concernant les proto-cellules 45

4° Les recherches touchant au code génétique 45

a) Des applications touchant à de nombreux domaines 46

1° La santé 46

ØLa fabrication de médicaments 46

ØLa fabrication de vaccins 48

ØL’approche de certaines pathologies 49

2° L’énergie 51

ØLa biomasse 51

ØLes fibres de cellulose 52

ØLa photosynthèse à partir d’algues 53

ØL’hydrogène 54

3° La chimie 55

4° L’environnement 56

5° L’agriculture 57

6° Autres applications 57

b) Les questions relatives à la faisabilité 58

1° La pertinence d’un calendrier des retombées applicatives 58

2° Les promesses considérables de la biologie de synthèse ont-elles été surestimées ? 59

a) L’influence des progrès technologiques intervenus dans la biologie moléculaire 65

1° La synthèse chimique de l’ADN 65

2° L’ADN recombinant 66

3° La PCR 66

4° Les outils employés par les « omiques ». 68

b) L’accroissement considérable des connaissances 68

a) Une évaluation contrastée de cette complexité 74

1° Les différends entre les ingénieurs et les biologistes 74

2° Les désaccords entre les biologistes 76

b) Un défi réel qui n’empêche pas les progrès de la recherche 77

1° Un défi réel 77

ØLa complexité du système cellulaire 77

ØLa complexité par le bruit 79

2° Le développement de la biologie de synthèse compatible avec la complexité du vivant 80

DEUXIÈME PARTIE : L’impact de la biologie de synthèse sur les régulations et les enjeux sociétaux 81

I.– L’appréciation et la gestion des risques 81

a) La diversité des interprétations des risques en matière de biosécurité 82

1° La question de l’adéquation de l’appréciation des risques liés aux OGM 82

2° Les diverses analyses de la notion d’incertitude 84

ØL’analyse de Markus Schmidt 84

ØL’approche bénéfices-risques de la Commission présidentielle américaine de bioéthique 87

ØL’avis des scientifiques entendus par la Commission présidentielle américaine de bioéthique 89

b) L’évaluation des risques en matière de bio-sûreté : entre surévaluation et évaluation circonspecte 93

1° Le risque d’un détournement de la biologie de synthèse à des fins malveillantes 93

2° Les risques de la biologie de garage 97

a) Les positions d’ETC 101

1° La biologie de synthèse, source de risques nouveaux 101

2° La nécessité d’instaurer une évaluation approfondie des risques 102

b) Le rapport du BIOS Centre de la London School of Economics 104

a) Les différentes approches des commissions d’éthique 106

1° Le principe de « vigilance prudente » choisi par la Commission présidentielle américaine de bioéthique 106

2° La référence au principe de précaution en Europe 108

b) Le rapprochement des positions 109

a) Les positions des États 109

1° Les États-Unis 109

2° La France 112

3° L’Allemagne 113

b) La position de l’Union européenne 114

a) L’instauration d’un moratoire 115

b) L’autorégulation par la communauté scientifique ou par les industriels 117

iI.– lES ENJEUX DE LA propriété intellectuelle 120

a) Les spécificités de la biologie de synthèse justifient-elles un régime spécial de propriété intellectuelle ? 120

1° Les positions en droit américain 120

2° Les positions en Europe 122

b) Le choix du maintien du cadre juridique actuel 126

1° L’élargissement et le renforcement du champ d’application des brevets par les ADPIC (Accords sur les aspects des droits de propriété intellectuelle et commerciale) 126

2° Le brevet : un moyen de protéger et de promouvoir l’invention 128

a) L’élargissement des critères de brevetabilité 129

1° Des critères flous 129

2° L’extension de ces critères 130

b) Les dérives de la brevetabilité 131

1° Des décisions ayant favorisé l’extension du domaine de protection. 131

ØAux États-Unis 131

ØEn Europe 132

2° Une pratique agressive du dépôt des brevets 133

a) L’open access biology 136

b) Le copyleft 140

a) La promotion de l’idée de communauté de savoir et de l’innovation 141

1° Une idée que favoriseraient les méthodes de la biologie de synthèse 141

2° L’adhésion de certaines entreprises de biotechnologie aux principes de l’open access biology 144

b) Des formules compatibles avec les principes de la propriété intellectuelle 144

 Les possibilités de combiner les solutions 144

2° Des interrogations sur les rôles respectifs de l’open access biology et du brevet 145

c) Les questions éthiques liées à la spécificité du vivant 147

III.– La Recherche et La formation 149

a) La mise en place de synergies entre l’industrie et la recherche 149

1° La prépondérance incontestable des États-Unis 149

2° Le reste du monde : Europe, Chine 152

ØL’Allemagne 152

ØLe Royaume-Uni 154

ØLa France 155

ØLa Suisse 156

ØLa Chine 156

b) L’application du principe d’interdisciplinarité dans les systèmes de recherche et de formation 157

1° Aux États-Unis 157

2° En Europe 158

ØEn matière de recherche 158

ØEn matière de formation 159

3° Le cas du Japon  160

a) Le concours iGEM a contribué à la diffusion de la notion de biologie de synthèse 161

b) Une méthodologie de la biologie de synthèse diffusée et partagée dans le monde grâce à iGEM 163

a) La désaffection pour la science 165

1° Aux États-Unis 165

2° En Allemagne 166

3° Au Royaume-Uni 166

4° En France 167

b) Des dysfonctionnements affectant le système de recherche et de formation 167

a) Des financements insuffisants 170

1° Au niveau des pays membres 170

2° Au niveau communautaire 170

3° Au Japon 171

b) Un contexte global de baisse des financements 171

IV.– les recherches scientifiques-frontieres et leur partage avec le public. le cas de la biologie de synthèse. 173

a) Le Royaume-Uni 176

b) Les États-Unis 180

1° La science, une ressource partagée pour le Président Obama 180

2° Les chercheurs comme médiateurs de la science 181

c) La France 182

d) L’Europe 182

a) La tenue d’un dialogue avec le public serait prématurée 184

b) Le caractère émergent comme opportunité pour le dialogue 185

1° L’exemple du Royaume-Uni 185

2° L’exemple de l’Allemagne 185

CONCLUSION 187

Préambule aux recommandations 191

RECOMMANDATIONS 193

EXAMEN DU RAPPORT 197

COMPOSITION DU COMITÉ de pilotage 209

Liste des personnalités rencontrées 211

SAISINE

INTRODUCTION

MESDAMES, MESSIEURS,

L’histoire de la biologie de synthèse (BS) commence en France au début du vingtième siècle. Un médecin, Stéphane Leduc, publie un ouvrage intitulé « La biologie synthétique », où il affirme que pour tester la validité des connaissances en biologie, la fabrication ou synthèse doit succéder à l’analyse : « La biologie est une science comme les autres (…). Elle doit être successivement descriptive, analytique et synthétique. » (Leduc, 1912) Mais cette idée visionnaire n’émerge pas.

En 1965, Robert Burns Woodward reçoit un prix Nobel pour ses travaux sur la synthèse de molécules organiques complexes (quinine, cholestérol, cortisone, strychnine, chlorophylle, céphalosporine, colchicine…). En 1970, le biologiste indien Har Gobind Khorana synthétise un gène codant pour un ARN de transfert. C’est le début de l’ingénierie génétique. En 1972, Paul Berg construit une molécule d’ADN hybride (recombinée). En 1973, Woodward et Eschenmoser synthétisent la vitamine B12. En 1978, le généticien polonais Waclav Szybalski déclare : « Le travail sur les nucléases de synthèse nous permet non seulement de construire aisément les molécules d’ADN recombinant et d’analyser les gènes individuels, mais nous a aussi menés à une nouvelle ère de la biologie de synthèse, où non seulement les gènes existants sont décrits et analysés, mais où aussi de nouvelles configurations génétiques peuvent être construites et évaluées. » En 1984, le laboratoire de Steven Benner synthétise un gène codant pour une protéine. Le premier congrès mondial de biologie synthétique se tient à Boston, au MIT, en 2004.

Malgré un développement rapide depuis 2004, la BS reste encore aujourd’hui « confidentielle » sur le plan national ou international, même au sein de la communauté académique et a fortiori pour le grand public. Sans parler du nombre de publications dans les journaux scientifiques, toujours difficile à estimer, le nombre de chercheurs travaillant directement et explicitement dans ce domaine est encore faible, ne dépassant pas, au mieux, le millier dans le monde entier. Cependant, sous le vocable de biotechnologie, biologie systémique ou génomique, de nombreuses recherches s’apparentent de fait à la BS, mais sans la nommer.

Quant au public, un sondage effectué par le centre Woodrow Wilson de Washington aux États-Unis en 2009 donne la mesure du degré de connaissance du sujet puisque 80 % de la population déclare n’avoir aucune idée de ce que recouvre la BS. Cependant la presse internationale et nationale, au cours de ces derniers mois, s’est fait l’écho d’interrogations suscitées par certains travaux liés à cette recherche :

- les affirmations du scientifique américain Craig Venter qui prétend, en 2010, avoir créé ex nihilo « la vie » avec une « cellule synthétique » réplicable, une performance scientifique et technologique remarquable et unanimement saluée, même si l’affirmation est inexacte car seule l’information génétique complète a été synthétisée et placée au sein d’une cellule vivante. Le cytoplasme de la cellule n’est donc pas d’origine synthétique1, mais les annonces excessives, relayées par la presse, entretiennent les fantasmes liés à « l’homme qui joue à Dieu »,

- la reconstitution, en laboratoire, des virus de la grippe espagnole, puis du virus H5N1, relance la notion de risque de pandémies graves par des groupes de bioterroristes ou simplement de dissémination accidentelle de ces virus depuis les laboratoires,

- les risques évoqués d’apparition de nouvelles tumeurs liés à l’utilisation de la génomique pour traiter certains types de cancers, avec efficacité, mais avec des effets secondaires non anticipés et difficilement maîtrisables.

Même si le terme de BS n’est pas toujours directement associé aux craintes, souvent légitimes, suscitées par les quelques éléments précités et relayés, voire amplifiés, par les médias, on comprend bien l’utilité, dans un tel contexte, de la saisine de l’OPECST et de ma désignation dans le but d’établir un rapport sur les enjeux de la BS. J’y vois la possibilité pour les autorités politiques de réfléchir très en amont, en liaison avec la communauté scientifique  – sciences « dures » comme sciences humaines et sociales – mais aussi avec tous les acteurs impliqués (entreprises, organismes, agences, ministères), aux conditions dans lesquelles un débat public pourrait être engagé de façon plus sereine et plus constructive que ceux qui ont eu lieu par exemple sur le nucléaire civil ou sur les OGM, et plus récemment sur les nanotechnologies. Le temps presse, car la France prend du retard, notamment par rapport au Royaume-Uni où un tel débat public s’est tenu avec succès en 2009, alors que les discussions sur les OGM avaient connu les mêmes difficultés et malentendus que dans notre pays.

Afin d’éviter de reproduire des débats de posture, assez stériles, il est essentiel de favoriser, en toute transparence, un partage le plus large possible des connaissances sur les risques et avantages que suscitent les avancées scientifiques dans le domaine de la BS. Je partage le point de vue de la Commission présidentielle américaine de bioéthique2, constituée en mai 2010 par le Président Barack Obama, à la suite des déclarations exagérées de Craig Venter : « La science est une ressource partagée appartenant à tous les citoyens et les concernant tous. »3

De plus en plus d’aspects de notre vie quotidienne sont impactés par les progrès de la science et de la technologie et, à l’heure de la mondialisation, où l’accent est mis sur le développement de la connaissance, il importe d’affirmer une stratégie volontaire, voire volontariste, pour la recherche et la formation scientifique, dès le plus jeune âge afin d’en partager les enjeux avec le plus grand nombre, en toute connaissance de cause.

C’est dans cet esprit que je formulerai des propositions en faveur de la recherche et de l’innovation dans la BS en France. C’est, de l’avis général, un domaine très prometteur dans lequel il serait regrettable, et même préjudiciable, de ne pas tirer parti des atouts dont notre pays dispose. La BS apparaît en effet, au vu des nombreuses auditions (160 en tout) que j’ai successivement menées en France, au Royaume-Uni, en Allemagne, en Suisse, au Canada, aux États-Unis, en Italie, ainsi qu’à la lecture de revues, publications, articles, comme un élément de réponse aux enjeux énergétiques, environnementaux, médicaux, alimentaires auxquels le monde devra répondre dans ce siècle, avec une population mondiale croissante et des ressources dont nous percevons les limites. Les auditions ont concerné des scientifiques de disciplines diverses, y compris des sciences humaines et sociales, ainsi que des institutions, acteurs politiques, économiques, dont la liste est précisée en annexe.

C’est aussi un domaine dont il convient d’identifier et de maîtriser les risques potentiels, en toute transparence. Je tenterai d’abord d’évaluer si la BS est réellement la révolution scientifique et industrielle annoncée pour le 21e siècle et j’aborderai ensuite les débats qu’elle suscite.

Pour établir ce rapport qui concerne un domaine émergent et encore très évolutif, je me suis appuyée, au-delà des auditions réalisées, sur l’expertise d’un comité de pilotage4 que je tiens à remercier.

LA DÉFINITION DE DEUX NOTIONS-CLÉS : ANALYSE ET SYNTHÈSE,

par Mme Anne Fagot-Largeault,

professeure honoraire au Collège de France,

membre de l’Académie des sciences

Selon l’étymologie : « analyser, analyse » (du grec αναλυω, αναλυσις / ana-luo, analusis) signifie « décomposer », « action de résoudre un tout en ses parties » ; « synthétiser, synthèse » (du grec συν-τιθημι, συνθεσις / sun-tithémi, sunthesis) signifie « composer », « action de mettre ensemble des éléments pour former un tout ». « La synthèse est l’opération inverse de l’analyse. » (Larousse Lexis). L’analyse procède du tout aux parties, la synthèse procède des parties au tout.

En montrant que des éléments comme l’eau ou l’air sont des corps composés qu’on peut décomposer en corps simples (oxygène, hydrogène, azote), Lavoisier (1) (1789) faisait une chimie analytique. Un demi-siècle plus tard la chimie a pris le tournant de la synthèse :  Marcellin Berthelot (2) (1860) montre qu’en adoptant la synthèse comme méthode de recherche, on peut non seulement tester l’exactitude de l’analyse (ex. reconstituer de l’eau à partir du mélange hydrogène-oxygène), mais aussi construire des corps composés nouveaux, qui n’existaient pas dans la nature. La biologie connaît la même évolution, avec d’abord une étape analytique (top down) : de l’organisme à la cellule, et de la cellule au génome, protéome, etc. (c’est la biologie moléculaire) ; puis autour des années 1980 émerge une biologie de synthèse (bottom up), qui vise à construire des organismes à partir de leurs éléments constituants.

L’enjeu de la synthèse, comme le montre Jean-Marie Lehn (3) (2011), c’est qu’elle permet de tester des hypothèses sur les voies de l’évolution terrestre (de l’inorganique à l’organique, et au cours de l’évolution des vivants).

(1) Lavoisier Antoine-Laurent de, Traité élémentaire de chimie, Paris : chez Cuchet, 1789 (en ligne).

(2) Berthelot Marcellin, Chimie organique fondée sur la synthèse, Paris, Mallet-Bachelier, 1860, 2 vols. (en ligne).

(3) Lehn Jean-Marie, « Par-delà la sythèse: l’auto-organisation », Comptes rendus de l’Académie des sciences, Chimie, 14 (2011) : 348-361.

PREMIERE PARTIE :

UN CHAMP SCIENTIFIQUE AUX CONTOURS ENCORE FLOUS

« Il est difficile de trouver une définition fonctionnelle de la biologie de synthèse. Elle dépend des résultats souhaités, soit de ses applications (ou objectifs), soit, de façon plus générale, du concept large de la recherche fondamentale et - pour cette raison - de sa nature expérimentale. Il n’est pas possible de trouver une définition univoque. Car cette définition pourrait changer au cours du temps, à mesure que cette discipline prendra de plus en plus conscience d’elle-même et qu’elle se sera plus largement répandue. »5

En écho à ces observations du rapport de 2009 du Groupe européen d’éthique, qui ne cite pas moins de sept définitions différentes, la Commission présidentielle américaine de bioéthique indique que vouloir définir la BS relève du défi. Un chercheur du MIT a expliqué que, si vous enfermez six biologistes dans une pièce, ils vous donneront sept définitions de la BS : cette plaisanterie, couramment citée, reflète la complexité du positionnement de la BS.

Car les débats sur la BS portent non seulement sur sa définition mais aussi sur son statut scientifique.

Les discussions dépassent les frontières de la science et revêtent également des enjeux de nature politique, sociétale, éthique voire religieuse.

Pour ces raisons, la question sur les tenants et les aboutissants de la BS mérite d’être posée avec des approches croisées et interdisciplinaires.

I.– UN DOMAINE ÉMERGENT

Selon une terminologie communément admise, la BS est un domaine émergent, c’est-à-dire une nouvelle discipline oscillant entre recherche fondamentale et applications, entre biologie moléculaire, biologie systémique et modélisation.

Certains scientifiques la rattachent à l’évolution de disciplines existantes, d’autres, en revanche, l’érigent en discipline à part entière, en se basant notamment sur la rupture qu’elle génère par rapport à l’existant.

A.– LES DÉBATS SUR LA DÉFINITION DE LA BIOLOGIE DE SYNTHÈSE

1.- La biologie de synthèse comme prolongement des disciplines existantes

La position de la Commission présidentielle américaine de bioéthique illustre bien la difficulté de fournir une définition précise et consensuelle de la BS. En effet, d’un côté, elle déclare que : « La BS est le nom donné à ce champ émergent de la recherche, qui combine des éléments de la biologie, de l’ingénierie, de la génétique, de la chimie et de l’informatique. »6

De l’autre, elle fait remarquer que : « La BS est profondément enracinée dans la biologie moléculaire, discipline qui a émergé il y a plusieurs décennies avec la découverte de la structure et de la composition de l’ADN. »7

La même idée est exprimée dans le rapport de la Stratégie nationale de la recherche et de l’innovation (SNRI)8, qui évoque la « fertilisation croisée » au cours de ces dernières années entre les sciences biologiques et la physique, la chimie, les mathématiques, l’informatique et les sciences de l’ingénieur.

Quant à la deuxième observation de la Commission présidentielle américaine de bioéthique, elle rappelle, comme l’ont indiqué plusieurs de mes interlocuteurs français et étrangers, que ce sont bien les progrès de la biologie moléculaire qui ont ouvert la voie à la BS9. Celle-ci aurait tiré profit, ainsi qu’on le verra ultérieurement, d’avancées telles que le séquençage du génome, l’ADN recombinant ou la Polymerase Chain Reaction (PCR) qui est une technique d’amplification de l’ADN.

La BS peut être également rattachée aux biotechnologies, comme le souligne le chercheur américain David Berry, qui estime que « le terme de BS devrait, à vrai dire, être celui de biotechnologie synthétique »10. Selon lui, la BS emploie les outils de la biologie moderne tels que le séquençage et la synthèse de l’ADN, en vue de concevoir des instruments biologiques destinés à accomplir certaines fonctions.

Un autre chercheur américain, Andrew Ellington, professeur de biologie cellulaire et moléculaire à l’Université d’Austin (Texas), estime que la BS vise davantage une « redéfinition des biotechnologies »11. La BS inclut et modernise la notion ancienne selon laquelle on peut transformer les systèmes vivants.

De même, l’un des éléments-clés de la BS identifiés par le Groupe européen d’éthique12 réside dans « la transformation des éléments biologiques existants ». C’est bien l’un des objectifs de l’ingénierie métabolique, grâce à laquelle, comme on le verra, sont fabriqués les biocarburants.

Pour Sven Panke - professeur à l’Université des sciences et techniques (ETH) de Zürich, l’un des centres de recherche les plus prestigieux dans le domaine - la BS doit opérer comme une « vraie »13 discipline d’ingénierie.

Pierre Tambourin, directeur général du Genopole d’Evry voit, quant à lui, une rupture dans l’évolution future des biotechnologies, qu’il illustre notamment par le fait que « là où le généticien isole, caractérise, transfère un gène d’un organisme à l’autre, d’une cellule à l’autre, le biologiste de synthèse va concevoir un gène nouveau, à partir de morceaux d’autres gènes ou le synthétiser de toutes pièces. Il s’agit, en quelque sorte, de considérer le vivant comme un immense meccano, à partir duquel sont imaginés et construits de nouvelles entités (bactéries), des micromachines (autoreproductibles ou pas), des systèmes qui n’existent pas dans la nature. »14

Pour le comité consultatif national d’éthique, la BS ne dépend pas nécessairement de la mise en jeu des nanosciences et des nanotechnologies. Ainsi, la synthèse de novo du virus de la poliomyélite et celle du virus de la grippe espagnole par l’équipe du professeur Eckard Wimmer de l’Université Stony Brook de New York n’ont fait appel ni aux nanosciences, ni aux nanotechnologies15.

Selon le rapport de la Stratégie nationale de recherche et d’innovation16, la convergence s’appuie au moins sur le trio NBI (Nano-Bio-Info). La SNRI y voit même une tendance de fond depuis 2005. La BS peut, par exemple, permettre de réaliser un nano-capteur dans lequel la mesure serait effectuée par des macromolécules biologiques, hybridées avec des éléments nanoélectroniques pour le calcul et l’affichage numérique.

L’ONG canadienne ETC, dont j’ai rencontré les responsables à Ottawa, s’est penchée de façon approfondie sur la BS. Pour eux, la BS serait l’exemple, par excellence, de technologies convergentes, relevant à la fois de la nanotechnologie, de la biotechnologie et des technologies de l’information. ETC considère que la capacité à concevoir des organismes synthétiques à partir de l’ADN préfabriqué comporte potentiellement le pouvoir de révolutionner la biologie et d’amplifier la puissance des technologies convergentes à l’échelle nanométrique. « La biologie synthétique est une technologie nanométrique et doit être considérée dans le contexte plus large des technologies convergentes. »17

Selon l’OCDE, qui admet également l’idée de cette convergence, il conviendrait de distinguer les nano-biotechnologies des bio-nanotechnologies. Les nano-biotechnologies se définiraient comme les technologies nanométriques dont l’usage donne lieu à des applications biologiques et biochimiques. Les exemples qui illustrent cette définition sont les « labopuces18 », la nanomédecine19, la nanogalénique20 et les implants. Quant aux bio-nanotechnologies, qui font aussi référence à la BS, elles viseraient à exploiter les voies métaboliques des organismes vivants.

L’encadré ci-après permet de voir quelles sont les spécificités respectives des nano-biotechnologies et des bio-nanotechnologies, et leurs interactions.

Source : document communiqué par Jean-Marie François, directeur de la recherche à l’Institut de technologie avancée des sciences du vivant de Toulouse

2.- LA BIOLOGIE DE SYNTHÈSE, UNE NOUVELLE DISCIPLINE ?

La première définition considérant la BS comme une discipline à part entière s’appuie sur sa spécificité par rapport à la biologie moléculaire, à la biologie cellulaire et au génie génétique. Ainsi Jay Keasling, professeur à l’Université de Californie et inventeur de l’artémisinine synthétique, un médicament pour lutter contre le paludisme, fait-il valoir que deux caractéristiques distinguent la BS :

1) « la conception et la construction de composants essentiels (parties d’enzymes, circuits génétiques, voies métaboliques, etc.) qui peuvent être modélisés, compris et fabriqués, afin de satisfaire à des critères opérationnels particuliers »,

2) « l’assemblage de ces composants dans des systèmes intégrés plus grands, en vue de résoudre des problèmes spécifiques ».

Jay Keasling convient lui-même que cette distinction se réfère à la nature particulière des outils technologiques utilisés par les biologistes de synthèse.

Dans le même esprit, le Groupe européen d’éthique21 constate, sur la base des diverses descriptions des technologies employées, qu’« il est possible d’identifier les éléments caractéristiques de la biologie synthétique, qui incluent l’ingénierie des composants biologiques qui n’existent pas dans la nature et la transformation d’éléments biologiques existants. La biologie synthétique est centrée sur la conception intentionnelle de systèmes biologiques artificiels ou transformés, plutôt que sur la compréhension des organismes existant dans la nature. »

Le Groupe européen d’éthique considère qu’une définition de la BS devrait inclure :

• la conception de cellules d’organismes minimaux (y compris de génomes minimaux),

• l’identification et l’usage des briques du vivant (notion de boîte à outils),

• la construction de systèmes biologiques totalement ou partiellement artificiels.

Ces précisions sont importantes, car elles mettent l’accent sur la notion d’intention. Le Groupe européen d’éthique y voit une nouveauté introduite par la BS dans la conception et l’utilisation des différents instruments technologiques de bio-ingénierie.

« La BS utilise la biotechnologie, de façon intentionnelle, pour concevoir et construire des systèmes biologiques, qui traitent de l’information, manipulent des produits chimiques, fabriquent des matériaux et des structures, produisent de l’énergie, fournissent de la nourriture et maintiennent la santé de l’homme et notre environnement. »

Tout en reconnaissant qu’en la matière les frontières peuvent être floues, le Groupe européen d’éthique soutient que « l’intention de construire un organisme avec des propriétés radicalement nouvelles peut être décrite comme un trait de la nouvelle discipline ».

Les propos tenus par Ron Weiss, professeur au Massachusetts Institute of Technology (MIT), lors de son audition par la Commission présidentielle américaine de bioéthique sont de nature à confirmer cet argument. Évoquant les applications potentielles de la BS dans le domaine du traitement des maladies infectieuses, il a ainsi souligné que c’est la programmation des cellules qui permettra aux biologistes de synthèse de parvenir à des résultats qui ne seraient pas possibles autrement.

Une définition complémentaire se réfère à la notion d’ingénierie, en indiquant que la BS est « l’ingénierie de la biologie ». C’est d’ailleurs cette définition et cette terminologie qui sont adoptées au Canada, où l’on évite d’utiliser le terme de BS, car trop polémique selon les interlocuteurs scientifiques et institutionnels que nous avons rencontrés.

Cette définition est également celle défendue par Randy Rettberg, directeur de la compétition iGEM et Ron Weiss, qui voient dans la BS l’application de la démarche de l’ingénierie à la biologie et à ses objectifs.

Pour le professeur Jim Haseloff, de l’Université de Cambridge, c’est la première fois que la démarche de l’ingénieur est appliquée en biologie. C’est pourquoi, selon lui, la construction de circuits biologiques à grande échelle est possible et constitue, ce faisant, l’une des applications les plus intéressantes de la BS.

Dans le même temps, les chercheurs de l’Imperial College précisent que « la biologie synthétique est une discipline émergente, qui exploite les récentes avancées de la biologie moléculaire et cellulaire, en vue de concevoir et de construire de nouveaux systèmes et mécanismes biologiques ».

Enfin, selon les chercheurs américains Steven Benner et Michael Sismour, chefs de file de la réécriture du code génétique, la BS suit l’exemple de la chimie. Ainsi, grâce aux modèles d’enzymes construits dans les années 50, la compréhension de chaque réaction enzymatique est aujourd’hui basée sur les modèles synthétisés par les spécialistes de la chimie bioorganique, lesquels ont reproduit les propriétés émergentes des enzymes.

Cet argument confirme les observations que m’ont formulées certains de mes interlocuteurs, selon lesquelles la BS a suivi une évolution analogue à la chimie, lorsque la chimie de synthèse est apparue comme suite logique, « naturelle », de la chimie analytique.

La définition la plus consensuelle semble être celle proposée par le consortium européen de recherche Synbiology (6e PCRD, avec des partenariats entre la France, l’Allemagne, les États-Unis, la Grèce et le Portugal) :

« La BS est l’ingénierie de composants et systèmes biologiques qui n’existent pas dans la nature et la réingénierie d’éléments existants ; elle porte sur le design intentionnel de systèmes biologiques artificiels, plutôt que sur la compréhension de la biologie naturelle. »

On peut en conclure que, discipline nouvelle ou pas, la BS représente bien un champ nouveau de la biologie, avec une approche méthodologique mêlant l’analyse scientifique de la biologie et l’ingénierie des biotechnologies.

B.– LE STATUT DE LA BIOLOGIE DE SYNTHÈSE : SCIENCE ET/OU TECHNOLOGIE ?

Il s’agit de déterminer si la BS est une science ou une technologie, autrement dit, si la BS est un domaine de connaissances fondamentales objectives caractérisé par un objet d’étude et des méthodes d'investigation rigoureuses aboutissant à des résultats vérifiables et reproductibles, avec ses propres théories ou lois, ou si elle relève d’un savoir-faire d’ingénieur basé sur la conception et l’utilisation d’instruments particuliers dédiés.

1.– LA BIOLOGIE DE SYNTHÈSE EST-ELLE UNE SCIENCE ?

a) Les réponses affirmatives

Lors de son audition, le 28 mai 2010, par la Commission de la Chambre des Représentants américaine chargée de l’Energie, Jay Keasling a qualifié la BS de « science fondamentale centrée sur l’application ».

Cette définition traduit la dualité de la BS qui, dans certaines études, est présentée comme « une discipline hybride combinant à la fois des éléments d’ingénierie et de science en vue de fabriquer des organismes synthétiques ».

C’est une position analogue que prend le rapport de la SNRI. Il situe, en effet, l’émergence et l’évolution de la BS à la fois sur les plans fondamental et technologique.

S’agissant du plan fondamental, le rapport observe que la BS s’appuie sur les outils conceptuels fournis par la biologie systémique pour la conception et la construction rationnelle de circuits biochimiques destinés à comprendre le fonctionnement de la cellule et de l’organisme.

Sur le plan technologique, le rapport fait état des différentes technologies qui pourraient être les facteurs d’évolution de la BS : l’amélioration des méthodes informatiques appliquées en biologie, la robotisation de l’expérimentation, les technologies de miniaturisation telles que la microfluidique, celle-ci permettant notamment de réduire considérablement les coûts et de mieux contrôler les processus. Il note aussi l’hybridation entre nanoélectronique et nano-biologie et les approches visant à s’affranchir des interférences entre cellule hôte et composant synthétique.

Pour Maureen O’Malley22, chercheure en philosophie des sciences à l’Université d’Exeter au Royaume-Uni, la BS serait une science car elle introduit des principes de méthode en cours dans la recherche scientifique, qui sont l’exploration, l’itération et le bricolage.

L’exploration : se référant au travail de Darwin, Maureen O’Malley rapporte que certains commentateurs expliquent l’avènement de la théorie de l’évolution et de la sélection naturelle par le fait que Darwin passa plus de deux décennies à tâtonner, selon un mode très exploratoire. De même, ce sont bien les vertus de l’exploration qui inspirent le Français Philippe Marlière, président-directeur général de la société Isthmus, lorsqu’il estime que « les biologistes de synthèse jouent le rôle de conquistadors heuristiques peu embarrassés par le manque d’instruments de navigation dans leur hâte à atteindre des continents de terre vierge ».23

L’itération : l’itération se définit comme un processus répétitif à l’image d’un escalier où chaque marche se construit sur la précédente.

Pour Maureen O’Malley, la BS incarne, avec éclat, le caractère pragmatique de ce processus, devenu non seulement une vertu mais aussi un objectif et un guide heuristique.

Le bricolage : « La construction de systèmes biologiques imparfaits est acceptable », déclarent les biologistes de synthèse de l’Université de Princeton.24 C’est pourquoi la BS a recours à la synthèse combinatoire de manière aléatoire.

De fait, pour Maureen O’Malley, évoquant des modèles conçus par la BS, « plutôt que d’être des modèles de systèmes rationnels, élégants et efficaces, beaucoup d’entre eux ne fonctionnent que parce qu’ils résultent d’astuces ».

Pour autant, elle estime qu’il ne faut pas y voir un échec de la BS « mais un processus très créatif et efficace ».

Elle fait observer que la notion de bricolage se trouve renforcée par le principe « d’approximation limitée » qui avait été défendu par Max Delbrück, un des pères de la biologie moléculaire25. Ce dernier avait souligné l’importance de ne pas être excessivement rigoureux dans l’expérimentation. Il estimait qu’une précision excessive empêcherait de nouvelles avancées dans la compréhension des phénomènes et que ces avancées pourraient survenir plus facilement si le chercheur se montrait flexible et réactif. Ces observations permettent d’éclairer la réponse de Ron Weiss à l’une de mes questions sur la fiabilité des projets de BS présentés lors du concours annuel iGEM (International Genetical Engineered Machine) organisé par le MIT. Il m’a, en effet, répondu qu’il ne fallait pas, dans le domaine de la BS, raisonner en termes de résultat final. A ses yeux, le succès de l’iGEM réside dans la faculté des équipes à poser des problèmes bien définis, qu’elles estiment pouvoir être résolus.

L’orthogonalité - une notion nouvelle en biologie introduite par la BS : Sven Panke rappelle que la notion d’orthogonalité provient de l’informatique. Elle désigne la propriété que possède un système de ne pas être affecté par la modification d’un de ses composants ou d’une de ses fonctions. Par exemple, l’orthogonalité désigne le fait qu’en ajustant le rétroviseur d’un véhicule, on n’affecte pas la conduite de ce dernier, pas plus que le fait d’accélérer n’affecte la radio26.

Pour le professeur Panke, l’orthogonalité est un concept étranger à la biologie. En effet, les différentes disciplines désignées sous le terme d’« omiques » (génomique, transcriptomique, protéomique, métabolomique) véhiculent l’idée que le vivant serait un système d’interactions complexes. Or, l’orthogonalité soutient une vision simplifiée du vivant où celui-ci peut être compris - ne serait-ce que d’une manière provisoire - comme un ensemble de sous-systèmes et ainsi de suite, comme des poupées gigognes. La BS, en intégrant la notion d’orthogonalité, se distingue donc des « omiques » et affirme ainsi son identité scientifique originale.

b) Les réponses négatives

On peut distinguer cinq raisons pour contester que la BS soit une science nouvelle, à part entière.

En ce qui concerne la recherche sur les proto-cellules, l’une des formes de recherche de la BS, la démarche bottom up, vise à reconstituer des cellules vivantes à partir d’éléments du vivant. Selon le professeur Jean Weissenbach, directeur du Genoscope à Evry, la recherche fondamentale en ce domaine a été initiée par Steve Rassmussen aux États-Unis et la recherche finalisée concernerait le ciblage de cellules cancéreuses, par exemple. En revanche, le professeur Weissenbach considère que ceux qui prétendent reconstituer la vie à partir de la matière inerte font de la science-fiction.

Une deuxième raison tiendrait au fait que la BS ne peut prétendre au statut de science, faute d’une maturité suffisante. Selon Richard Kitney, professeur à l’Imperial College de Londres, elle en serait au même stade de développement que la microélectronique dans les années 50, ce qui signifie à ses yeux que la BS n’a pas encore formulé ses théories ni ses lois propres.

La troisième raison conteste l’idée que la BS ait introduit une rupture qui puisse lui conférer le statut d’une science à part entière. C’est la position précédemment évoquée de la Commission présidentielle américaine de bioéthique qui déclare que la BS est « profondément enracinée dans la biologie moléculaire ».

Cette position est partagée par des scientifiques, tels que la professeure Pamela Silver, chercheure à la Harvard Medical School à Boston, qui estime que la BS est le fruit des progrès de la biologie moléculaire, même si, par ailleurs, elle en a reformulé les questions. Quant au professeur Ron Weiss, comme on l’a vu précédemment, il a estimé que la BS pouvait par certaines de ses méthodes être considérée comme une nouvelle science. Il a néanmoins déclaré lors de son audition par la Commission présidentielle américaine de bioéthique qu’il existait un continuum entre la biologie moléculaire et la BS, ajoutant que « tracer des frontières claires entre BS, génie génétique et biologie des systèmes et d’autres disciplines est peut-être utile dans la presse. Mais, pour ce qui est des recherches effectuées dans mon laboratoire, il s’agit d’intégrer toutes ces disciplines, en vue de parvenir à une approche de problèmes spécifiques, propre à faciliter l’ingénierie de la biologie. »

Quatrième raison, la BS ne peut être regardée comme une science parce qu’elle serait clairement une technologie. Philippe Lejeune, professeur à l’INSA de Lyon, fait ainsi une distinction nette entre la recherche dite fondamentale, qui relève du domaine de la science, et la recherche dite appliquée, qui relève de la technologie, plaçant la BS dans le domaine de la recherche appliquée.

Enfin, la cinquième raison émane d’une vision particulière de la science et de la technologie, celle d’un courant de pensée sociologique et philosophique spécifique, les « science studies ». Elle a été exprimée par Evelyne Fox Keller, professeure au MIT, qui s’interroge sur le caractère hybride de la BS dans un article au titre provocateur : « What does Synthetic Biology have to do with Biology ? »27. Pour elle, la BS, comme les autres disciplines scientifiques, est une « technoscience », une discipline où la division classique entre science et technologie est de moins en moins évidente. Elle considère enfin que la BS serait « une alternative synthétique à la biologie », en accord avec Drew Endy, professeur à Stanford.

Résumé de la situation de la BS par rapport aux autres disciplines

Source : document communiqué par Magali Roux

2.– LA BIOLOGIE DE SYNTHÈSE EST-ELLE UNE TECHNOLOGIE ?

La BS applique les principes et les méthodes de l’ingénierie et utilise d’autres technologies variées. En effet, jamais autant qu’aujourd’hui la présence des ingénieurs dans la BS n’a été aussi forte. La biologiste Pamela Silver, professeure à la Harvard Medical School, considère que la BS serait la technologie de ce siècle.

a) L’application des principes et des méthodes de l’ingénierie à la biologie

La BS a trouvé dans l’ingénierie le moyen de simplifier l’approche du vivant comme le montrent les analyses du professeur Sven Panke, du professeur Richard Kitney de l’Imperial College de Londres et d’une équipe de chercheurs de l’Université de Princeton.

1° L’analyse de Sven Panke

L’analyse de Sven Panke repose sur une comparaison entre la BS et les disciplines d’ingénierie, selon cinq domaines :

– la constitution d’un savoir étendu et utilisable,

– l’orthogonalité,

– la hiérarchie de l’abstraction,

– la normalisation,

– la séparation entre la conception et la fabrication.

La constitution d’un savoir étendu et utilisable : selon Sven Panke, la BS est en train de constituer un savoir de plus en plus étendu mais pas toujours utilisable, à la différence de certaines disciplines classiques de l’ingénierie telle que la mécanique. Sven Panke relève le fait que la connaissance sur le fonctionnement interne de la cellule est incomplète puisque, par exemple, 24 % des gènes de la bactérie Escherichia coli28 ne sont toujours pas caractérisés du point de vue de leur fonction.

Au terme de cette analyse comparée entre la BS et les disciplines d’ingénierie, Sven Panke considère que la BS doit opérer comme une « vraie » discipline d’ingénierie dans la perspective de pouvoir passer à une plus grande échelle. Les objectifs ainsi assignés à la BS doivent l’amener à affronter des défis de nature scientifique et technologique.

L’orthogonalité : toujours selon Sven Panke, du fait de la complexité du cytoplasme cellulaire, l’orthogonalité y est la plupart du temps absente, notamment chez les bactéries. Par exemple, l’introduction et l’expression d’un seul gène recombinant dans E. coli changent l’expression de centaines d’autres gènes. Cependant, des travaux montrent qu’il est possible d’introduire un acide aminé synthétique dans une protéine en évitant les multiples dichotomies successives normalement nécessaires pour y parvenir. Un premier défi scientifique sera celui de la mise en œuvre du concept d’orthogonalité dans les systèmes biologiques. Comme on l’a vu, l’orthogonalité vise ainsi à rendre la machinerie cellulaire plus prédictible.

La hiérarchie de l’abstraction : la hiérarchie de l’abstraction est une terminologie importée de l’informatique qui intègre des portes logiques29 pour fabriquer des circuits. Sven Panke observe que la description des systèmes biologiques est d’habitude fortement focalisée sur le niveau moléculaire, les descriptions formalisées et fonctionnelles telles que les fournissent les circuits électriques dans les conditions rappelées précédemment étant rares.

La normalisation : la normalisation est un ensemble de contraintes devant permettre l’intégration de parties d’origines variées à la manière d’un jeu de meccano, utilisables et réutilisables par tous.

En revanche, selon Sven Panke, la BS n’est pas encore suffisamment pourvue de normes qui permettraient la fabrication de dispositifs s’intègrant avec une prédictibilité satisfaisante. Cette question de normalisation dans la BS revêt un intérêt pour l’Union européenne, qui a confié fin 2010 à un groupe d’experts le soin de formuler des propositions sur ces normes.

La séparation entre la conception et la fabrication : prenant l’exemple de la fabrication des automobiles, Sven Panke indique que leur conception relève d’un groupe de personnes différentes de celles qui procèdent à leur assemblage. Les unes et les autres ont des qualifications et des formations différentes. En revanche, en biologie, la construction d’un système biologique demeure en grande partie un projet de recherche où le chercheur, seul à la paillasse, doit rassembler toutes les compétences nécessaires.

Un autre défi concerne la façon dont la BS répondra à la problématique de l’évolution. En effet, parce que celle-ci constitue une source de changement dans les systèmes vivants, elle représentera toujours un obstacle lorsqu’il s’agira de préserver l’intégrité des dispositifs à long terme. L’assemblage des briques du vivant constitue donc un défi technologique qui devra être résolu afin de permettre de les combiner plus aisément.

Les principes exposés par les chercheurs rencontrés à Londres ne se sont pas inscrits dans des perspectives aussi vastes que celles de Sven Panke. Pour autant, dans leurs grandes lignes, leurs exposés reposent sur la même démarche, qui confirme bien que la BS applique les principes d’ingénierie.

2° L’analyse de Richard Kitney 30

Richard Kitney estime que la BS se fonde sur les trois éléments suivants :

- les dispositifs, sur lesquels reposent les fonctions biologiques,

- les mécanismes, auxquels sont associées les briques,

- les systèmes, qui gèrent les tâches.

A chaque fois, les fonctions, les briques et les tâches doivent être reproductibles.

L’objectif est de déboucher sur la mise au point de commandes que l’on puisse introduire dans le vivant. Il serait ainsi possible de commander des systèmes naturels.

Près de 12 000 briques31 provenant du monde entier seraient déposées dans le registre du MIT (Registry of Standard Biological Parts) et accessibles en open source par internet. Or l’un des problèmes résulte du fait que peu d’entre elles sont caractérisées jusqu’à présent. C’est pourquoi l’objectif est de parvenir dans les deux années à venir à un inventaire complet et automatisé.

3° L’analyse des chercheurs de l’Université de Princeton

Pour ces chercheurs, l’objet de la BS est d’étendre ou de modifier le comportement du vivant et de le transformer en vue d’accomplir certaines fonctions. Dans cette perspective, ils recourent à une analogie très parlante, en établissant un parallèle entre la cellule et l’ordinateur, comme l’illustre le graphique ci-après.

Source : Ernesto Andrianatoandra et al., graphique 1, « Synthetic biology : New engineering rules for an emerging discipline », Molecular systems biology, 2006

Les gènes, les protéines, entre autres, sont à la cellule ce que les transistors, les condensateurs et les résistances sont à l’ordinateur. Il s’agit dans les deux cas d’éléments fondamentaux qui déterminent le fonctionnement du système et que les ingénieurs peuvent manipuler, remplacer, interchanger. Ces éléments essentiels constituent la base d’un système hiérarchisé conformément à la notion de hiérarchie de l’abstraction vue précédemment.

La hiérarchie cellulaire s’organise, selon les chercheurs de Princeton, depuis les molécules de bases ou briques (ADN, ARN, protéines, etc.), qui interagissent entre elles. Ces interactions biochimiques, qui constituent le second niveau de cette hiérarchie, participent elles-mêmes à des voies métaboliques. Celles-ci s’intègrent dans le troisième niveau constitué par les cellules, indépendantes, sous forme de culture ou structurées en tissus.

Dans ce contexte, la modification du vivant par les biologistes de synthèse est conçue au sommet de la hiérarchie mais mise en œuvre en partant de la base (bottom up).

Pour autant, les chercheurs de Princeton insistent sur le fait que cette hiérarchie cellulaire est ancrée dans un environnement marqué par la complexité et l’incertitude.

C’est pourquoi, pour contourner la complexité et l’incertitude, les biologistes de synthèse voient l’organisation cellulaire en termes de dispositifs inclus dans des modules.

Selon les chercheurs de Princeton, un dispositif est une structure simple, prédictible et contrôlable, dérivée des systèmes naturels existants ou modifiée par les biologistes de synthèse. Parmi les exemples, on peut citer les ARN non codants utilisés pour activer ou inhiber l’expression de certains gènes.

Lorsque différents dispositifs ont des fonctions interconnectées, ils constituent alors un module pour accomplir des tâches complexes. Dans la cellule, les modules sont des chaînes de réactions spécifiques, telles que les voies métaboliques.

En résumé, si l’analogie avec l’informatique - préconisée par les chercheurs de Princeton mais qui fait l’objet de débats - est importante, celle-ci comporte toutefois des limites. Car si changer de programme ne signifie pas pour autant modifier l’ordinateur, dans la BS, le changement de génome entraîne de fait la modification de la cellule, comme l’a démontré l’expérience de Craig Venter, ainsi que nous le verrons plus loin.

b) La mise en œuvre de technologies variées

La BS utilise principalement les technologies suivantes : la modélisation informatique, le séquençage de l’ADN, la synthèse chimique ou biologique de l’ADN et la microfluidique.

1° La modélisation informatique : de la paillasse à l’ordinateur

La modélisation est l’un des outils actuels de la BS. Elle consiste, sur support informatique, à élaborer des modèles à partir de données concernant des réactions biochimiques, à mettre en équation ces données puis à réaliser des simulations. Les modèles doivent ensuite être validés en comparant les résultats ainsi obtenus avec ceux des expériences32. La BS va donc de l’éprouvette à l’ordinateur et vice versa.

Dans ce cadre, les biologistes de synthèse peuvent depuis une décennie s’appuyer sur un langage spécifique à la modélisation en biochimie, le langage SBML (System biology markup language). Parmi les autres instruments figure la conception assistée par ordinateur CAO (computer-aided design tools). Cette technologie rend possible la génétique combinatoire, c’est-à-dire l’association de gènes pour créer des génomes. La CAO contribue également au séquençage des génomes.

LE RECOURS A LA MODÉLISATION AU JAPON

1. Le projet E-Cell

Démarré en 1996 au sein du laboratoire du Pr Tomita de l'Université Keio par une poignée d'étudiants en biologie moléculaire, le E-Cell Project désignait au départ un programme informatique modélisant une cellule ne possédant qu'un nombre limité de gènes indispensables à sa survie. L'organisme de référence pour cette expérience était Mycoplasma Genitalium dont le génome est considéré comme l’un des plus courts du monde vivant (580 000 paires de bases) (en dehors des virus).

En 1997, le E-Cell Project évolue et permet de modéliser d’autres systèmes cellulaires plus complexes tels que des érythrocytes humains, des mitochondries et la souche bactérienne E. coli chemotaxis. L'expression de leurs gènes et la réplication sont également prises en compte dans cette nouvelle version du programme.

Grâce à la création de l'Institut des Biotechnologies Avancées de l'Université Keio en avril 2001, les scientifiques continuent d'optimiser la réalité de leurs modèles à l'aide des données protéomiques, métaboliques et génétiques des différents groupes de chercheurs et d'ingénieurs du service. Le code de ce programme est disponible en libre téléchargement sur le site internet officiel.

2. La Kyoto Encyclopedia of Genes and Genome (KEGG)

Depuis 1995, la Kyoto Encyclopedia of Genes and Genome (KEGG) est développée par le professeur Minoru Kanehisa dans le laboratoire Kanehisa de l'Université de Kyoto. Financée à l'époque par le Ministère de l'Éducation, de la culture, des sports, des sciences et de la technologie (MEXT) et créée par l'Université de Kyoto et de Tokyo en 1995, la Kyoto Encyclopedia of Genes and Genome est une des premières bases de données sur les systèmes vivants au Japon.

Durant les dix dernières années, l'Institute for Bioinformatics Research and Development (BIRD) dépendant de la Japan Science and Technology Agency (JST) a assuré le financement de cette base de données. Elle perdure aujourd'hui grâce à l'association « NPO Bioinformatics Japan » récoltant notamment les dons des utilisateurs.

KEGG est l'une des bases de données gratuites les plus consultées au monde et elle est régulièrement citée comme référence pour la pertinence et la précision de ses données.

3. Kitano's Symbiotic Project

Mené par les équipes des professeurs Hiroaki Kitano et John C. Doyle, le Kitano's Symbiotic Project a débuté en 1998 grâce au soutien financier de la Japan Science and Technology Agency (JST). L'essentiel de leurs travaux a concerné la standardisation des systèmes biologiques à l'aide de codes graphiques et de modélisation bio-informatique. De nombreux supports et outils ont été développés et restent disponibles en libre téléchargement sur le site officiel du projet :

• Le Systems Biology Mark-up Language (SBML) : un langage de modélisation des réseaux chimiques ;

• Le Systems Biology Workbench (SBW) : une plate-forme logicielle permettant le développement de nombreuses applications pour l'assemblage, l'ajout, la gestion et l'analyse de données ;

• Le Cell Designer : outils de représentation des systèmes et de leur biochimie grâce à des codes graphiques.

Le professeur Kitano a également proposé une définition du concept de « robustesse des systèmes vivants » en étudiant diverses caractéristiques des cellules telles que les fonctions relatives aux cycles génétiques, aux rythmes circadiens et aux signaux de transduction.

La seconde et ultime phase du projet a pris fin en 2008 et elle a donné lieu à de nombreuses collaborations, notamment avec des laboratoires américains.

Source : « La biologie de synthèse au Japon », note de Eric Perrot, service pour la science et la technologie de l’ambassade de France au Japon, 15 décembre 2011.

2° Le séquençage de l’ADN

Le séquençage consiste à définir l’ordre d’enchaînement des nucléotides dans un brin d’ADN. Définir cet ordre est nécessaire pour connaître le nombre et le type de gènes présents.

Les biologistes de synthèse séquencent les génomes pour obtenir des informations sur les modèles biologiques. Ces informations permettent la construction des briques et des dispositifs.

Le séquençage est également un moyen de vérifier que les génomes synthétisés correspondent bien aux objectifs prévus.

Les progrès ont été constants depuis l’invention du séquençage dans les années 1970. A cette époque, le séquençage de quelques centaines de nucléotides nécessitait une année. Quinze ans plus tard, on pouvait accomplir le même travail en un seul jour. Pendant longtemps, le séquençage était réalisé manuellement par une personne travaillant à la paillasse, qui lisait et interprétait les résultats. Aujourd’hui, le séquençage de millions de nucléotides est effectué de manière automatisée et dans un espace de temps très bref. Le séquençage d’un génome bactérien complet est une opération qui prend au total une semaine, dont quelques heures de fonctionnement du séquenceur automatique. Les résultats sont gérés par ordinateur, puis stockés dans les bases de données privées ou accessibles en ligne.

3° La synthèse artificielle de l’ADN

En 2002, le groupe de Wimmer de l’Université d’État de New York a reconstitué pour la première fois le génome du virus de la polio (7 741 paires de bases). Cette synthèse est également une première dans la mesure où elle a été réalisée à partir des séquences numérisées et non pas en s’inspirant d’un modèle biologique.

En 2003, l’Institut de Craig Venter a assemblé le génome du virus bactériophage33 Phi-174 (5 386 paires de bases) en seulement deux semaines.

En 2008, un collaborateur de Craig Venter, le Prix Nobel Hamilton Smith, a reconstruit le génome de la bactérie Mycoplasma genitalium (489 000 paires de bases).

Enfin, en 2010, Craig Venter a annoncé avoir synthétisé, toujours par voie chimique, un plus grand génome (1,08 million de paires de bases), celui de l’espèce Mycoplasma mycoides, et l’avoir transplanté chez M. genitalium dont il a pris le contrôle (l’ADN propre au Mycoplasma genitalium est détruit au cours de la multiplication de la cellule). Il a créé ainsi une souche bactérienne, s’auto-répliquant avec un ADN étranger construit synthétiquement. Cette expérience sera détaillée plus loin, dans le cadre des recherches sur le génome minimal.

4° La microfluidique

La microfluidique manipule, traite et contrôle des volumes de liquides extrêmement réduits, de l’ordre du microlitre (un millième de millilitre). Outil par excellence de la biologie moléculaire, et qui a contribué à son développement, la microfluidique présente plusieurs intérêts : économie, précision, fiabilité, rapidité, traitement d’un grand nombre d’échantillons par unité de temps et d’espace, gestion facilitée des déchets, sécurité accrue. De telles qualités sont d’autant plus cruciales pour la BS que celle-ci exige, sur le plan moléculaire, un niveau élevé d’efficacité, de rentabilité et de sécurité.

Un des cas où l’utilisation de la microfluidique est indispensable est la PCR (Polymerase Chain Reaction)34. La PCR est basée sur un traitement thermique de l’ADN qui n’est possible que si les échantillons contenant l’ADN sont de l’ordre du microlitre. Ce volume peut être encore plus réduit. Ainsi, la presse a annoncé en mars 2010 qu’une équipe de chercheurs franco-américains (Harvard, MIT et Université de Strasbourg) avait mis au point un système miniaturisé traitant des volumes de l’ordre du picolitre (un millionième de microlitre). Plus petit qu’un iPod Nano, cet appareil analyse les réactions biologiques mille fois plus rapidement que par les méthodes classiques35.

Cet appareil pourrait permettre à un producteur de biocarburant de contrôler les populations de micro-organismes ou de voies métaboliques pour trouver les produits chimiques ou les biocarburants les plus efficaces. C’est l’une des applications visées par la chimie verte.

5° Le remodelage

C.– LES ENJEUX

Sans anticiper sur la deuxième partie relative aux enjeux sociétaux, on constate que le développement des recherches en BS pose d’ores et déjà deux problématiques majeures.

La première concerne les politiques de recherche scientifique et de formation qui ne sont pas ou peu adaptées aujourd’hui à la dimension hybride de la BS, qui combine, comme nous venons de le voir, science et technologie. Cette particularité impose d’une part de créer ou de renforcer les synergies entre l’université et l’industrie, entre la recherche fondamentale et la recherche partenariale, et d’autre part de promouvoir des enseignements scientifiques qui soient réellement inter et pluridisciplinaires.

La seconde problématique a trait aux aspects nouveaux de la BS, abordés ci-après, qui peuvent impliquer des risques potentiels dont on ne sait pas s’ils seront avérés ou non. Ces risques, que j’examinerai dans la seconde partie, sont au cœur des discussions sur la réglementation. Compte tenu de l’impact possible des développements de la BS sur la science, la technologie et l’environnement, un enjeu essentiel est celui de l’appropriation et de la responsabilisation de tous : chercheurs, industriels, politiques, médias et, plus largement les citoyens, dans un processus d’information, d’explication et de dialogue constructif.

II.– LA NOUVEAUTÉ RELATIVE DE LA BIOLOGIE DE SYNTHÈSE

« Industrialiser la biologie », (…) « Réutiliser des briques du vivant pour faire quelque chose qui ne réponde pas à la logique du vivant », « Nous pouvons créer du neuf ». Ces propos, tenus par les biologistes de synthèse, expriment l’approche qui constitue l’originalité et l’essence de la BS.

Si ces objectifs sont nouveaux, il apparaît néanmoins qu’ils n’auraient pas pu être conçus sans le concours de sciences ou de technologies déjà existantes. En outre, la BS se heurte à des verrous susceptibles de freiner son développement, comme précisé plus loin.

A.– DES APPROCHES INÉDITES DU VIVANT

1.– LA DIVERSITÉ DES APPROCHES

La littérature actuelle montre qu’il y a autant d’approches que d’auteurs et qu’elles sont présentées soit en opposant des conceptions de façon binaire, soit avec une analyse nuancée et plus globale.

a) Les approches binaires : top down, bottom up, construction, déconstruction

Une présentation courante oppose les démarches dites top down (du haut vers le bas) et bottom up (du bas vers le haut) déjà évoquées. Mais il existe aussi une présentation moins connue qui se réfère aux notions de construction et de déconstruction des systèmes biologiques.

● La démarche top down vise à transformer les organismes, en enlevant, en remplaçant ou en ajoutant des parties spécifiques, par exemple par transplantation ou suppression de circuits génétiques (cf. ci-après) ou de voies métaboliques.

Les recherches sur le génome minimal, entre autres celles menées par Craig Venter, sont emblématiques à cet égard. Celui-ci et son équipe ont réduit le génome d’une bactérie à sa taille minimale en se limitant aux gènes jugés indispensables à sa survie (évalués à 200 environ). La démarche top down a été facilitée par l’utilisation du séquençage et la synthèse artificielle d’ADN.

Exemple de l’approche Top down

Source : rapport de la Commission présidentielle américaine de bioéthique, p. 44

●  L’approche bottom up permet aux biologistes de synthèse de construire des systèmes biologiques à partir de composants non issus du vivant. La Commission présidentielle américaine de bioéthique cite ainsi l’exemple de systèmes entièrement artificiels qui imitent le comportement de cellules vivantes, qualifiées de cellules chimiques ou chells37. Cette approche inclut également les tentatives de créer des circuits génétiques et des interrupteurs dotés de fonctions spécifiques - on et off - pour répondre aux stimuli identifiés. Dans certains cas, d’après la Commission présidentielle américaine de bioéthique, l’approche bottom up pourrait, en théorie, déboucher sur du vivant doté de fonctions différentes du vivant existant.

AGCT sont les quatre bases azotées de l’ADN

A=Adénine G =Guanine C=Cytosine T=Thymine

Exemple de l’approche bottom up

Source : rapport de la Commission présidentielle américaine de bioéthique, p. 45

L’objectif du bottom up est, comme dans un jeu de lego, d’assembler une série de pièces dotées de fonctionnalités identifiées et prédictibles pouvant être utilisées dans différentes plates-formes. Un exemple est fourni par le registre des bio-briques déjà évoqué. Ce registre contient une banque de séquences d’ADN encadrées par des extrémités standard qui permettent de les assembler dans un ordre souhaité. Ces bio-briques codent des fonctions biologiques et sont aisément combinées et échangées entre les différents laboratoires. En 2000, des chercheurs américains ont mis au point des circuits génétiques conçus à partir de bio-briques.38 Par ailleurs, le registre joue un rôle central dans le déroulement du concours annuel d’étudiants iGEM (International Genetically Engineered Machine). Comme on le verra, ce concours a beaucoup contribué à diffuser l’idée de BS. Le public peut également accéder gratuitement au registre.

●  D’après une étude de 2006, l’approche construction a pour but de créer des systèmes qui, inspirés par les principes biologiques généraux, utilisent des composants chimiques ou biologiques pour reproduire les systèmes vivants. Cette approche est donc analogue au bottom up examiné précédemment.39

●  En revanche, la démarche de déconstruction vise à « disséquer » les systèmes biologiques, pour parvenir à des formes simplifiées et minimales. D’après Victor de Lorenzo et al., les travaux sur les formes minimales de vie et sur le génome minimal relèvent de cette approche. Elle s’apparente à la démarche top down.

On peut d’ailleurs considérer que ces deux méthodes, loin de s’opposer, agissent en complémentarité dans notre compréhension du vivant.

b) Les présentations analytiques

1° L’analyse de François Képès

Le professeur François Képès41 cite, comme Markus Schmidt, l’ingénierie des circuits génétiques et les recherches sur la cellule minimale. En revanche, il intègre les proto-cellules et la BS à base de chimie dans les démarches suivantes : la reproduction du comportement émergent de la biologie par assemblage de molécules synthétiques, la reconstruction de processus biologiques communs à tout le vivant comme les voies métaboliques, le code génétique, ou l’architecture chromosomique.

2° L’analyse de Thomas Heams42

Thomas Heams prend en compte :

– les recherches sur les proto-cellules,

– les travaux sur le génome minimal, qualifiés d’ingénierie cellulaire à l’échelle du génome,

– la construction de machines à ADN : Thomas Heams inclut dans cette catégorie l’assemblage des bio-briques à l’aide du registre du MIT, d’une part, et les travaux de Jay Keasling sur l’ingénierie des voies métaboliques, d’autre part.

3° L’analyse de Markus Schmidt43

En se fondant sur la littérature, Markus Schmidt retient quatre approches44 dont il expose, comme le montre le tableau ci-après, les objectifs, les méthodes, les techniques et les cas d’application.

Ces approches sont :

– les circuits génétiques,

– les recherches sur le génome minimal,

– l’étude des proto-cellules,

– la BS fondée sur la chimie.

APPROCHES DE LA BIOLOGIE DE SYNTHÈSE SELON MARKUS SCHMIDT

 

Circuits génétiques

Génome minimal

Proto-cellules

BS fondée sur la chimie

Objectifs

Concevoir des circuits génétiques à partir de bio-briques, ou dispositifs ou systèmes standardisés

Trouver le plus petit génome pouvant assurer le fonctionnement d’une cellule en vue de construire des châssis cellulaires

Construire des cellules minimales pour mieux comprendre la biologie et l’origine de la vie

Utiliser des systèmes bio-chimiques atypiques dans des machines biologiques

Méthodes

Utilisation des principes d’ingénierie basés sur les bio-briques et la décomposition fonctionnelle

Recours à la bio-informatique

Modélisation théorique et construction expérimentale

Transformation de molécules stables telles que l’ADN

Techniques

Insertion des circuits génétiques dans les cellules

Suppression de gènes et/ou synthèse de génomes entiers et transplantation dans un cytoplasme

Production de récipients cellulaires dans lesquels sont insérés des composants métaboliques

Recherche de systèmes chimiques alternatifs assurant des fonctions biologiques équivalentes

Exemples

Portes logiques, oscillateur

Synthèse d’ADN et transplantation dans la bactérie Mycoplasma genitalium

Introduction de composants génétiques et métaboliques dans des micelles ou des vésicules cytoplasmiques

ADN fabriqué à l’aide de nucléotides modifiés (bases azotées ; sucres)

Source : Markus Schmidt, «Do I understand what I can create?», chapitre 6 de l’ouvrage collectif, «Synthetic Biology, the Technoscience and its Societal Consequences», 2009

Cette présentation est très proche de celle d’ETC, à la différence que Markus Schmidt exclut l’ingénierie des voies métaboliques, tandis qu’il classe l’expansion du code génétique dans la BS fondée sur la chimie.

4° Les approches d’ETC45

ETC prend en considération cinq approches :

– la construction de micro-organismes minimaux, que l’ONG qualifie de génomique post-moderne. Ce courant recouvre les travaux de Craig Venter sur le génome minimal,

– l’assemblage de bio-briques,

– la construction de cellules artificielles sur la base d’une démarche bottom up : cette qualification correspond à la recherche sur les proto-cellules,46

– l’ingénierie des voies métaboliques : ETC se réfère aux travaux de Jay Keasling, à l’origine de la fabrication de médicaments tels que l’artémisinine ou des biocarburants,

– l’expansion du code génétique (cf. les travaux de Philippe Marlière à Evry) : Steven Benner et son équipe de l’Université de Floride sont parvenus à augmenter le nombre de bases azotées - composantes des nucléotides de l’ADN (AGCT pour adénine, guanine, cytosine et thymine) ou de l’ARN (AGCU où l’uracile remplace la thymine) - en créant deux bases azotées artificielles. Les travaux de Steven Benner sur l’extension de l’alphabet génétique ont été commercialisés sous licence. Ils servent notamment au développement de nouveaux tests génétiques.

c) La portée de ces analyses

Ces différentes approches appellent plusieurs observations.

1° Les recherches concernant le génome minimal

Les travaux de Craig Venter sont ceux sur lesquels j’ai pu entendre ou lire les jugements les plus contrastés. Selon Philippe Marlière, le fait que Craig Venter ait synthétisé le génome complet d’une bactérie et l’ait transféré dans la cellule d’une autre bactérie (cf. encadré ci-après) constitue une performance et même une révolution. A cet égard, il a déclaré : « Il [Craig Venter] a montré que l’on pouvait copier un génome dans sa totalité sur un ordinateur, l’éditer comme un traitement de texte, le retranscrire sous forme chimique et le faire fonctionner dans une cellule. Cette technologie va permettre de concevoir des organismes entiers, de tester une à une leurs fonctions biologiques, de les faire évoluer artificiellement beaucoup plus vite. Jusque-là, les biotechnologies s’intéressaient essentiellement à la médecine et à l’agro-alimentaire. Désormais, elles vont bouleverser la chimie, le textile, les plastiques et l’énergie. Ce n’est peut-être pas une révolution scientifique, mais c’est une révolution industrielle. »47

La première cellule « synthétique » capable de se reproduire

Le 21 mai 2010, la revue Science publie un article de chercheurs du Venter Institute dans lequel les auteurs annoncent la synthèse et l’assemblage, à partir de données numériques de séquençage, des 1,08 million de paires de bases du chromosome de la bactérie Mycoplasma mycoides, auxquelles furent ajoutées quelques séquences supplémentaires pour l’en distinguer. La numérisation a été réalisée sur ordinateur, la synthèse en machine et l’assemblage dans des levures. L’assemblage dans les levures a été obtenu en trois étapes.

Dans une première étape, dix cassettes d’ADN (fragments) de 1 080 paires de bases, synthétisées en machine PCR (Polymerase Chain Reaction), ont été introduites dans une première culture de levures. Celles-ci ont lié les cassettes bout à bout, tout en se reproduisant.

Dans la seconde étape, dix cassettes de 10 800 paires de bases, correctement liées, ont été extraites des premières levures puis introduites dans une seconde culture de levures. Celles-ci les ont à leur tour liées comme précédemment, aboutissant à des cassettes de 108 000 paires de bases.

Dans la troisième étape, dix de ces cassettes ont été extraites puis introduites dans une troisième culture de levures. Les levures ayant réalisé l’assemblage du chromosome complet (1,08 million de paires de bases) ont été alors isolées puis cultivées pour multiplier le nombre de chromosomes complets. Ces derniers ont été ensuite extraits des levures puis transplantés dans des bactéries appartenant à une espèce différente, Mycoplasma capricolum. Le chromosome initial de M. capricolum a alors dégénéré, laissant le chromosome transplanté de M. mycoides prendre le contrôle. (Pour ce faire, le génome de la cellule hôte avait été débarrassé de séquences qui auraient pu altérer le génome injecté qui, de ce fait, put, lui, dégrader le génome hôte.)

Une étude récente souligne, quant à elle, que le travail du groupe Venter démontre que l’objectif de créer des systèmes vivants en laboratoire se rapproche 48. Enfin, des chercheurs font valoir que l’un des intérêts scientifiques de la recherche sur le génome minimal réside dans la possibilité de connaître le nombre minimal de gènes nécessaires à une bactérie pour se développer.

A l’inverse, d’autres scientifiques ont nuancé la portée des travaux de Craig Venter. Tout d’abord, certains contestent que ce dernier ait créé une forme de vie synthétique, le génome ayant été inséré dans une cellule existante, ce qui, pour des chercheurs comme Petra Schwille, professeure à l’Université de Dresde, est différent de la synthèse d’une cellule vivante. Pour elle, l’expérience de Craig Venter équivaut davantage à la création d’un robot bactérien qu’à une bactérie synthétique49.

Quant à l’objectif de déterminer le nombre minimal de gènes nécessaires à un organisme vivant, l’étude de Thomas Heams50, qui reprend celle de Maureen O’Malley, indique que cette démarche n’est pas exempte de subjectivité puisque, par exemple, une découverte effectuée en 2006 a fait état d’une bactérie (Candidatus Carsonella ruddii) possédant un génome de 180 gènes, soit un nombre beaucoup plus restreint que tout ce qui était connu et affirmé auparavant.

C’est pourquoi Thomas Heams juge nécessaire de se départir d’une vision purement comptable du lot minimal de gènes. Il préconise plutôt d’étudier le métabolisme minimal pour comprendre ce que pourrait être une cellule minimale. Selon Thomas Heams, cette piste est explorée par certains chercheurs pour qui la compréhension de la relation de ces organismes minimaux avec leur environnement sera cruciale, pour aboutir notamment à la création d’organismes vivants en éprouvette.

Cette question de la complexité du vivant, qui sera à nouveau abordée plus loin, constitue bien le verrou majeur que doivent lever les recherches sur le génome minimal. L’étude précitée sur les dix grands défis de la vie synthétique51 le souligne : « Mais, paradoxalement, le succès de la synthèse de l’ADN met également en lumière notre faible capacité à concevoir de novo des génomes, ce qui résulte certainement de la connaissance limitée que nous avons de la complexité inhérente au vivant. »

Enfin, comme Michel Morange, professeur à l’Université de Paris VI et à l’Ecole normale supérieure - rejoint en cela par Carole Lartigue, chercheure à l’INRA et ancienne collaboratrice de Craig Venter - on peut s’interroger sur la pertinence du présupposé selon lequel il existerait une forme minimale de vie. Car, au contraire, il est très probable que la recherche du minimum de vie ne convergera pas vers une seule, mais plusieurs solutions52.

Sur le plan éthique, les travaux de Craig Venter ont soulevé des critiques qui seront examinées ultérieurement, qu’il s’agisse de sa propension à déposer des brevets ou à « jouer à Dieu », l’objectif étant de lever des fonds privés pour sa fondation, sans se préoccuper de l’impact de déclarations et de pratiques aussi agressives.

SYNTHÈSE D’UN GÉNOME BACTÉRIEN (J. CRAIG VENTER INSTITUTE)

Source : Institut de biologie systémique et synthétique (Genopole)

SYNTHÈSE D’UN GÉNOME BACTÉRIEN (J. CRAIG VENTER INSTITUTE)

Source : Institut de biologie systémique et synthétique (Genopole)

2° La démarche bottom up

La démarche bottom up soulève d’importantes interrogations. Vincent Martin, professeur à l’Université Concordia de Montréal, a vu dans le registre bio-briques une simplification de la biologie, selon lui complexe par essence, comme l’illustrent les difficultés à comprendre le fonctionnement du génome.

En écho à ces propos, Victor de Lorenzo déclare que la question qui se pose est de savoir si les systèmes vivants peuvent être décomposés en une liste d’éléments détachés qui, par la suite, peuvent être modifiés, sans surprise, dans un but déterminé, ajoutant que, « tandis que ce serait l’objectif idéal pour l’ingénieur, le fait est que le fonctionnement de la quasi-totalité des éléments biologiques existants semble dépendre du contexte où ils se trouvent ».53

Une autre interrogation, soulevée par certains de mes interlocuteurs – comme les représentants du LEEM (Les entreprises du médicament) – concerne le rattachement de l’ingénierie métabolique à la BS. Cette interrogation revêt d’autant plus d’intérêt qu’elle se réfère aux travaux de Jay Keasling sur l’artémisinine, celle-ci étant considérée comme l’une des réussites de la BS. En effet, le rapport d’Aviesan54 voit dans l’ingénierie métabolique « la pratique la plus ancienne de la BS, directement issue du génie génétique ».

3° Les travaux concernant les proto-cellules

Jean Weissenbach, directeur du Genoscope, fait observer que ces travaux, qui en sont à leurs débuts, donnent l’illusion de créer la vie et relèvent donc, selon lui, de la science-fiction. Sur le plan fondamental, la véritable portée de ces travaux est de tenter de reproduire une propriété du vivant telle que la croissance, afin de mieux la comprendre. Les applications n’attendront pas le succès de tels travaux pour proposer des solutions visant à cibler spécifiquement des cellules malades, par exemple cancéreuses, afin de les traiter en limitant les effets sur les tissus sains.

4° Les recherches touchant au code génétique

Un article récent semble confirmer le souhait de certains chercheurs d’explorer des voies tout à fait nouvelles. Ainsi, Philippe Marlière, considéré comme l’un des représentants de la xéno-biologie55, est-il parvenu avec des chercheurs belges et allemands à contraindre des bactéries Escherichia coli à remplacer la thymine - une des bases azotées de leur ADN - par le 5-chloro-uracile, un dérivé d’une des bases azotées de l’ARN. Ce chlorure est, en général, mortel pour les organismes vivants, à moins qu’il ne soit présent à faible dose.

Les chercheurs ont commencé par mettre en culture des bactéries dans un milieu contenant ce composant en très faible quantité, puis ils ont sélectionné les bactéries les plus résistantes. L’opération a été répétée plusieurs fois en augmentant à chaque fois la quantité du chlorure d’uracile dans le milieu de culture, si bien qu’ils ont obtenu des Escherichia coli dans lesquelles toutes les bases T de l’ADN ont été remplacées par le 5-chloro-uracile.

Une analyse de l’ADN de ces bactéries a révélé que de nombreuses mutations étaient intervenues, vraisemblablement pour permettre à l’organisme de s’adapter à cette nouvelle chimie du vivant 56.

2.– LES APPLICATIONS POTENTIELLES CONSIDÉRABLES DE LA BIOLOGIE DE SYNTHÈSE

Les applications des différentes voies de recherche décrites concernent de nombreux domaines : santé, énergie, chimie, environnement, agriculture, procédés industriels. C’est pourquoi des scientifiques ont pu voir dans la BS la révolution industrielle de ce siècle et un moyen d’apporter des solutions aux enjeux majeurs auxquels l’humanité est confrontée : changement climatique, crise énergétique, bio-remédiation environnementale, lutte contre des pathologies comme le cancer, le paludisme, les virus…

Pour autant, le rapport de la Royal Academy of Engineering57 de 2009 souligne que, compte tenu du caractère émergent de la BS, les exemples concrets de ses applications sont relativement limités, et cite seulement deux cas d’application à brève échéance58. Ces remarques illustrent les problématiques, qu’il conviendra d’évoquer, touchant à la réelle et rapide faisabilité des applications de la BS et à leur mise sur le marché.

a) Des applications touchant à de nombreux domaines

Les domaines les plus fréquemment cités sont la santé, l’énergie, la chimie, l’environnement et l’agriculture.

1° La santé

Les applications prochaines ou potentielles concernent la fabrication des médicaments, celle des vaccins et une approche thérapeutique nouvelle de certaines pathologies.

Ø La fabrication de médicaments

Les deux médicaments qui, de l’avis majoritaire, pourraient être très rapidement commercialisés sont l’artémisinine et l’hydrocortisone.

● L’artémisinine est une molécule qui est extraite d’une herbe médicinale Artemisia annua, connue et utilisée - principalement en Asie - pour soigner les fortes fièvres et en particulier le paludisme. L’artémisinine et ses dérivés sont très efficaces, même sur les souches de parasites résistants, et remarquablement bien tolérés, y compris pour le traitement des enfants. Toutefois, les rendements d’extraction de l’artémisinine ne sont satisfaisants que lorsque cette plante est cultivée dans les conditions de sol et de climat des hauts-plateaux chinois et vietnamiens. De fait, la capacité de production est très nettement insuffisante au regard du nombre de cas de paludisme (ou malaria) recensés59.

Cette situation est d’autant plus critique que les résistances du parasite à la chloroquine et aux autres antipaludiques classiques se généralisent. Par ailleurs, les thérapies combinant l’artémisinine et ses dérivés, bien qu’efficaces, sont d’un coût prohibitif pour une grande partie des populations concernées. Enfin, il n’existe toujours pas de vaccin contre le paludisme, même si certains vaccins candidats paraissent prometteurs.

Dans ce contexte, comme il l’a déclaré lors de son audition le 28 mai 2010 par la commission de l’Énergie de la Chambre des Représentants, l’objectif de Jay Keasling a été de réduire le coût d’accès à l’artémisinine en recourant à un procédé de BS. A cette fin, il a modifié une levure du boulanger pour produire un précurseur chimique du médicament en transférant les gènes nécessaires à la fabrication du médicament de la plante vers le micro-organisme.

Jay Keasling a comparé la production de l’artémisinine au brassage de la bière. Le micro-organisme digère du sucre et sécrète un précurseur de l’artémisinine plutôt que de l’alcool, que la levure produirait naturellement à partir du sucre. Jay Keasling a déclaré espérer rendre l’ingénierie de la biologie plus prédictible et fiable, ce qui réduirait le coût pour développer des médicaments et d’autres produits allant des produits chimiques et des biocarburants aux produits de consommation.

D’après les informations qui m’ont été communiquées aux États-Unis, l’artémisinine fait actuellement l’objet d’un examen par la FDA dans le cadre de l’autorisation de mise sur le marché et pourrait être commercialisée en 2012.

● L’hydrocortisone - appelée aussi cortisol - est l’une des principales hormones stéroïdiennes chez l’homme. Cette hormone présente un intérêt pharmaceutique majeur, en particulier pour ses propriétés anti-inflammatoires. Elle est produite à grande échelle par un procédé chimique long et coûteux. Les premières avancées dans la recherche d’une alternative avaient déjà été présentées en 1998, mais c’est toutefois la réussite en 2002 du projet dirigé par l’équipe de Denis Pompon - directeur de recherche au CNRS - qui a permis la réalisation de l’intégralité de la chaîne de synthèse dans la levure de boulanger. Cet organisme unicellulaire, encore appelé Saccharomyces cerevisiae, permet désormais de synthétiser l’hydrocortisone à partir de l’alcool ou du sucre. Une culture de levures est ainsi capable de remplacer l’ensemble du processus industriel menant à la fabrication de l’hydrocortisone.

Cette réalisation est considérée comme une performance technologique. La production industrielle du cortisol ne nécessite pas moins de neuf étapes. La fabrication des molécules enzymatiques nécessaires à la bonne réalisation de l’ensemble de ces étapes a ainsi requis la manipulation d’une quinzaine de gènes d’origines diverses. Neuf d’entre eux ont été introduits par les chercheurs dans les levures à partir d’autres organismes : ils sont d’origine humaine, animale et même végétale. L’autre partie correspond à des gènes de la levure qui ont dû être modifiés pour maîtriser cet assemblage et assurer un fonctionnement cohérent avec les nouvelles molécules produites.

Cette expérience n’est pas seulement une prouesse technologique. Elle présente également des intérêts industriels, commerciaux et environnementaux indiscutables. La simplification du procédé doit permettre, après optimisation, une forte réduction des coûts de production. L’usine vivante ainsi obtenue est simple et autonome : les levures recombinées sont mises en présence de leur nourriture - du sucre, ou de l’alcool - dans un environnement finement contrôlé. Il en résulte que l’ensemble des étapes de la synthèse s’effectue sans déchets secondaires et sans pollution, le médicament ainsi produit étant d’une grande pureté ce qui, selon certains, permettrait d’apporter une contribution importante à la « chimie verte ».

L’hydrocortisone ainsi produite pourrait être commercialisée en 2012.

Outre l’artémisinine et l’hydrocortisone, ce sont des composés antituberculeux qui ont été découverts. Une étude des professeurs Wilfried Weber et Martin Fussenegger60 indique, en effet, que des chercheurs, à l’aide de cellules de mammifères modifiées, ont découvert de petites molécules qui ont inhibé la résistance de la bactérie Mycobacterium tuberculosis à l’antibiotique éthionamide, utilisé dans le traitement de la tuberculose.

Le dépistage de molécules anti-infectieuses ou la mise au point de médicaments anticancéreux sont d’autres domaines mentionnés par Wilfried Weber et Martin Fussenegger, dans lesquels les biologistes de synthèse ont pu améliorer les connaissances existantes. Enfin, il convient de citer la conception rationnelle de peptides antimicrobiens, qui pourrait contribuer à lutter contre les infections bactériennes, problème de santé publique majeur.

Ø La fabrication de vaccins

Lors de son audition par la Commission présidentielle américaine de bioéthique, Craig Venter, pour illustrer les différences entre les techniques du génie génétique traditionnel et celles de la biologie de synthèse, s’est référé à la fabrication des vaccins. Il a ainsi déclaré que, si l’on a pu déplorer la réponse tardive apportée par le gouvernement américain à la pandémie de la grippe H1N1, c’est parce que le vaccin a été fabriqué à l’aide d’une technologie qu’il a qualifiée de centenaire, basée sur la maturation d’œufs de poule, nécessitant plusieurs semaines avant d’être mis sur le marché.

En revanche, les techniques offertes par la biologie de synthèse - séquençage rapide, changements dans la lecture du code génétique et capacité à écrire rapidement le code génétique - permettent de faire des stocks de nouveaux germes en quelques heures.

Au demeurant, une entreprise de biotechnologie canadienne - Medicago - a développé un vaccin contre les virus H5N1 et H1N1 en employant des technologies originales qui utilisent les plantes comme bioréacteur. Ce vaccin pourrait surmonter la plupart des écueils associés aux technologies traditionnelles à base d’œufs. Tout d’abord, l’utilisation de plantes plutôt que d’œufs permettrait d’éviter les problèmes d’approvisionnement en œufs et de contamination mortelle pour des embryons d’œufs par le virus de la grippe. De même, avec les plantes, aucun temps d’adaptation de la souche n’est requis et la production de vaccins peut être initiée dans les 14 jours suivant la prise de connaissance de la séquence génétique du virus-cible. Medicago s’est vu accorder, en novembre 2010, l’autorisation des autorités sanitaires canadiennes pour procéder à l’essai clinique de phase deux de son vaccin contre la grippe H5N1.

Ø L’approche de certaines pathologies

Les possibilités offertes par la BS concerneraient la prévention, le diagnostic et la thérapeutique.

1) La prévention

L’étude précitée de Wilfried Weber et Martin Fussenegger mentionne des travaux visant à contrôler des insectes vecteurs de pathogènes humains, tels que le Plasmodium falciparium, agent causal de la malaria. Les auteurs de ces travaux suggèrent que leur méthode basée sur des mutations de gènes destinées à éradiquer un insecte nuisible pour les cultures - la mouche méditerranéenne des fruits - pourrait servir à contrôler les moustiques transmettant la malaria. Wilfried Weber et Martin Fussenegger indiquent que le Département de l’Agriculture des États-Unis a décidé le 12 mai 2009 d’inclure l’emploi d’insectes génétiquement modifiés dans les futurs programmes de l’agence pour la lutte contre les parasites infectant les plantes. La France compte d’ailleurs plusieurs spécialistes de ce type de technologie.

2) Le diagnostic

3) La thérapeutique

Deux séries de travaux cités par Wilfried Weber et Martin Fussenegger ont visé à combattre les bactéries pathogènes à l’aide de bactériophages62. La première série de travaux concerne la destruction de bio-films, qui jouent un rôle crucial dans la pathogénèse d’importantes infections cliniques. A cette fin, des bactériophages modifiés ont été insérés dans le bio-film, ce qui a distendu la structure du bio-film, tandis que les bactéries ainsi libérées ont attaqué les cellules environnantes, re-initiant ainsi le cycle antibactérien.

La seconde série de travaux a consisté à modifier des bactériophages en vue de cibler les mécanismes de résistance aux antibiotiques chez E. coli. Ce procédé a permis de constater que les bactéries ainsi obtenues avaient moins tendance à développer une résistance aux antibiotiques.

Les thérapies anticancéreuses et antidiabétiques, ainsi que la lutte contre l’obésité, sont les autres domaines dans lesquels les biologistes de synthèse tentent d’améliorer les connaissances pour mettre au point des thérapies moins invasives et plus efficaces.

● Le groupe de Chris Voigt, professeur à l’Université de Californie à San Francisco, a ainsi conçu des bactéries contrôlées pour procéder à l’invasion de cellules cancéreuses, en évitant les cellules saines, afin d’y introduire un agent cytotoxique.

● S’agissant du diabète, c’est par l’ingénierie des systèmes biologiques dans les cellules de mammifères que Ron Weiss souhaite développer un programme de biologie synthétique susceptible de détecter les niveaux de sucre à l’intérieur d’un corps humain et à y contrôler la production d’insuline.

● En ce qui concerne la lutte contre l’obésité, une équipe de scientifiques de l’Université de Californie à Los Angeles a indiqué avoir découvert, grâce à la BS, une nouvelle approche permettant de lutter contre l’obésité d’origine alimentaire. La méthode de ces chercheurs a consisté à construire une nouvelle voie métabolique chez les souris qui accentue le métabolisme des acides gras et qui serait susceptible de lutter contre l’installation de l’obésité.

Enfin, une étude récente63 fait état de certains travaux à travers lesquels des équipes tentent d’appliquer les méthodes de la BS à la thérapie cellulaire et à la médecine régénérative. Les auteurs de cette étude indiquent que, du fait du développement des cellules-souches pluripotentes64 (iPSCs en anglais), les cellules-souches adultes dérivées qui, en principe, pourraient être différenciées dans n’importe quelle cellule-type, sont maintenant disponibles. Les iPSCs peuvent être créées à partir de cellules adultes du patient au moyen de l’insertion et de l’expression de seulement quatre gènes. S’il s’agit là d’une avancée méthodologique considérable, elle n’en présente pas moins, selon les auteurs de l’étude, des inconvénients et des aspects préoccupants. Par exemple, certains gènes utilisés dans ces expérimentations jouent un rôle dans des tumeurs humaines, ce qui pourrait conduire ces cellules à former des tumeurs.

Rossi et ses collaborateurs ont examiné récemment ce problème avec une approche basée sur la BS, en procédant à la transfection65 chimique des cellules, à l’aide d’ARN synthétique. Cet ARN fonctionne comme un transcrit pour les quatre gènes-clés. Une fois introduit dans les cellules, l’ARN artificiel est traduit en protéines, qui induisent la pluripotence sans que les gènes supplémentaires ne pénètrent dans le génome.

Par cette méthode, ces chercheurs ont été en mesure de créer des cellules souches pluripotentes induites plus rapidement et avec un rendement plus élevé que par voie virale.

A noter que Cellectis, spécialiste français de l’ingénierie des génomes (Paris), met en oeuvre son expertise de l’ingénierie des génomes au service de nombreux secteurs, dont la thérapeutique humaine, à travers sa filiale Cellectis Therapeutics, créée en 2008 et dédiée au développement d’approches thérapeutiques innovantes utilisant les méganucléases pour traiter des maladies génétiques, des cancers et des infections virales persistantes.

2° L’énergie

Le pari de la BS est double : d’une part, permettre de disposer de nouvelles sources d’énergie qui puissent constituer des alternatives aux énergies fossiles, dont on connaît les limites et, d’autre part, contribuer à la réduction des gaz à effet de serre.

Pour surmonter ces obstacles, les biologistes de synthèse développent des procédés recourant à la biomasse, aux fibres cellulosiques, à la photosynthèse et à la production d’hydrogène.

Ø La biomasse

La biomasse regroupe l’ensemble des matières végétales pouvant devenir des sources d’énergie. En vue de parvenir à la transformation de la biomasse en énergie, la BS se fonde sur les réactions chimiques effectuées par les systèmes biologiques. Ainsi, les enzymes de micro-organismes comme les bactéries décomposent-elles la matière organique en molécules, à partir desquelles l’énergie pourra être extraite plus aisément.

Ø Les fibres de cellulose

A la différence de l’éthanol fabriqué à partir du blé ou du sucre de canne, l’éthanol cellulosique est produit à l’aide de fibres cellulosiques, un composant majeur des parois cellulaires des plantes. Cultiver la biomasse à des fins non alimentaires - par exemple, du myscanthus ou des déchets de tiges de blé, de la paille, des épis d’herbe, des herbes de prairie et des copeaux de bois - réduirait les pressions économiques liées au recours à l’éthanol. Cependant, l’éthanol cellulosique est un bio-alcool au rendement relativement bas qui, comme l’éthanol, tend toujours à corroder les pipelines.

On distingue deux voies conventionnelles de production de l’éthanol cellulosique :

La voie biochimique est un procédé en trois étapes : la première étape consiste en un traitement physico-chimique visant à extraire la cellulose de la biomasse qui pourra alors être transformée en éthanol ; la seconde étape est l’hydrolyse enzymatique, réalisée par des micro-organismes, de la cellulose en sucres simples (glucose) ; la troisième étape est basée sur la fermentation du glucose par des levures permettant l’obtention d’éthanol et de dioxyde de carbone.

La voie thermochimique utilise un procédé en quatre étapes : la biomasse est d’abord homogénéisée par des techniques de pyrolyse ou de torréfaction ; la seconde étape est la gazéification à haute température (plus de 1 000°C) qui permet la production d’un gaz de synthèse (le syngas) qui va ensuite être purifié pour mener à bien la dernière étape, la synthèse de Fischer-Tropsch qui transforme le syngas épuré en gazole de synthèse grâce à l’intervention de catalyseurs chimiques.

La BS vise donc à favoriser la fabrication du butanol, un bio-alcool plus prometteur. Comme l’éthanol, le butanol est produit à l’aide de la fermentation de sucres et de l’amidon ou à travers la transformation de la cellulose. Le produit brut est alors raffiné pour en faire un carburant directement utilisable dans un moteur fonctionnant traditionnellement à l’essence. En outre, il possède une densité énergétique relativement élevée.

Lors de l’audition publique organisée par l’OPECST à mon initiative, le 4 mai 2011, Marc Delcourt, président-directeur général de Global Bioenergies, a exposé les avantages présentés par l’isobutène, une molécule produite par sa société. Il est le fruit d’une voie métabolique basée sur le détournement d’enzymes naturelles qui permet la conversion en plusieurs étapes du sucre en isobutène.

Concrètement, le sucre est transformé par fermentation en isobutène, qui est un gaz. En tant que tel, il se volatilise, ce qui, à la différence de l’éthanol, permet d’éviter de le purifier. Un autre avantage majeur de l’isobutène réside dans le fait qu’il est une molécule dite « drop in », c’est-à-dire qu’il peut être directement utilisé comme essence – à travers l’un de ses dérivés l’isooctane - comme diesel ou encore comme carburant d’aviation (kérosène). L’isobutène peut – en dehors du secteur des transports – être utilisé dans le domaine des matériaux, du PET (plastique des bouteilles), du verre organique ou du caoutchouc butyle (chambre à air).

PRINCIPAUX FABRICANTS DE BIOALCOOLS

Amyris (société américaine) : utilise une plate-forme de BS pour convertir le sucre en une série de produits incluant le biocarburant dérivé d’une levure cellulosique. Le carburant à base de pétrole est récolté de façon analogue à la séparation de la crème du lait.

British Petroleum (société britannique) et DuPont (société américaine) ont noué un partenariat pour produire et commercialiser le biocarburant.

Gevo (société américaine) procède à la transformation génétique d’une bactérie pour fabriquer du bio-butanol, un nouveau biocarburant prometteur. Gevo est également parvenu à convertir la biomasse cellulosique en iso-butanol et à le convertir en kérosène.

Global Bioenergies (société française) construit des organismes capables de transformer des carbohydrates (amidon, sucres) en hydrocarbures chimiquement identiques à ceux distillés depuis le pétrole, en passant par le composé isobutène.

Le Joint Bioenergy Institute, du département de l’énergie des États-Unis (DOE) utilise la BS pour biodégrader la biomasse en biodiesel.

LS9, Inc (société américaine), a développé l’Ultra Clean, un produit fabriqué à l’aide de la BS. Ces micro-organismes utilisent le sucre de canne ou la biomasse cellulosique pour créer des hydrocarbures hautement énergétiques pour les transports.

Ø La photosynthèse à partir d’algues

Pour fabriquer du biocarburant à partir des algues, les cellules sont cultivées, récoltées et traitées chimiquement ou thermiquement en vue de récupérer l’huile contenue dans les cellules d’algues, appelée « bio-huile ».

Une stratégie alternative à ce procédé, en cours de développement mais qui n’a pas encore été mis en œuvre à l’échelle industrielle, consiste à transformer les algues afin qu’elles secrètent de l’huile de façon continue à travers la paroi cellulaire, ce qui accroît leur rendement. Grenoble compte plusieurs spécialistes du domaine : N. Rolland, E. Maréchal et G. Finazzi (iRTSV/PCV). La production de bio-huile à partir d’algues est considérée comme moins polluante. De plus, grâce à leur capacité à absorber le dioxyde de carbone, les algues offrent l’avantage supplémentaire de contribuer à réduire les émissions de gaz à effets de serre.

Ø L’hydrogène

L’hydrogène est un carburant très recherché, car c’est un combustible propre qui ne rejette que de l’eau. Il est également doté d’une densité énergétique très élevée par unité de poids. Plusieurs pistes de recherche sont explorées pour produire de l’hydrogène. L’une d’entre elles utilise la transformation de la bactérie E. coli comme organisme-hôte, en vue de produire l’hydrogène en complément d’autres biocarburants. Des recherches sont menées à Grenoble par Marc Fontecave et Vincent Artero (iRSTV/CBM). Des algues transformées sont ainsi étudiées pour constituer des sources de bio-hydrogène. Cependant, l’un des problèmes les plus sérieux concernant la filière hydrogène est la difficulté de le transporter, ce qui impose de le comprimer en préservant un bon rendement énergétique global.

PRINCIPALES ENTREPRISES PRODUISANT
DES ALGUES

Aurora Algae (société américaine) cultive des algues dans des systèmes de mares ouvertes alimentés par de l’eau de mer. L’installation pilote de Floride produit approximativement trois tonnes de biomasse par an, avec pour objectif ultime de parvenir à la production de 400 000 tonnes de biomasse d’algues par an.

Joule (société américaine) transforme des algues en vue de produire des hydrocarbures, du bioéthanol et d’autres biocarburants à partir du soleil et des résidus de dioxyde de carbone dans le cadre d’un processus continu comprenant une seule étape. Les opérations pilotes sont actuellement en cours, un développement commercial étant planifié pour 2012.

Solazyme (société américaine) utilise de la photosynthèse dans des algues pour produire un biocarburant fabriqué à base d’huile, à une échelle industrielle, avec des capacités de production s’élevant actuellement à des dizaines de milliers de gallons (soit plusieurs fois environ 38 000 litres).

En juillet 2010, Solazyme a livré, à la Marine américaine, 1 500 gallons (soit près de 6 000 litres) de kérosène fabriqué à base d’algues.

Synthetic Genomics Inc. (société américaine) a transformé des lignées d’algues en vue de produire une huile qui peut être utilisée comme matière première dans les raffineries, en utilisant un processus continu de production qui évite le cycle intermittent de culture et de récolte. En juillet 2009, Synthetic Genomics a conclu un contrat pluriannuel d’un montant de 600 millions de dollars avec ExxonMobil.

Source : rapport de la Commission présidentielle américaine de bioéthique, p. 61

Outre la fabrication d’une nouvelle génération de biocarburants, la BS pourrait également contribuer à fabriquer de l’électricité synthétique. Ainsi, l’ONG canadienne ETC fait-elle état des travaux de Yuri Gorbi, alors chef du Laboratoire national pour le Pacifique Nord-ouest du Département de l’Energie des États-Unis, qui indiquait en 2006 avoir produit de petites quantités d’électricité à l’aide de bactéries, organisées en nanofils naturels67. En 2008, une équipe a ainsi présenté au concours iGEM un projet appelé « Bactricity », basé sur la bactérie Shevanella oneidensis en vue d’assembler les cellules dans des fils et de transporter l’électricité.

3° La chimie

Lors de l’audition publique du 4 mai 2011, Philippe Soucaille, directeur de METabolic EXplorer, société créée en 1999 et dont le siège est à Clermont-Ferrand, a déclaré : « Metabolic Explorer ne s’intéresse pas aux biocarburants, parce qu’à très court terme, en tout cas, on n’y croit pas. On veut fabriquer des produits qui soient économiquement rentables. C’est pour cela qu’on s’est intéressé aux produits chimiques de commodité et aux produits chimiques existants. »

Avant de rappeler quels sont ces produits, il n’est pas sans intérêt d’évoquer les méthodes de production, concernées elles aussi par les applications potentielles de la BS. Philippe Soucaille a souligné que les principes présidant à ces méthodes de production reposaient sur l’obtention rapide des bactéries  « performantes », rendant plus efficaces les procédés de production, et amenant une économie de 30 % par rapport à la chimie traditionnelle.

Dans ces perspectives, Metabolic Explorer, seconde PME de BS au monde par sa taille, s’appuie sur trois piliers :

- la plate-forme de bio-informatique qui permet d’identifier la meilleure voie pour obtenir un produit,

- la plate-forme de biologie moléculaire, qui produit, avec des débits importants, des souches recombinantes ayant les propriétés voulues,

- la plate-forme d’analyse et de fermentation : elle permet d’analyser la cellule, avant de procéder à des améliorations,

Metabolic Explorer développe cinq produits, qui sont à des stades d’avancement variables :

• deux produits sont fabriqués en partenariat avec Roquette, un amidonnier français qui figure parmi les cinq leaders mondiaux :

Le premier est la L-Méthionine : c’est le seul acide aminé fabriqué grâce à des processus chimiques, généralement à partir du propylène, un dérivé du pétrole. Deuxième acide aminé le plus vendu au monde, la L-Méthionine est notamment utilisée pour l’alimentation des poulets et des porcelets.

Le second produit est l’acide glycolique, qui est un acide obtenu à partir d’extraits de fruits fabriqués, en chimie classique, à partir de formol (formaldéhyde). Ce composé est actuellement utilisé dans des produits de soin de la peau, en cosmétique ou encore pour équilibrer l’acidité des formulations industrielles. C’est surtout un composant essentiel à la fabrication de plastiques issus de matières premières agricoles. Metabolic Explorer développe un procédé de production à fort rendement de l’acide glycolique à partir du glucose, pour l’industrie des plastiques biosourcés. Par ailleurs Metabolic Explorer développe par ses propres procédés trois produits :

• Le 1,3 propanediol ou PDO : c’est un composé chimique de base aux qualités physiques exceptionnelles, qui entre dans la fabrication de fibres de polyester. Il est utilisé pour obtenir des textiles performants, des semelles de chaussures de sport, des revêtements, des moquettes ou encore des films thermoplastiques. En chimie classique, le PDO est produit à partir de l’oxyde d’éthylène, un dérivé du pétrole et ce, à un coût très élevé. Metabolic Explorer a mis au point un procédé permettant de produire du PDO par voie biologique à partir du glycérol, un sous-produit issu de la production de biodiesel.

• Le butanol : produit de base essentiel pour l’industrie chimique, il est fabriqué à partir de dérivés du pétrole. Il entre dans la composition de très nombreux produits, tels que les peintures, les revêtements, les adhésifs ou encore les solvants. Le projet de Metabolic Explorer est de produire du butanol à partir de la bactérie Clostridium.

• Le 1,2 propanediol ou MPG : le MPG est un composé chimique de base, produit à partir de l’oxyde de propylène (PO), issu de matières premières fossiles. Ce composé chimique est utilisé pour des applications en refroidissement, dans des produits d’hygiène et dans certains aliments. Il est aussi un composant important de résines de polyesters insaturées utilisées dans des articles d’ameublement et de salle de bains. Metabolic Explorer emploie un procédé de fermentation pour produire le MPG.

Philippe Soucaille a indiqué que le marché mondial de ces différents produits se situait entre 1,5 et plus de 3 milliards d’euros et que la plupart des projets les concernant seraient achevés d’ici un à deux ans.

4° L’environnement

Les applications de la BS dans le domaine environnemental visent généralement le contrôle de la pollution et de la protection des milieux naturels, à travers ce qui s’appelle la bio-remédiation. Cette technique est déjà utilisée dans le nettoyage des marées noires. Les bactéries du genre Rhodococcus et Pseudomonas – entre autres – absorbent et dégradent de nombreux composants du pétrole, pour les transformer en sous-produits moins toxiques. A cet égard, la Commission présidentielle américaine de bioéthique fait observer que l’utilisation de micro-organismes pour lutter contre la marée noire ayant endommagé le golfe du Mexique en 2010 a montré qu’ils pouvaient réduire certains types de pollution et a ainsi fait la preuve d’une efficacité prometteuse pour l’avenir.

La fabrication de bio-films synthétiques fournit une autre illustration des possibilités offertes par la BS dans le domaine de la protection de l’environnement. Ces bio-films en cours de développement sont destinés à être utilisés comme des bio-senseurs, en vue, par exemple, de contrôler la qualité nutritive des sols ou les signes de dégradation de l’environnement. La conception de bio-surfacteurs pourrait, selon la Commission présidentielle américaine de bioéthique, accroître l’efficacité de la bio-remédiation et minimiser les effets dommageables de certains polluants. La Commission estime que les bio-surfacteurs, naturellement produits par les bactéries, les levures ou la moisissure de champignon n’ont d’effets dommageables ni pour les environnements aquatiques, ni pour les éco-systèmes terrestres.

Pour sa part, le rapport de la Royal Academy of Engineering considère que, dans un délai de cinq ans, des bio-senseurs pourront détecter une série de produits toxiques et de métaux lourds.

5° L’agriculture

Dans ce domaine, le rapport de la Royal Academy of Engineering cite deux catégories d’applications potentielles de la BS. Il s’agit d’abord du développement de nouvelles cultures transformées qui pourront servir à la fabrication de biocarburants, tout en permettant d’obtenir une production vivrière optimale. Il en serait ainsi des matières premières provenant de cultures telles que le panic érigé, le miscanthus 68, le sorgho et le sucre de canne. Les modifications génétiques que ces plantes auront subies permettraient d’améliorer les cultures et les rendements du sucre, ainsi que de faciliter la digestion de la fibre de cellulose.

La deuxième catégorie d’applications concernerait la production de nouveaux types de pesticides, qui ne créeraient pas de dommages pour l’environnement et la santé.

6° Autres applications

Sous cette catégorie imprécise, le rapport de la Royal Academy of Engineering69 range la fabrication d’une version synthétique de la soie produite par l’araignée. Le rapport de la Royal Academy of Engineering rappelle que des populations du Sud de l’océan Pacifique utilisent la soie de la toile d’araignée pour fabriquer des filets de pêche et des pièges, en raison de sa solidité et de sa légèreté. La fabrication de sa version synthétique repose sur la réingénierie du système de sécrétion de la bactérie Salmonella typhimurium, le processus permettant de secréter les protéines de la soie d’araignée. Ces recherches, effectuées par Chris Voigt et son équipe de l’Université de Californie à San Francisco, seraient à un stade très avancé, en vue d’une production à brève échéance à l’échelle industrielle.

Selon la Royal Academy of Engineering, ce procédé pourrait avoir de multiples applications, dans des secteurs tels que l’aviation ou l’industrie automobile, qui ont besoin de matériaux à la fois robustes et légers.

b) Les questions relatives à la faisabilité

Les applications de la BS donnent lieu à une double série d’interrogations :

- Est-il pertinent de fixer un calendrier de la disponibilité de ces applications ?

- Les promesses considérables de la BS ne sont-elles pas surestimées ou ne feraient-elles pas l’objet d’annonces prématurées ?

1° La pertinence d’un calendrier des retombées applicatives

Force est de constater que la référence à un calendrier est une pratique assez répandue. Ainsi, la Royal Academy of Engineering classe-t-elle les diverses applications de la BS qu’elle a identifiées, selon qu’elles pourraient être exploitables dans des délais de 5, 10 ou 25 ans, tout en convenant que, dans ce dernier cas, il est difficile de formuler une prévision avec exactitude.

Pour sa part, l’Agence internationale de l’énergie a indiqué, dans un rapport publié au mois d’avril 2011, que les biocarburants pourraient représenter dans le domaine des transports 27 % des besoins mondiaux en carburants en 2050 contre 2 % à peine aujourd’hui.

Quant aux industriels, ils suggèrent également un délai. Comme on l’a vu, Philippe Soucaille a déclaré que les projets de Metabolic Explorer concernant la plupart des produits qu’il a cités lors de l’audition publique seraient achevés d’ici un à deux ans.

De même encore, Fermentalg, spécialiste de la recherche et du développement de la production de microalgues, a indiqué que le projet EIMA (Exploitation Industrielle de MicroAlgues)70 devrait entraîner une division par 10 des coûts de production de la biomasse issue des microalgues d’ici 5 ans, permettant à terme son utilisation pour des applications, telle que la production de bio carburants.

Certains de mes interlocuteurs ont vu dans de telles prévisions des « figures de style », considérant qu’il était impossible scientifiquement de proposer des prévisions dans un délai de 10 ans, car elles dépendent des résultats, imprédictibles à cette échéance, des recherches en cours.

D’autres se sont abstenus de formuler tout pronostic, prenant en considération les différents aspects de la BS. Ainsi Denis Pompon, directeur de recherche au CNRS, m’a-t-il déclaré que, avec une définition extensive de la BS, on peut considérer que plusieurs de ses applications sont déjà disponibles sur le marché et font partie de notre quotidien, citant ainsi en exemple la lessive, qui contient des enzymes créées par la BS, à travers l’évolution dirigée.

De même, Nestlé utilise des enzymes recombinantes pour produire des thés plus colorés. De même encore, la vectorisation71 moderne en matière de médicaments relève-t-elle de la BS d’une certaine manière.

Le point de vue de Denis Pompon est, au demeurant, partagé par le rapport d’Aviesan, l’alliance pour les sciences de la vie et de la santé, qui évalue à plus de 500 produits commerciaux le nombre de ceux qui sont fabriqués à partir de procédés incluant l’utilisation d’enzymes72.

En revanche, estime Denis Pompon, en s’en tenant à une définition étroite de la BS, limitée à la régulation des réseaux artificiels, on n’en serait encore qu’à une phase de recherche. Pour autant, il a tenu à me préciser qu’il s’agissait d’un continuum et qu’il n’était pas pertinent de chercher à déterminer le premier produit de la BS à être commercialisé.

2° Les promesses considérables de la biologie de synthèse ont-elles été surestimées ?

Quant à la question de savoir si la faisabilité des promesses de la BS n’a pas été surestimée, elle suscite deux types de réactions.

●  Certains estiment que la BS est dotée d’un potentiel tout à fait considérable, avec une vraie rupture technologique dont il est difficile de prévoir précisément les limites. Deux séries d’arguments peuvent étayer cette vision.

D’une part, on constate en effet que dans le domaine des biocarburants mais aussi celui de la médecine, plusieurs grandes entreprises ont décidé de procéder à des investissements très importants73.

D’autre part, le soutien budgétaire de l’État, tout particulièrement aux États-Unis, n’en est pas moins important. C’est ainsi que, lors de l’audition publique du 4 mai 2011 à l’Assemblée nationale, Jonathan Burnbaum - directeur de programme au Département de l’Energie - a indiqué que le programme PETRO, qui désigne l’ingénierie des végétaux pour remplacer le pétrole, a été doté le 20 avril 2011 d’une enveloppe de 130 millions de dollars (soit environ 90 millions d’euros).

Tous ces investissements importants tendraient donc à confirmer que les entreprises et certains États sont convaincus de la faisabilité et de la rentabilité future des applications de la BS. Ils y sont d’autant plus incités que, dans certains cas, on n’en est plus au stade des simples « preuves de concept » mais bien de réelles applications. L’exemple donné est celui des constructeurs d’avions qui ont fait voler leurs appareils avec des biocarburants de la nouvelle génération.

●  Face à ces réactions optimistes, une autre position s’exprime, plus critique, déplorant que certaines déclarations ne soient qu’un moyen d’attirer des crédits74, comme cela a été le cas pour les nanotechnologies à une période.

A cet égard, je relève que certains de mes interlocuteurs m’ont tenu des propos plutôt prudents. Martin Fussenegger, professeur au Department of biosystems and engineering de l’Université de Zürich, estime que, si les applications de la BS dans le domaine thérapeutique lui apparaissaient prometteuses, le délai dans lequel elles seraient exploitables serait analogue à celui de la voiture électrique.

Dans le même esprit, Ron Weiss, évoquant les thérapies anticancéreuses sur lesquelles son laboratoire travaille, m’a indiqué que leur succès était subordonné à la nécessité de procéder à des expériences chez les mammifères et à l’élaboration de modèles in vitro d’ici quelques années. Devant ces contraintes, il a estimé que ces nouvelles thérapies ne pourraient être applicables avant 20 ans.

S’agissant de la nouvelle génération des biocarburants, des appréciations prudentes ou des doutes ont été émis sur les scénarios de leur faisabilité dans des délais rapides. Un rapport de l’Institut des Biosciences de l’énergie (EBI) de Berkeley, publié en 201075, estime qu’il faudra encore beaucoup de recherches pour pouvoir développer et produire des biocarburants à base d’algues à un prix compétitif. Les auteurs de ce rapport considèrent, en effet, que même dans l’hypothèse d’un processus relativement favorable (culture, récolte, transformation), la production de biocarburants à partir de microalgues restera coûteuse au moins dans le court terme. Par ailleurs, le rapport soutient que quatre ressources-clés doivent être disponibles au même endroit pour pouvoir parvenir à une production optimale de la biomasse produite par les algues : un climat favorable, de l’eau, un sol plat et du dioxyde de carbone.

C’est donc non seulement la faisabilité dans un délai rapide des processus de la BS, mais aussi le bilan écologique positif dont elle est créditée qui suscite des interrogations.

Ainsi plusieurs études montrent-elles que l’industrie américaine des biocarburants serait une importante consommatrice d’eau76, comme la culture des céréales. En effet, pour produire un litre de bioéthanol, il faudrait consommer de 10 litres (Illinois) à 324 litres (Kansas). Les régions irriguant le moins - c’est-à-dire consommant de 10 à 17 litres d’eau pour produire un litre d’éthanol - totalisent près de 70 % de la production américaine de maïs.

De plus, s’il apparaît que la consommation d’eau pour la production de biocarburants à partir de la biomasse cellulosique - comme, par exemple, le panic érigé77 (switchgrass) - est moindre, allant de 2 à 10 litres, elle n’apporte pas de diminution par rapport à la consommation d’eau nécessaire aux procédés traditionnels de raffinage de l’essence, comprise entre 3 et 7 litres.

Le bilan énergétique de la photosynthèse obtenue à partir des algues en tant que tel n’est donc pas positif aujourd’hui, puisqu’il consomme plus d’énergie qu’il n’en produit. Une telle position doit cependant être relativisée car les algues ont d’autres applications, comme la production de molécules de haute qualité pour l’industrie pharmaceutique ou pour la fabrication des cosmétiques. De plus, la rentabilité des algues bénéficiera des avancées de la recherche en BS dans les années à venir. Par exemple, des chercheurs de l’Université de Bielefeld en Allemagne ou de Queensland en Australie ont fait produire cinq fois plus d’oxygène par l’algue verte Chlamydomonas reinhardtii après en avoir modifié le génome.

De même, une équipe de l’Ecole polytechnique fédérale de Zürich a conçu un réacteur permettant de produire du carburant à partir de l’énergie solaire et du CO2. Ces chercheurs ont indiqué que le rendement de conversion de l’énergie solaire en énergie de chaleur du carburant atteint 0,8 %, soit deux ordres de grandeur plus élevés que les procédés actuels de dissociation de CO2. Selon des analyses thermodynamiques, il pourrait atteindre jusqu’à 15 %78.

Quant à l’ONG canadienne ETC, elle fait valoir que la biomasse n’est une ressource renouvelable que si elle est utilisée en relatives petites quantités, ce qui ne permettra pas un déploiement industriel à grande échelle. ETC affirme qu’il ne sera pas possible d’accroître la production de biomasse, car elle a déjà atteint des niveaux historiquement élevés, difficiles à dépasser. ETC fait observer que ces limites sont dictées par la disponibilité en eau, en minéraux, en fertilisants et par l’équilibre des écosystèmes79.

On peut donc légitimement s’interroger sur la capacité future des industriels à produire 3 milliards de tonnes de biomasse par an à l’horizon 2050, en vue de parvenir à la quantité de biocarburants prévue par le rapport précité de l’Agence internationale de l’énergie.

Il faut cependant prendre en compte les innovations technologiques qui pourraient permettre d’améliorer les rendements. Il en est ainsi du procédé hybride de fermentation du Syngas (gaz synthétique)80. La fermentation de syngas offrirait l’avantage de convertir tous les matériaux carbonés en syngas (panic érigé, miscanthus, débris forestiers, fourrage de maïs, déchets organiques agricoles et industriels). D’après une étude de 2010 du Département de l’Energie (DOE) des États-Unis, le rendement de production d’éthanol par ce procédé est supérieur à celui des autres procédés : plus de 100 gallons d’éthanol (soit environ 380 litres) par tonne de matière sèche, contre 83 gallons (soit environ 315 litres) par tonne de matière sèche dans le cas de la voie biochimique de production de l’éthanol et 68 gallons (soit environ 258 litres) par tonne de matière sèche, pour la voie thermochimique81.

Enfin, les perspectives de la bio-remédiation ont également été revisitées et sont en évolution constante. Une étude récente82 indique que, si la BS peut offrir de nouvelles opportunités dans ce domaine, les scientifiques devront toutefois explorer les voies de dégradation dans d’autres bactéries mieux adaptées pour survivre dans les sites pollués, alors que la recherche est actuellement limitée à la bactérie E. coli.

Sur ce dernier point, Jeffrey M. Skerker, chercheur à l’Université de Californie à Berkeley, fait remarquer, dans une étude récente83 que, bien que le choix de E. coli soit naturel lorsqu’il est utilisé comme une usine chimique dans un bioréacteur de laboratoire, il n’est pas pertinent de transformer une bactérie qui se trouve normalement dans le côlon de l’intestin de l’être humain pour appliquer la bio-remédiation à un site toxique. Il serait plus approprié de transformer des organismes qui prennent directement leur source dans l’environnement concerné.

Évoquant des tentatives de bio-remédiation du sol à l’aide de la bactérie Pseudomonas, qui pourtant y vit, le professeur Jeffrey M. Skerker précise que les expériences ont échoué, du fait de la nature complexe des influences de l’environnement sur la régulation des gènes.

Toutefois, Victor de Lorenzo, chef du laboratoire de microbiologie du Centre national de biotechnologie d’Espagne, entreprend des recherches s’inspirant de celles sur le génome minimal. Il remplace, en effet, les gènes non essentiels de la bactérie Pseudomonas par des circuits métaboliques et de régulation, qui dégradent les éléments-cibles. Ces nouveaux circuits éloignent les microbes des sources de carbone, telles que le glucose, et les dirigent vers des sources d’alimentation composées de produits industriels.

3.– LES APPORTS SCIENTIFIQUES DE LA BIOLOGIE DE SYNTHÈSE

Le Groupe européen d’éthique fait observer que, pour les biologistes de synthèse, le champ de la BS ne devrait pas se limiter à ses seules applications, la BS pouvant contribuer de façon significative au progrès de la biologie en général. Le deuxième des deux exemples suivants montre même que l’apport scientifique de la BS ne se limite pas à la biologie.

Le premier exemple est tiré de l’étude déjà citée du professeur Képès « Biologie de synthèse et intégrative ». François Képès prend l’exemple du cycle circadien pour illustrer la complémentarité entre biologies systémique et de synthèse. Le rythme circadien est celui qui règle nos jours et nuits selon un cycle proche de 24 heures. Les généticiens ont découvert, il y a longtemps, les gènes et protéines impliqués dans ce rythme biologique. Cependant, l’explication scientifique du phénomène cyclique n’est pas venue des généticiens mais de modélisateurs comme Albert Goldbeter, professeur à l’Université libre de Bruxelles (Belgique), qui ont montré comment les produits de ces gènes contribuaient collectivement à un oscillateur qui règle le rythme circadien.

François Képès formule l’hypothèse qu’une entreprise confie à son ingénieur biologiste le soin de réaliser une horloge biocompatible rythmant une pompe à insuline à implanter chez un diabétique. Cet ingénieur, ayant compris les principes de l’oscillateur circadien, cherchera à les réutiliser dans un contexte différent et avec des paramètres altérés (par exemple, son cahier des charges spécifie un cycle d’une heure plutôt que 24 heures). Il va construire un modèle mathématique inspiré de celui du rythme circadien (modélisation), l’insérer dans l’ordinateur (simulation), modifier les paramètres (investigation), jusqu’à respecter le cahier des charges. Il va ensuite réaliser les constructions nécessaires par génie génétique (fabrication), puis mesurer les propriétés du système ainsi réalisé (caractérisation).

S’il mesure, entre autres propriétés, un cycle de deux heures, ce résultat expérimental va lui permettre de calibrer son modèle mathématique plus près du résultat souhaité. L’investigation par simulation va lui suggérer de rendre plus instable l’une des protéines de l’oscillateur. Il va retourner à la paillasse, modifier le code de cette protéine, puis mesurer à nouveau les propriétés du système, maintenant plus proches du but recherché. Il s’agit - dans l’approche de la BS - d’instituer une spirale d’amélioration itérative allant du modèle et de sa simulation, via la construction des objets biologiques, à la mesure de leurs propriétés.

Le second exemple illustre la contribution possible de la BS à la résolution de certains problèmes mathématiques. C’est ainsi qu’en 2009, une équipe de chercheurs du Missouri Western State University a modifié l’ADN de la bactérie E. coli, pour « créer » par ordinateur une bactérie capable de résoudre le problème mathématique dit du « chemin hamiltonien ». Ce problème pose la question de savoir s’il existe un chemin dans un réseau à partir d’un nœud de départ pour aller vers un nœud final, chaque nœud étant visité une fois.

Les chercheurs ont modifié le circuit génétique de la bactérie pour leur permettre de trouver un chemin hamiltonien dans un graphe à trois nœuds. La bactérie a ainsi résolu le problème en émettant à la fois des couleurs rouge et verte fluorescentes, dont sont résultées des colonies de couleur jaune.

RÉSOUDRE UN PROBLÈME INFORMATIQUE AVEC LES BIO-BRIQUES :
TROUVER UN CHEMIN HAMILTONIEN

Source : document communiqué par le professeur Jean-Loup Faulon

B.– LES LIMITES DU RENOUVELLEMENT DE LA BIOLOGIE PAR LA BIOLOGIE DE SYNTHÈSE

Si, comme l’indique le rapport de la Commission présidentielle américaine de bioéthique, la BS est profondément ancrée dans la biologie moléculaire, c’est parce que celle-ci a contribué au développement de celle-là. S’y ajoute également l’apport de la biologie des systèmes, qui représente une autre étape du développement de la biologie moléculaire. Par ailleurs, l’une comme l’autre se heurtent aux mêmes verrous, liés essentiellement à la complexité du vivant.

1.– LA BIOLOGIE MOLÉCULAIRE ET LA BIOLOGIE DES SYSTÈMES, CONTRIBUTRICES DE LA BIOLOGIE DE SYNTHÈSE

La BS a, en effet, tiré profit des progrès technologiques et de l’accroissement considérable des connaissances intervenus dans la biologie moléculaire et dans la biologie des systèmes au cours des dernières décennies.

a) L’influence des progrès technologiques intervenus dans la biologie moléculaire

« L’espoir de pouvoir modifier le contenu génétique d’un organisme est aussi ancien que la génétique elle-même », fait observer Michel Morange84, indiquant ainsi que les débuts du génie génétique remontent à 1927.

Toutefois, ce sont quatre catégories de techniques développées au cours des cinquante dernières années qui ont ouvert la voie aux travaux des biologistes de synthèse, ou dont ils ont pu tirer profit.

1° La synthèse chimique de l’ADN

Le développement de techniques chimiques pour la synthèse de poly-nucléotides possédant une séquence de base spécifique a commencé au début des années 60. C’est en 1972 que H. Gobind Khorana est parvenu à synthétiser un gène bactérien de l’ARN de transfert de la tyrosine. Le gène, totalisant 126 paires de bases, provenait de la réunion de plus de 20 segments synthétisés séparément puis réunis par voie enzymatique. Ce gène artificiel fut ensuite introduit dans des cellules bactériennes portant des mutations inactivantes pour cet ARN de transfert. L’ADN synthétique fut capable de se substituer à la fonction précédemment perdue.

Le premier gène synthétisé par voie chimique codant une protéine de taille plus importante - l’interféron humain - fut préparé en 1981, requérant la synthèse et l’assemblage de 67 fragments différents pour produire un seul duplex de 514 paires de bases avec les signaux d’initiation et de terminaison reconnus par l’ARN polymérase bactérienne.

Gérald Karp, biologiste moléculaire américain, classe la synthèse par Eckard Wimmer en 2002 du poliovirus - dont il a été question précédemment - dans le prolongement de ces travaux sur la synthèse chimique de l’ADN85. Dans cette expérience, la séquence de 7 741 nucléotides du virus à ARN a reposé sur l’assemblage d’oligo-nucléotides pour créer une copie d’ADN du génome viral. Les chercheurs ont alors introduit cet ADN dans des extraits cellulaires, où il a été transcrit en ARN et traduit en protéines. L’ARN et les protéines du virus, produits dans ce système cellulaire, se sont assemblés en particules capables d’infecter et de tuer les souris, ce qui a suscité des craintes quant aux risques potentiels d’une telle expérience.

Gérald Karp cite également l’ingénierie des protéines parmi les applications de la synthèse de l’ADN. Ainsi rappelle-t-il que grâce aux techniques actuellement disponibles, il est possible de créer un gène artificiel et de s’en servir pour produire une protéine possédant une séquence d’acides aminés prédéterminée86.

De même encore, la modification d’ADN déjà synthétisés dans les cellules permet-elle de produire des protéines nouvelles. C’est grâce à une technique, appelée mutagénèse ponctuelle dirigée, que les chercheurs ont été en mesure d’isoler un gène individuel à partir de chromosomes humains, d’altérer son information dans une direction précise et de synthétiser la protéine modifiée avec sa nouvelle séquence d’acides aminés. Cette technique a de nombreuses applications en recherche fondamentale et en biologie appliquée.

2° L’ADN recombinant

L’ADN recombinant désigne la recombinaison génétique entre molécules d’ADN d’espèces différentes (ou non). On a vu dans ce travail effectué en 1972 par Paul Berg et ses collègues à l’Université de Stanford la possibilité de procéder à des manipulations génétiques.

Si la recombinaison génétique est un processus naturel qui se produit de manière aléatoire tant chez les bactéries que chez les organismes supérieurs, l’expérience de Paul Berg a toutefois consisté à insérer un gène de virus de bactérie dans le génome du virus SV40 du singe. Pour ce faire, il a utilisé successivement un grand nombre d’enzymes qui constituent les outils de base de toute expérimentation en génie génétique, dont les enzymes de restriction87 pour couper l’ADN. La recherche de Paul Berg a visé à montrer que la molécule obtenue a la possibilité de se répliquer au sein d’une cellule de mammifère (ou dans une bactérie) et d’obtenir une expression des gènes assemblés au sein de ces cellules.

Ces recherches furent complétées par Herbert Boyer et Stanley Cohen qui démontrèrent qu’un gène de grenouille pouvait être exprimé dans une bactérie.

Ce rappel historique permet de mieux comprendre pourquoi, pour Steven Benner, un lien direct existe entre les recherches sur l’ADN recombinant des années 70 et celles de Craig Venter et de ses collègues sur le génome minimal, ce que reconnaît d’ailleurs ce dernier. En effet, devant la Commission présidentielle américaine de bioéthique, Craig Venter a établi un parallèle entre ses travaux et ceux qu’il a qualifiés de pionniers entrepris par Arthur Kornberg. Ce chercheur a non seulement ouvert la voie à l’expérience précitée de Paul Berg, mais il a aussi permis la mise au point d’une autre technique fondatrice du génie génétique, à savoir la réaction en chaîne due à une polymérase (Polymerase Chain Reaction - PCR).

3° La PCR

Le principe de la Polymerase Chain Reaction (PCR) est très simple. Il repose entièrement sur les propriétés de l’ADN polymérase de type 1, isolé et caractérisé par Arthur Kornberg en 1956.

Il faut attendre 1967 pour que ce même chercheur, Prix Nobel en 1959 pour le travail précédent, démontre formellement que cette enzyme pouvait produire fidèlement de l’ADN. Il utilise pour cela l’ADN d’un virus bactérien, le phage PhiX174, dont la taille du génome est parmi les plus petits génomes existants (5 386 bp : 11 gènes). Arthur Kornberg réussit à copier, in vitro, l’ADN du virus par de l’ADN polymérase I, et obtint une molécule capable « d’infecter » une bactérie et, fait important, de produire des virus infectieux.

Ces travaux inspirent à Craig Venter le commentaire suivant : « Kornberg a copié avec l’ADN polymérase, le génome de Phix, que l’on pourrait assimiler à un fragment photocopié d’ADN. Mais le plus important est qu’il ait inséré cet ADN dans E. coli, ce qui a permis la production de particules virales. »

La voie est désormais ouverte à la PCR, re-découverte en 1983 par Kary Mullis et dont Kjell Kleppe avait posé les bases dès 1971. Cette méthode, d’un niveau de performance exceptionnelle, permet de préparer une grande quantité d’ADN à partir de quantités initiales extrêmement faibles, voire de traces. Elle est désormais utilisée par la plupart des laboratoires dans le monde, en particulier par la police scientifique.

L’ADN, à l’état naturel, est composé de deux brins complémentaires. Lorsque cette molécule d’ADN est chauffée à 95°, les deux brins se séparent. Si l’on ajoute de l’ADN polymérase classique, rien ne se passe pour deux raisons :

1) à cette température, cette polymérase est détruite,

2) il manque à l’ADN polymérase un motif même très court d’ADN double brin sur lequel cet enzyme s’accroche et se positionne pour poursuivre la synthèse d’un brin complémentaire. L’ADN polymérase ne peut pas fonctionner sur un brin simple.

Pour remédier à ces difficultés, on abaisse donc la température à 50°, après avoir ajouté, dans le milieu où se trouve l’ADN désormais simple brin, de petits morceaux d’ADN (oligonucléotides de synthèse appelés amorces) capables par leur structure de reconnaître une zone à l’extrémité du brin d’ADN à copier. En abaissant la température, des hybrides se forment entre les grands fragments d’ADN simple brin et les tout petits morceaux d’ADN double brin. En répétant l’opération, c’est-à-dire en ajoutant à chaque cycle une petite quantité d’enzymes, on passe à 2 ‘’ molécules pour n cycles.

Le trait de génie de Kary Mullis fut d’utiliser l’ADN polymérase (Taq polymérase) d’une bactérie dite « extrémophile » qui vit naturellement dans les sources d’eau très chaudes et dont l’ADN polymérase n’est pas détruite à 95°. Dès lors, il suffit de placer dans un tube une petite quantité d’ADN, des amorces bien choisies et la Taq polymérase. Le tout est placé dans un appareil appelé « thermocycleur » qui porte alternativement la température à 95°, puis à 56-60°, puis à 72°, puis à nouveau à 95°, etc. Un cycle prend quelques minutes.

Il existe de nombreux protocoles différents de PCR destinés à une multitude d’applications différentes et à l’amplification de populations très diverses d’ADN. Grâce à cette technique largement répandue, il est possible, en quelques heures seulement, de produire des milliards de copies d’un fragment spécifique d’ADN. On a pu ainsi dire à son sujet qu’« il s’agit d’une technique simple, utilisant les propriétés du vivant - ici les enzymes de réplication de l’ADN - comme outils au service du chercheur88 ». C’est pourquoi les biologistes de synthèse y recourent pour synthétiser des gènes entiers ou des fragments.

4° Les outils employés par les « omiques ».

« Omiques » est un diminutif désignant les disciplines à l’aide desquelles s’est développée la biologie des systèmes, celle-ci marquant une nouvelle étape par rapport à la biologie moléculaire. « La biologie moléculaire traditionnelle, de nature " réductionniste " s’est jusqu’ici concentrée principalement sur la caractérisation des composants individuels de la cellule, gènes, protéines ou encore ARN non codants, avec pour but de comprendre la vie à partir de la caractérisation des macromolécules qui la constituent. Toutefois protéines et ARN opèrent en interagissant les uns avec les autres, formant ainsi des systèmes dont la complexité peut difficilement être comprise une molécule à la fois. La biologie systémique, de nature " intégrative et holistique " entend comprendre la vie à partir de ces systèmes.89 »

La définition de François Képès de la biologie des systèmes est la suivante : science de l’analyse systémique des comportements dynamiques et spatiaux de réseaux d’interaction entre bio-molécules.

Les « omiques » sont principalement :

- la génomique, science des génomes complets, qui étudie la structure, le fonctionnement, l’évolution, les fonctions des génomes de diverses espèces dans leur globalité,

- la transcriptomique, qui étudie l’ensemble des ARN messagers produits à un moment donné lors du processus de transcription d’un génome,

- la protéomique, qui vise à inventorier l’ensemble des protéines présentes au sein d’une cellule ou d’un organe et étudie la structure et l’expression de ces protéines ainsi que leurs interactions,

- la métabolomique, qui étudie l’ensemble des métabolites - sucres, acides aminés, acides gras, etc. - présents dans une cellule, un organe ou un organisme et leurs relations.

L’étude récente de Jiang Lian et al.2 indique que les biologistes de synthèse recourent aux outils de la génomique, de la protéomique et de la métabolomique.

b) L’accroissement considérable des connaissances

Si plusieurs de mes interlocuteurs ont qualifié la biologie des systèmes d’instrument indispensable de la BS, c’est précisément parce que la biologie des systèmes tente de parvenir à une vision plus globale et prédictive du système cellulaire (comparé à la biologie moléculaire classique), qui peut revêtir un intérêt pour la BS.

L’objectif d’une vision globale est ancien puisque, par exemple, après la seconde guerre mondiale, François Jacob et Jacques Monod avaient déjà introduit la notion de système en biochimie, comme un processus susceptible d’expliquer la différenciation cellulaire, c’est-à-dire les modalités selon lesquelles des cellules au génome identique peuvent exprimer des formes et des propriétés aussi différentes que celles d’un globule rouge et de cellules cardiaques. Ainsi, leurs recherches et celles d’autres chercheurs sur les mécanismes de régulation moléculaires ont-elles permis, fût-ce à une petite échelle, de découvrir les composants moléculaires et la logique sous-tendant les processus cellulaires, souvent en parallèle avec les caractérisations des macromolécules individuelles.

Le séquençage du génome, le développement des technologies à haut débit et la modélisation mathématique et informatique ont conduit les biologistes des systèmes à s’intéresser à l’identification et à la modélisation des réseaux, grâce auxquels gènes et protéines interagissent pour remplir les fonctions cellulaires.

Or, de tels champs d’étude sont d’autant plus importants que des mécanismes aussi différents que la synthèse de l’ADN, la production d’ATP (Adénosine Triphosphate)90 et la maturation de l’ARN sont tous accomplis par des « machines moléculaires » impliquant des interactions entre de nombreuses protéines, parfois plusieurs dizaines, produisant soit des relations stables, soit des liaisons transitoires.

C’est pourquoi les biologistes de synthèse estiment que l’intérêt de la biologie des systèmes réside dans la possibilité de comprendre et de fabriquer des réseaux biologiques, qu’ils concernent les mécanismes de régulation intracellulaires ou les rapports entre les cellules et leur environnement physique et chimique91. Estimant que l’ingénierie biologique implique de concevoir des systèmes entiers et des circuits, outre le fait de standardiser et de mélanger des modules protéiques destinés à l’accomplissement de tâches spécifiques, Petra Schwille, professeure à l’Université de Dresde, souligne que « pour réussir, la BS, quelle que soit son approche, doit unir ses forces à la biologie des systèmes »92.

Cette affirmation est d’autant plus fondée qu’un second aspect de la biologie des systèmes – l’objectif d’élaborer des modèles prédictifs – ne peut manquer d’intéresser les biologistes de synthèse.

Une telle méthode illustre bien l’application de la démarche de l’ingénieur à la biologie, notamment par le recours à la bio-informatique, caractéristique essentielle de la biologie de synthèse.

Ce souci de prédiction répond également à celui que les biologistes de synthèse assignent aux circuits génétiques et même, au-delà, à la BS93. Des banques de données – généralistes ou spécialisées – concourent à la poursuite de cet objectif de prédiction. Elles fournissent des informations sur la structure et la fonction de la protéine codée, en vue de procéder à ce que l’on appelle l’annotation des gènes.

Cette annotation se déroule en deux étapes : la première, l’annotation structurelle, permet d’identifier les zones de la séquence génomique qui déterminent les séquences protéiques. Une seconde étape cherche à associer une information aux zones identifiées et, en particulier, la ou les fonctions de la protéine dans l’organisme. Cette deuxième étape, l’annotation fonctionnelle, se réalise en précisant les réactions biochimiques auxquelles la protéine participe ou ses rôles dans les processus biologiques. La plupart des informations concernant l’annotation d’une protéine sont générées par des prédictions basées sur le calcul ou par des comparaisons avec des protéines similaires.

Concrètement, pour associer une annotation à une séquence protéique, l’annotateur exploite différents critères et met en œuvre plusieurs étapes. Lorsque l’on suppose l’annotation structurale résolue, annoter fonctionnellement une protéine consiste à identifier :

- ses caractéristiques intrinsèques directement calculables à partir de la séquence protéique ;

- les caractéristiques issues des prédictions apportées par l’analyse des résultats des logiciels bio-informatiques ;

- une protéine déjà annotée et dont la séquence en acides aminés présente des similitudes.

Les paramètres intrinsèques directement calculables concernent, par exemple, la taille en acides aminés, la séquence, le début et la fin de la traduction.

Les paramètres prédits nécessitent le lancement d’un logiciel bio-informatique et l’analyse des résultats obtenus. Pour procéder à celle-ci, l’annotateur s’appuie sur les valeurs scores proposées par les logiciels, si elles sont suffisamment discriminantes. On observe les résultats plus en détail dans le cas contraire avant de conclure. Les prédictions concernent, par exemple, la localisation sub-cellulaire de la protéine dans les différents compartiments cellulaires. Les prédictions touchent aussi aux informations issues du contexte génique, telles que les annotations fonctionnelles associées aux gènes présents en amont ou en aval du gène codant pour la protéine en cours d’annotation.

La prédiction de la structure tridimensionnelle de toutes les protéines, ce à quoi tente de parvenir la protéomique structurale, fournit une autre illustration de cette démarche prédictive de la biologie des systèmes.

La connaissance de la structure 3D des protéines apporte une information particulièrement pertinente pour permettre de comprendre son mode d’action : activité enzymatique, interaction avec d’autres protéines. La détermination de la structure d’une seule protéine demande un travail de laboratoire qui peut durer plusieurs années pour chaque structure. Par conséquent, dans le cadre de la génomique structurale, il est essentiel d’automatiser chacune des étapes décrites ci-après.

Source : Greg Gibson et Spencer V. Muse, Précis de génomique, 2005, p. 207

Les deux méthodes expérimentales pour résoudre les structures des protéines sont la radiocristallographie ou diffraction des rayons X par des cristaux et la spectroscopie par résonance magnétique nucléaire (RMN).

Trois méthodes sont utilisées pour prédire la structure tridimensionnelle des protéines :

—  La prédiction ab initio, dans laquelle la structure est directement déduite de la séquence, en acides aminés, c’est-à-dire en prédisant la probabilité qu’une sous-séquence se replie en une hélice alpha94 ou en un feuillet bêta95 à l’aide notamment de paramètres physico-chimiques. Une contrainte majeure de ce type de modélisation théorique est le nombre considérable de calculs à effectuer pour déterminer les fonctions d’énergie de tous les contacts possibles. Pour répondre à cet objectif, IBM a construit en 2005 un superordinateur appelé « Blue Gene », qui effectue 280 600 milliards d’opérations de calcul par seconde.

—  L’identification d’un repliement : le repliement désigne le processus par lequel les chaînes d’acides aminés qui constituent les protéines se replient en une spirale tridimensionnelle plus complexe. En comprenant comment les protéines se replient et quelles structures finales elles sont susceptibles d’adopter, les chercheurs espèrent en prédire la fonction. L’identification d’un repliement désigne une méthode de prédiction de la structure tertiaire 96 d’une protéine. On combine les données de prédiction de structure secondaire avec des données de similitude de séquence pour rechercher le domaine dont le repliement est déjà connu et qui s’apparente au mieux avec la structure de la protéine inconnue.

Les méthodes de calcul de la modélisation du repliement des protéines existent depuis une vingtaine d’années. Mais le professeur Jérôme Waldispühl, chercheur au centre de bio-informatique de l’Université MacGill (Montréal) a réussi à développer, avec des collaborateurs du MIT, des algorithmes adaptables à un portable pour étudier les propriétés chimiques fondamentales d’une protéine, puis évaluer les différentes formes qu’elle peut prendre avant de prédire la structure finale qu’elle est susceptible d’adopter.

—  L’ajustement sur un modèle (threading) : cette approche de la prédiction de la structure protéique se base sur la conjonction de similarités de la structure secondaire et la vérification des énergies probables de liaison des repliements potentiels.

Une fois publiées, les structures des protéines sont déposées dans une banque de données, le Protein Data Bank (PDB). PDB est une collection mondiale de données sur la structure 3D de macromolécules biologiques : protéines, principalement, et acides nucléiques. Ces structures sont principalement déterminées par cristallographie aux rayons X ou par spectroscopie RMN. Ces données expérimentales sont déposées par des chercheurs du monde entier et appartiennent au domaine public. Leur consultation est gratuite et peut être effectuée depuis le site internet de la banque. La PDB est la principale source de données de biologie structurale et permet surtout d’accéder à des structures 3D de protéines d’intérêt pharmaceutique. La PDB contenait, au 31 janvier 2012, 78952 structures.

Pour ce qui est du rôle des modèles prédictifs élaborés en biologie des systèmes, une récente étude97 fait état des avancées suivantes :

—  L’étude de la régulation du cycle cellulaire chez Caulobacter crescentus98, du chimiotactisme bactérien99, de l’organisation subcellulaire des protéines et de l’ADN dans les cellules bactériennes. A ce jour, selon les auteurs, les réseaux de régulation de la transcription sont un exemple des systèmes les mieux caractérisés par des modèles prédictifs à l’échelle du génome. Même le procaryote le plus étudié, E. coli, a bénéficié et bénéfice encore de l’analyse systémique de ces réseaux.

—  Des avancées substantielles sont également intervenues dans la reconstruction du métabolisme de divers procaryotes. Le modèle métabolique d’E. coli, par exemple, contient maintenant 48 % de l’ensemble des gènes ayant des fonctions déterminées expérimentalement. Ces modèles ont été utilisés pour fabriquer des souches, en vue d’une production de métabolite, et ce afin d’identifier des gènes putatifs100 pour des réactions orphelines. Il est important de relever que des approches adoptées pour la reconstruction de réseaux métaboliques peuvent être étendues aux systèmes complexes eucaryotes, comme dans le cas de la levure, Aspergillus nodulans101, ou de Caenorhabditis elegans.102

2.– LA COMPLEXITÉ DU VIVANT : UN VERROU À LEVER POUR LA BIOLOGIE DE SYNTHÈSE

Ce qui caractérise le vivant, c’est sa complexité et, en particulier, l’importance de ses interactions avec son environnement, ainsi que la difficulté d’en prédire l’évolution. On voit bien les verrous que cela peut constituer pour des ingénieurs cherchant à construire de nouveaux organismes, qui plus est réplicables.

La complexité du vivant comme verrou de développement de la BS fait l’objet d’appréciations différentes selon les chercheurs rencontrés.

Si la grande majorité des biologistes de synthèse n’en contestent pas la réalité, ils estiment toutefois qu’elle n’est pas de nature à empêcher les progrès de leurs recherches.

a) Une évaluation contrastée de cette complexité

La complexité du vivant, comme verrou pour la BS, suscite des divergences de point de vue entre ingénieurs et biologistes et entre les biologistes eux-mêmes.

1° Les différends entre les ingénieurs et les biologistes

Drew Endy est certainement, parmi les ingénieurs, celui qui a contesté le plus vivement le recours à la notion de complexité du vivant comme facteur limitatif de l’évolution et de la pertinence même des recherches en BS. Ainsi en 2008 indiquait-il : « Les ingénieurs abominent la complexité. Je déteste les propriétés émergentes103. J’aime la simplicité. Je ne veux pas que l’avion que je vais prendre demain révèle des propriétés émergentes durant son vol. »104

De même encore, lors du Colloque organisé par le Collège de France en 2009 intitulé : « De la chimie de synthèse à la BS », soutient-il la possibilité d’une programmation (informatique) de l’ADN : « Nous ignorons comment la faire. Mais nous essayons. Nous nous lançons avec cette idée naïve que nous pourrions mettre en œuvre une hiérarchie de l’abstraction105 nous permettant de gérer la complexité des systèmes biologiques. Le but serait qu'un opérateur puisse associer E. coli à une odeur106, sans qu'il lui soit nécessaire de savoir que l’ADN est constitué de 4, 6 ou 8 paires de bases, ni de connaître les modalités selon lesquelles on peut le synthétiser. » 107

Son objectif, constamment rappelé, de vouloir faciliter l’ingénierie de la biologie, dont le registre des bio-briques est l’instrument privilégié, fait néanmoins l’objet de critiques de la part des biologistes qui se confrontent à la complexité du vivant pour tenter de l’analyser et de la comprendre.

Précisément, si Luis Serano, chercheur espagnol, voit dans ce registre une grande idée, il estime toutefois que « nous ne devrions pas perdre de vue la décourageante complexité des systèmes vivants, en particulier celle des eucaryotes en comparaison de celle des procaryotes. Ainsi, à part la tâche ambitieuse de disposer d’un répertoire des briques pour les différents organismes, il n’existe aucune garantie qu’une brique qui fonctionne dans E. coli fonctionnera dans Bacillus subtilis. Nous ne pouvons jamais écarter la possibilité que de nouvelles propriétés émergentes et inattendues n’apparaissent en rassemblant les différentes briques qui ont été caractérisées de façon isolée ou dans un contexte différent. En outre, si nous souhaitons reconfigurer un véhicule automobile, nous connaissons déjà les spécifications de tous ses composants, et savons comment ils fonctionnent. Il est évident que ce n’est pas le cas des systèmes vivants.108 »

Dans le même esprit que Luis Serrano, Thomas Heams fait valoir que « la prédictibilité des résultats d’un programme génétique est constamment mise en difficulté par l’accrétion d’un champ de contraintes incroyablement complexes, variant dans le temps et dans l’espace, qui font de la notion même de programme (étymologiquement « écrit à l’avance ») une exception beaucoup plus qu’une règle. »109

En second lieu, évoquant la démarche de l’ingénieur et notamment l’idée qui a été défendue de pouvoir réparer une cellule comme un transistor, Thomas Heams conteste « la pertinence de déconstruire un génome en éléments de base sachant que ceux-ci n’ont jamais existé un par un, dans un catalogue, indépendamment les uns des autres ».

Les deux approches, celle de l’ingénieur et celle du biologiste, seraient-elles incompatibles ? Les entretiens que j’ai eus d’une part avec Ron Weiss et, d’autre part, avec Denis Pompon et Gilles Truan, chargé de recherche au CNRS, font apparaître une vision plus nuancée.

Ron Weiss a une démarche pragmatique et recherche, dans la complexité du vivant, les éléments simples qu’il analyse pour pouvoir les répliquer. Il prétend même pouvoir revenir ensuite à la complexité du vivant, grâce au modèle ainsi réalisé. Dans cet esprit, il avait fait déjà observer dans une étude consacrée à la deuxième vague de la BS110 : « Plutôt que de voir certains traits de la biologie comme étant problématiques, il pourrait être préférable d’en tirer profit. Il nous faut créer de nouveaux outils informatiques et de conception qui prennent en compte le caractère variable et incertain de la biologie ainsi que l’évolution et qui nous permettent de développer des systèmes plus fiables. »

Gilles Truan, pour sa part, a considéré que l’on avait eu trop tendance à opposer la démarche de l’ingénieur à celle des biologistes. Or, selon lui, il existe deux manières d’analyser les systèmes, en les déconstruisant et en construisant des morceaux. Par exemple, l’ingénierie des protéines essaye de trouver les protéines qui se fixent sur des surfaces métalliques, ce qui permet d’en comprendre le fonctionnement. En utilisant la démarche de l’ingénieur, on parvient ainsi à comprendre les problèmes de la biologie.

Quant à Denis Pompon, il a souligné que, comme le montre l’exemple de l’ingénierie des protéines cité par Gilles Truan, il était possible de comprendre la complexité en construisant. Il a également considéré qu’on pouvait parfois reconstruire des systèmes ayant les mêmes finalités que les systèmes naturels fonctionnant mieux que ces derniers, en utilisant des solutions différentes.

2° Les désaccords entre les biologistes

Les discussions ne sont pas moins vives entre les biologistes, comme en témoignent notamment les observations respectives de Michel Morange, du professeur Henri Atlan111 et d’Antoine Danchin112.

Pour mieux souligner encore la diversité des facettes de la notion de complexité, Michel Morange précise qu’« une complexité de fonctionnement n’est d’ailleurs pas forcément le fruit d’une complexité de structure : des expériences très poussées ont montré récemment que des circuits de régulation génétiques simples, formés d’un petit nombre de composants, analogues à ceux que l’on trouve en grand nombre chez les êtres vivants, pouvaient avoir néanmoins des comportements complexes. »

En dernière analyse, Michel Morange considère que, « de manière simplifiée, on peut considérer qu’un système complexe est un système dont le comportement et les propriétés sont “plus” que celui et celles de ses constituants. Il y a un effet d’auto-organisation, avec des synergies entre les composants. Quelque chose émerge du fonctionnement intégré du système. Ce qu’il faut entendre par “plus” et “émerge” fait déjà l’objet de débats : plus peut signifier simplement que la connaissance des composants étant encore insuffisante, le fonctionnement du système apparaît aujourd’hui surprenant. »

L’analyse développée par Henri Atlan113 est assez complémentaire de celle de Michel Morange. Henri Atlan rappelle d’abord que, longtemps, la notion de complexité n’a été qu’intuitive, « étant un simple mot pour désigner nos difficultés à faire face à une situation donnée ».

Se référant aux travaux du mathématicien-physicien américain John von Neumann, Henri Atlan relève que ce dernier avait jugé le concept de complexité « vague, non scientifique et imparfait ». En outre, considérant qu’il ne suffisait pas d’utiliser le mot complexité pour rendre compte des phénomènes, John von Neumann a conclu qu’il désignait des phénomènes et des choses qui restent à expliquer. Henri Atlan estime que l’histoire récente de la biologie au cours de ces quinze dernières années a donné amplement raison à John von Neumann. C’est ainsi que, note Henri Atlan, « l’immunologiste cancérologue George Klein introduisait, il y a quelques années son séminaire sur les possibles voies de transmission de signaux cellulaires perturbées dans le cancer en avertissant que “les biologistes désormais doivent non seulement vivre avec la complexité, mais l’aimer” ».

Pour sa part, Henri Atlan souligne que, pour sortir du domaine des « énoncés vagues », il avait lui-même commencé par distinguer la complexité de la complication. Celle-ci implique un grand nombre de données à traiter avec, cependant, une compréhension adéquate de la façon de les ordonner. « Au contraire, la complexité implique, en outre, une difficulté de compréhension, devant un système qui n’est qu’imparfaitement connu. »

Quant à Antoine Danchin, il fait observer que « complexité est l’un de ces mots-valises qui disent tout et son contraire. Ce mot signifie, en effet, des choses diamétralement opposées. Il signifie ou bien qu’un phénomène est d’un ordre très riche et très compliqué, parce qu’il est hautement organisé mais comporte de multiples éléments (d’un nombre généralement supposé dépasser l’entendement) ou tout au contraire, parce qu’il est très embrouillé, très désordonné. » Cela explique, à ses yeux, la pensée confuse qui entoure la biologie depuis bien longtemps, particulièrement en France.

b) Un défi réel qui n’empêche pas les progrès de la recherche

1° Un défi réel

En se référant à l’analyse d’Henri Atlan, on pourrait distinguer la complexité du système cellulaire et la complexité par le bruit.

Ø La complexité du système cellulaire

La complexité du système cellulaire illustre parfaitement les remarques rappelées précédemment de Michel Morange, Henri Atlan et Antoine Danchin. Quelques chiffres cités par Marie Montus, directrice de projets en Recherche et Développement au Généthon d’Evry, permettent de prendre la mesure de la complexité du système biologique de l’homme : environ 23 000 gènes, six transcrits par gène exprimé différemment selon les fonctions de la cellule, 60 000 milliards de cellules, des centaines de milliers d’interactions qui se déroulent dans chacune d’elles114.

Or cette complexité est d’autant plus redoutable que, aujourd’hui encore, on peut relever une insuffisance des connaissances et des difficultés à comprendre de nombreux phénomènes, tant en ce qui concerne l’organisation et la structure du système cellulaire que son fonctionnement, ce que regrettent les biologistes de synthèse tels que Sven Panke.

Les composants de ce système ne sont pas tous connus. Les biologistes s’accordent sur le fait que le séquençage du génome humain est loin d’offrir un inventaire complet et définitif du contenu total en gènes (ou informations) du génome humain, en premier lieu, parce que l’identification des séquences codantes dans une séquence d’ADN d’eucaryote n’est pas évidente et, en second lieu, parce que des zones du génome réputées sans intérêt (ADN poubelle) codent cependant pour des ARN régulateurs.

Cette difficulté tient en plus à ce que, comme le relève Henri Atlan, la notion de gène possède des significations différentes. Elle peut être considérée comme un fragment d’ADN localisé dans le génome ou un ensemble d’exons115, sans contiguïté spatiale, codant pour une protéine, ou encore une unité fonctionnelle corrélée à un caractère héréditaire dépendant de l’activité d’une ou de plusieurs protéines. Il en résulte les conséquences suivantes, indiquées par Henri Atlan dans son ouvrage « Le vivant postgénomique » :

1/ « La notion classique - un gène - une protéine - une fonction est l’exception plutôt que la règle. Non seulement, un gène code pour plusieurs protéines et une protéine est le produit de plusieurs séquences d’ADN, mais il arrive aussi qu’une seule et même protéine assure dans une cellule plusieurs fonctions totalement différentes, apparemment sans lien entre elles, suivant son emplacement et son microenvironnement. »116 Une des illustrations de cette complexité est fournie par la myopathie de Duchenne117, pour laquelle on a répertorié plus de 4 700 mutations du gène codant la protéine affectée - la dystrophine - toutes n’aboutissant pas au même phénotype118.

Deux maladies apparemment différentes peuvent résulter de mutations différentes dans un même gène, et inversement, une même maladie peut résulter de l’atteinte de gènes différents.

2/ « Le seul nombre de gènes découverts par l’analyse des génomes n’est pas une mesure de la complexité et de la diversité des mécanismes de traitement et d’expression de leur information par les réseaux de régulation intracellulaire119. »

On comprend mieux, au vu de ces observations d’Henri Atlan, les incertitudes ayant entouré les estimations du nombre de gènes qui avaient été proposées à l’occasion du séquençage du génome humain. En effet, celles-ci étaient comprises entre 30 000 et plus de 200 000. On s’accorde actuellement sur un chiffre d’environ 23 000 gènes.

On constate les mêmes difficultés en ce qui concerne le génome des bactéries. Ainsi, un rapport du National Research Council120 rappelle-t-il qu’au moins un quart des gènes identifiés dans les génomes bactériens, qu’ils soient grands ou petits, pathogènes ou non, sont « hypothétiques »121 ou de fonction inconnue. Ce qui conduit le National Research Council à s’étonner de l’ampleur d’une telle lacune, compte tenu de la longue histoire de la recherche biochimique et génétique sur les micro-organismes.

L’analyse du fonctionnement du système cellulaire constitue une autre source de difficultés pour les biologistes et les ingénieurs. C’est bien, sur ce point, un constat d’impuissance qu’exprime la conclusion de l’étude précitée de Jing Liang122.

Un tel constat est partagé par le rapport précité du National Research Council123. Il relève que « la communauté scientifique n’a pas les connaissances suffisantes pour créer une nouvelle forme de vie qui soit viable, ni même un virus ». Le National Research Council considère, en effet, que « la conception de novo d’un génome viral infectieux à l’aide d’une séquence exige une prédiction exacte de la structure et de la fonction de la protéine, une conception des interactions entre les protéines et des machines protéiques, tout ceci devant produire une progéniture de virions124, dans une cellule-hôte d’une taille considérablement plus complexe. Si nous ne pouvons pas prédire la structure et la fonction d’une protéine sur la base de séquences avec une quelconque exactitude, comment pouvons-nous concevoir et synthétiser de nouveaux virus qui se répliquent indépendamment de leur potentiel pathologique ? »

Bien que le National Research Council procède à cette analyse dans une perspective de bio-sûreté, il n’en confirme pas moins - sur le plan purement scientifique - les remarques du biologiste Gérald Karp, formulées dans son « Traité de biologie cellulaire et moléculaire ». Se référant aux études sur les interactions entre protéines effectuées à un niveau global - et non plus une à une - à l’aide du test Y2H(1)125 – Gérald Karp note que ce dernier est « fertile en incertitudes ».

Ø La complexité par le bruit

Pour ce qui est de la complexité par le bruit, qui est l’une des autres dimensions de la complexité soulignée par Henri Atlan -, elle est notamment illustrée par le caractère aléatoire de la plupart des processus biochimiques intracellulaires, y compris ceux qui contrôlent l’expression des gènes, comme l’ont montré des études récentes. C’est ainsi que la transcription des ADN en ARN et leur traduction en protéines semblent survenir par salves aléatoires, aussi bien pour ce qui concerne leur amplitude que le moment de leur survenue. Ceci a été observé notamment dans les cellules souches en cours de différenciation, ainsi que dans la maturation de populations de lymphocytes qui constitue aussi l’une des dernières étapes de la différenciation de ces cellules.

2° Le développement de la biologie de synthèse compatible avec la complexité du vivant

Que ce soit en biologie moléculaire ou en BS, la notion de complexité n’a pas eu pour effet de décourager les recherches. Bien au contraire, celles-ci contribuent à enrichir les connaissances scientifiques. Henri Atlan cite ainsi diverses découvertes, qui ont eu pour effet de remettre en cause certains modèles - par exemple celui de l’ordre du vivant « un gène - un enzyme - un caractère ». Ce modèle avait commencé à être battu en brèche à la suite de la découverte de la transcriptase inverse, processus dans lequel des séquences d’ARN, notamment de virus, peuvent être transcrites en direction opposée en nouvelles séquences d’ADN.

Mais comme le souligne Henri Atlan, le tableau a été rendu encore plus complexe par la découverte notamment de « petits ARN interférents » qui ajoutent un niveau supplémentaire dans les mécanismes de régulation de la traduction des ADN en protéines.

De même Gérald Karp observe-t-il que, quelles que soient leurs limitations, les tests Y2H à grande échelle sur les protéines précitées sont des points de départ d’études destinées à explorer une multitude d’interactions entre protéines jusqu’alors inconnues, qui toutes peuvent amener les chercheurs à un mécanisme biologique auparavant inconnu.

Il est au demeurant significatif qu’une récente étude126 cite le test Y2H comme l’un des outils pouvant être utilisé par les biologistes de synthèse pour améliorer la construction de leurs circuits de protéines synthétiques.

Mais au-delà, grâce à la construction de circuits génétiques simples, des chercheurs ont fait valoir que les biologistes de synthèse avaient pu progresser dans la programmation du comportement cellulaire et parvenir à une meilleure compréhension des principes gouvernant le comportement des réseaux naturels et déterminant leurs propriétés principales, telles que la robustesse127.

DEUXIÈME PARTIE :

L’IMPACT DE LA BIOLOGIE DE SYNTHÈSE SUR LES RÉGULATIONS ET LES ENJEUX SOCIÉTAUX

Le fait que la BS ait des liens avec d’autres disciplines - génie génétique ou nanotechnologies, entre autres - tout en étant considérée comme un champ émergent confère nécessairement une dimension ambivalente aux débats sur sa régulation et sur les enjeux sociétaux. D’un côté, comme l’ont déclaré certaines personnalités auditionnées par la Commission présidentielle américaine de bioéthique, ces débats entretiennent un sentiment de « déjà-vu », rappelant ceux qu’a soulevés le génie génétique il y a une quarantaine d’années. De l’autre côté, les spécialistes des sciences humaines et sociales - notamment - ne manquent pas de souligner les particularités de la BS suscitées par le contexte économique et social dans lequel elle se développe.

C’est bien cette ambivalence qui domine les enjeux dans les domaines suivants :

– l’appréciation et la gestion des risques,

– la propriété intellectuelle,

– la recherche et la formation,

– l’appropriation des sciences et des technologies émergentes par les politiques et les citoyens.

I.– L’APPRÉCIATION ET LA GESTION DES RISQUES

A.– LES APPRÉCIATIONS DIVERGENTES SUR LES RISQUES LIÉS À LA BIOLOGIE DE SYNTHÈSE

Ces divergences peuvent être constatées dans le cadre de l’analyse traditionnelle du rapport bénéfices-risques, mais aussi dans celui d’analyses qui pourraient être qualifiées d’iconoclastes, du fait des critères d’appréciation très sensiblement différents qu’elles retiennent. C’est le cas des positions de l’ONG canadienne ETC et du rapport réalisé par une équipe de sociologues de la London School of Economics.

1.– LES DIVERGENCES AU TITRE DU RAPPORT BÉNÉFICES-RISQUES

On distingue deux types de risques, selon qu’ils renvoient à des problèmes de sûreté ou des problèmes de sécurité. Reprenant une définition de l’OMS, la réglementation française, telle qu’elle résulte de l’article R. 5139-18 du code de la santé publique, prévoit les dispositions suivantes :

« On entend par :

« 1° Sécurité biologique : l'ensemble des mesures et des pratiques visant à protéger les personnes et l'environnement des conséquences liées à l'infection, à l'intoxication ou à la dissémination de micro-organismes ou de toxines ;

« 2° Sûreté biologique : l'ensemble des mesures et des pratiques visant à prévenir les risques de perte, de vol, de détournement ou de mésusage de tout ou partie de micro-organismes ou de toxines dans le but de provoquer une maladie ou le décès d'êtres humains. »

Qu’il s’agisse de bio-sûreté ou de biosécurité, l’appréciation des risques liés à la BS fait l’objet d’analyses contrastées, parfois contradictoires.

a) La diversité des interprétations des risques en matière de biosécurité

1° La question de l’adéquation de l’appréciation des risques liés aux OGM

Dans une étude déjà citée précédemment128, Markus Schmidt fait observer que lorsque les méthodes d’appréciation des risques liés aux OGM se sont développées, l’approche actuelle de la BS aurait probablement été considérée comme utopique. C’est pourquoi, selon lui, il nous faut nous demander si la pratique actuelle de l’appréciation des risques liés aux OGM est suffisante pour couvrir dans les années à venir tous les développements qui seront menés dans le cadre de la BS.

Les réponses à cette question sont diverses.

Selon une première approche, la BS, issue, comme les OGM, des progrès du génie génétique intervenus au cours des quarante dernières années, ne comporte pas plus de risques que ce dernier, étant précisé que le génie génétique lui-même n’a été à l’origine d’aucun accident à ce jour. Certaines méthodes de recherche et de travail de la BS contribuent d’ailleurs, dans leurs objectifs, sinon à supprimer, du moins à limiter le risque de dissémination involontaire de micro-organismes dans l’environnement.

Ainsi, Markus Schmidt considère-t-il qu’un organisme doté d’un génome minimal est déjà l’accomplissement des objectifs de bio-sûreté. Parce que cet organisme est minimal, il ne possède pas de système redondant, ce qui le rend extrêmement vulnérable aux mutations. Un organisme doté d’un génome minimal ne serait pas en mesure d’entrer en compétition avec d’autres organismes vivant dans l’environnement, puisqu’il est dépourvu de mécanismes de défense lui permettant de survivre. Pour ces raisons, un organisme minimal est théoriquement un organisme sûr. Markus Schmidt convient toutefois que de futures expériences devront confirmer la théorie dans les faits.

De façon plus affirmative que Markus Schmidt, Philippe Marlière129 et Victor de Lorenzo130 soutiennent, dans une seconde approche et sur la base d’arguments similaires, que plus les micro-organismes sont modifiés génétiquement, plus ils seront vulnérables, ce qui serait de nature à garantir un niveau de sûreté élevé.

Philippe Marlière estime qu’il est possible de parvenir à ce résultat de sécurité, grâce à certains types de confinement. Tout d’abord, le confinement trophique consisterait à faire dépendre la prolifération des espèces de la fourniture d’une molécule exogène, qui n’existerait pas dans la chaîne alimentaire des habitats naturels au sens le plus large du terme. Le confinement trophique présente l’avantage de permettre à une population composée d’espèces synthétiques exigeant un « xénonutrient » d’atteindre une taille proportionnelle à la quantité de composés exogènes mise à sa disposition. Philippe Marlière propose également l’utilisation d’acides nucléiques exogènes (XNA), qui permettrait un confinement non seulement trophique mais sémantique, c’est-à-dire que les acides nucléiques comporteraient des bases azotées nouvelles - reconnues ou non - par l’ARN de transfert au cours de la synthèse des protéines.

Pour sa part, Victor de Lorenzo déclare que les bactéries génétiquement modifiées n’ont jamais causé de dommage à l’environnement. A cet égard, il relève que les efforts accomplis dans le domaine du génie génétique à la fin des années 70 ont permis le développement des bioréacteurs confinés basés sur les applications des biotechnologies.

Il fait également valoir que les recherches intensives et extensives financées par l’Union européenne sur la dissémination intentionnelle d’OGM ont conclu que, pour tout paramètre contrôlé, les OGM n’ont ni plus ni moins d’impact environnemental que leurs équivalents naturels. « Autrement dit, en termes de risques, il n’y avait rien de spécial au sujet de ce qui était recombinant. » Les mêmes conclusions ont été formulées aux États-Unis.

Victor de Lorenzo soutient ensuite qu’en quarante années de pratique du génie génétique, celui-ci n’a pas produit de micro-organismes plus ou moins virulents ou pathogènes que les micro-organismes naturels. Sur ce point, il fait observer que la reconstruction du virus de la grippe espagnole, qui a défrayé la chronique, a simplement copié quelque chose qui existait auparavant dans la nature et n’a rien à voir avec la création d’un nouveau pathogène.

Estimant que des milliards d’années d’évolution bactérienne auraient abouti à une homéostasie inaltérable, il confirme que, plus un organisme est modifié génétiquement, plus sa dangerosité diminue, car sa capacité d’adaptation aux conditions du milieu s’amoindrit. C’est pourquoi, selon lui, si l’on construit un microbe artificiel destiné à convertir de la cellulose en hydrogène, il y a peu de chances - même si le risque ne peut, à ce stade, être complètement écarté - qu’il s’échappe dans les bois et qu’il provoque finalement une explosion incontrôlable, du fait de l’intense homéostasie - existant aux niveaux global et local - du monde microbien.

Les raisonnements de Philippe Marlière et de Victor de Lorenzo, malgré la conviction avec laquelle ils sont exposés, n’en suscitent pas moins des objections. S’agissant d’abord du confinement des OGM synthétiques dans l’environnement, certains le jugent encore théorique, surtout dans le cas des bactéries. En outre, des techniques de confinement sont bien utilisées dans le corps humain. Mais pour autant, il paraît délicat d’affirmer que de telles techniques pourraient être appliquées avec succès dans le sol ou les milieux aquatiques.

Chez l’homme, les gènes « suicide » (confinement génétique) sont en effet utilisés dans le cadre de la thérapie génique, notamment contre certains cancers. Ainsi des chercheurs du CEA de Grenoble recourent-ils à cette technique, pour empêcher les vaisseaux sanguins d’alimenter les cellules cancéreuses, de façon à ce qu’elles périclitent131.

On peut aussi objecter à Victor de Lorenzo qu’il sous-estime la complexité des interactions entre micro-organismes ainsi que l’incertitude qui régit la biodiversité, Michael O’Donohue, directeur de recherche à l’INRA, ayant précisé, sur ce dernier point, que nous ne connaissions que 5 % des facteurs influant la biodiversité.

Cette notion d’incertitude est au cœur de diverses analyses entendues par la Commission présidentielle américaine de bioéthique, notamment celle exprimée par Markus Schmidt.

2° Les diverses analyses de la notion d’incertitude

Ø L’analyse de Markus Schmidt

Dans son étude précitée132, Markus Schmidt procède à une confrontation entre la technique actuelle d’évaluation des risques liés aux OGM et les différentes approches de la BS.

1) Les circuits biologiques basés sur l’ADN

Markus Schmidt rappelle les termes du communiqué de la quatrième réunion de la Conférence des Parties au Protocole de Cartagène sur la biodiversité, qui s’était tenue au mois de mai 2007.

S’agissant de l’Annexe III, relative à l’évaluation des risques, ce communiqué précisait : « En outre, nous sommes convenus que toutes les évaluations de risques concernant les organismes vivants modifiés devraient être menées au cas par cas, puisque les impacts dépendent de la caractéristique de la modification, de l’organisme receveur et de l’environnement dans lequel ils ont été ingérés. »

Pour Markus Schmidt, ces orientations montrent que les développements de la BS pourraient mettre en évidence d’importantes lacunes, en dépit du cadre d’évaluation des risques actuellement mis en place pour les OGM. Car une des différences entre le génie génétique et la BS tient à ce que, au lieu d’une partie de l’organisme, c’est l’intégralité des systèmes biologiques qui peut être transférée, usant potentiellement de centaines ou de milliers de caractéristiques provenant de différents organes donneurs. Les effets émergents dans la création de circuits génétiques synthétiques pourraient être la cause, selon Markus Schmidt, de difficultés dans la création des processus ainsi que de nouvelles incertitudes. Aussi est-il important d’analyser si la méthode actuelle d’évaluation des risques est en mesure de traiter ces multiples hybrides. La réponse serait négative pour ces systèmes de circuits biologiques. Car, au lieu de devoir évaluer les conditions dans lesquelles le nouvel élément génétique se comporte - dans la nouvelle cellule, dans un environnement déterminé - il est maintenant nécessaire d’évaluer les interactions entre les nombreuses parties génétiques, insérées dans la cellule. Ces interactions n’auront pas d’équivalent comparable dans la nature, ce qui accroîtra la difficulté à prédire le comportement de la cellule avec un degré élevé de certitude.

C’est pourquoi, selon Markus Schmidt, de tels systèmes biologiques soulèvent plusieurs enjeux, mentionnés dans l’encadré ci-après - si nous supposons que le système biologique a été conçu et inséré dans un organisme-bâti (ou châssis).

– Prédictibilité : Les caractéristiques du comportement du nouveau réseau peuvent-elles être prédites avec un degré de certitude qui autorise une estimation raisonnable des facteurs de risques ?

– Évolution des forces : Qu’arrive-t-il au réseau si une ou plusieurs briques changent de fonction ou arrêtent de travailler comme prévu ? Comment l’ensemble du réseau changera-t-il ses caractéristiques ?

– Robustesse : Comment la robustesse génétique ou fonctionnelle peut-elle être mesurée ? Que représenterait une « unité » significative et appropriée pour la robustesse de circuits biologiques ?

– Fiabilité : Dans quelle mesure un circuit biologique est-il fiable ? Comment sa fiabilité peut-elle être mesurée ?

– Risque : Pourrait-il y avoir des événements ou des séries d’événements imprévus entraînant des décès, des blessures, des maladies professionnelles, des dommages à la propriété ou à l’environnement ?

– Limites de l’analogie avec les circuits électroniques : De quelle robustesse les circuits biologiques orthogonaux sont-ils dotés pour éviter les croisements entre les éléments fonctionnels de son circuit ?

En plus de ces défis, Markus Schmidt remarque que, jusqu’à présent, les caractéristiques techniques des briques incluses dans le registre des bio-briques ne contiennent guère d’information explicite sur la sûreté. Il estime que, malgré certaines améliorations, un long chemin restera encore à parcourir avant que les caractérisations en matière de sûreté ne puissent finalement constituer la base d’un processus correct d’évaluation des risques, qui permette de décider si un circuit biologique est ou non sûr avant qu’il ne soit commercialisé ou disséminé dans l’environnement.

2) Le génome minimal

Un organisme doté d’un génome minimal, observe Markus Schmidt, est en soi un organisme sûr, puisqu’il peut seulement habiter dans des environnements déterminés et ne sera pas en mesure de s’en échapper. Pour autant Markus Schmidt considère que, pour prouver cette viabilité limitée, il serait utile de procéder à divers essais de dissémination dans des environnements différents de son environnement original en vue d’obtenir des données expérimentales réelles sur la gamme des environnements appropriés pour les organismes minimaux.

Selon lui, des évaluations supplémentaires seront nécessaires pour les organismes minimaux qui ont été implantés dans de nouveaux circuits biologiques, car de tels organismes ne peuvent être considérés comme des organismes minimaux. On doit prendre garde au cas où un circuit biologique implanté contribue à élargir la niche écologique d’une cellule de façon délibérée ou non intentionnelle.

3) Recherches sur les proto-cellules

Bien qu’actuellement, il y ait peu de preuves que les proto-cellules soient source de risques, Markus Schmidt estime qu’il est nécessaire d’en surveiller les développements, dans le cas où l’une d’entre elles déboucherait dans un proche avenir sur la création du vivant, ce qui, pour l’instant, de l’avis général, relève de la science-fiction.

4) La biologie de synthèse basée sur la chimie

A l’heure actuelle, aucun organisme vivant n’a été créé à partir d’acides nucléiques non naturels. Il n’existe guère de preuve que cela se produise dans un avenir proche. Toutefois, Markus Schmidt considère que la combinaison de l’extension du code génétique avec une nouvelle polymérase bien élaborée pourrait certainement conduire à de nouvelles étapes vers la mise en œuvre d’un système génétique artificiel, par exemple dans E. Coli. Bien que l’on ignore si de tels organismes artificiels peuvent être créés, on devrait toutefois se demander comment l’on pourrait évaluer leurs risques potentiels.

Ø L’approche bénéfices-risques de la Commission présidentielle américaine de bioéthique

La Commission présidentielle américaine de bioéthique procède à une analyse bénéfices-risques de chacune des applications.

S’agissant de l’énergie, elle relève que la contamination résultant de la dissémination intentionnelle d’organismes fabriqués par la BS figure parmi les risques attendus. Car, à la différence des produits fabriqués par la chimie de synthèse, généralement bien définis et dotés de qualités prédictibles, les organismes vivants sont plus difficiles à maîtriser. Une dissémination mal contrôlée pourrait, en théorie, conduire à un croisement non souhaité avec d’autres organismes et à une prolifération incontrôlée, et menacer ainsi la biodiversité.

Envisageant la production de biocarburants à base de microalgues cultivées dans une mare, la Commission suggère un scénario-catastrophe dans lequel une nouvelle espèce d’algues bleu-vertes à haut rendement s’échapperait de son bassin et entrerait en concurrence avec des algues naturelles. Un organisme durable dérivé de la biologie synthétique pourrait alors se répandre dans les eaux naturelles, dans lesquelles il pourrait croître, chasser d’autres espèces et priver l’écosystème de nutriments vitaux, entraînant ainsi des conséquences négatives pour l’environnement.

Pour autant, la Commission estime que ce scénario est théorique. Car, pour elle, l’un des avantages offerts par la BS réside dans la diversité des outils et des stratégies destinés à remédier à de tels risques par la fabrication de gènes dits « terminator » ou « suicide ». Ces gènes peuvent être incorporés dans les organismes, ce qui les empêche de se reproduire ou de survivre en dehors du laboratoire. La Commission considère que certains des instruments élaborés par les chercheurs suffisent à neutraliser le risque de dissémination, ce qui est contesté par d’autres chercheurs, qui exigent des études supplémentaires à mesure que la BS se développe.

Une autre source de risque, susceptible de causer des dommages aux écosystèmes, est l’affectation des terres agricoles et d’autres ressources naturelles à la production de biomasse en vue de servir à la fabrication de biocarburant. La Commission considère que si de grands espaces devaient avoir de telles finalités, cela pourrait conduire à de nouvelles et intenses pressions sur la terre, en affectant potentiellement les productions vivrières, les petits producteurs dans les communautés villageoises et les écosystèmes existants.

La Commission souligne que, parce que les applications de la BS sont encore récentes, l’impact de la production de biocarburants sur l’utilisation de la terre n’est pas encore connu. Mais d’autres voix s’élèvent, comme celles des ONG, pour dénoncer l’impact du développement des biocarburants cellulosiques sur l’utilisation des terres agricoles aux États-Unis comme dans d’autres pays. D’autres - des chercheurs ou des industriels - suggèrent que la production de biocarburants serait sûre et se développerait au prix d’ajustements mineurs des pratiques actuelles d’utilisation de la terre agricole.

Au final, la Commission note que les rendements potentiels envisagés seraient encourageants, ce qui plaide en faveur du développement des biocarburants de synthèse, d’autant que la réduction du recours aux énergies fossiles permise par une telle production compenserait, selon elle, les risques attendus pour l’écosystème.

Toutefois, pour la Commission, une incertitude considérable demeure. En ce qui concerne l’impact de la BS sur la santé, elle note que, comme pour l’énergie, les risques potentiels sont à envisager, en cas de dissémination d’organismes fabriqués à l’aide de la BS. De même, de nouveaux organismes issus de la BS pour traiter des maladies peuvent provoquer des effets défavorables non prévus chez les patients. Ainsi l’usage de thérapies cellulaires d’origine bactérienne peut-il causer des infections ou des réponses immunitaires non prévues et non prédictibles au vu des connaissances actuelles.

La Commission estime que les nouveaux organismes fabriqués à l’aide de la BS peuvent représenter des risques inhabituels, si ce n’est sans précédent, résultant de leur potentiel de reproduction et d’évolution.

La Commission considère toutefois que nombre de ces risques sont qualitativement similaires à ceux qui surviennent dans la recherche biomédicale ou biotechnologique menée actuellement. Elle fait valoir, à cet égard, qu’il existe des mécanismes bien établis destinés à identifier et à gérer ces risques. De surcroît, comme pour les applications dans le domaine de l’énergie, des systèmes ont été conçus pour réduire ou éliminer ces risques. Ainsi l’ingénierie de la bio-sûreté vise-t-elle à construire des « freins » moléculaires ou des « ceintures de sécurité » qui limitent la croissance ou la réplication totale ou partielle de micro-organismes synthétiques. Ceux-ci peuvent être fabriqués pour être confinés physiquement ou temporairement.

Dans les domaines de l’agriculture, de l’alimentation et de l’environnement, la Commission indique que les risques liés aux applications de la BS sont analogues à ceux qu’elle a identifiés dans les secteurs de la santé et l’énergie. Pour autant, la Commission souligne que des efforts ciblés sont nécessaires dans les secteurs agricole et environnemental plus que dans les autres domaines, incluant le recours aux mécanismes incorporés - dont les gènes suicide - pour prévenir tout risque de dissémination accidentelle.

Mais surtout la Commission observe que de nombreuses applications de la BS vont au-delà du génie génétique pratiqué dans la biotechnologie aujourd’hui. Dans l’avenir, la BS pourra être capable de créer des organismes entièrement nouveaux et des systèmes qui, auparavant, n’existaient pas.

Elle relève également que les détracteurs de la BS tout comme ses partisans s’inquiètent du fait que, la création de nouveaux organismes ayant des fonctions incertaines et imprévisibles, des interactions non prédictibles à ce jour puissent affecter les écosystèmes et d’autres espèces dans des conditions inconnues et défavorables. Les risques associés de dissémination et de contamination peuvent être extrêmement difficiles à analyser à l’avance, étant donné que les nouvelles entités ainsi créées n’ont pas de références en termes d’évolution et d’impact environnemental. La Commission estime à cet égard que, malgré les découvertes de certains scientifiques selon lesquelles les organismes synthétiques autorisés à être fabriqués en laboratoire évolueraient toujours vers la non-fonctionnalité, des précautions doivent être prises dans le cas où un organisme synthétique se comporte hors du confinement du laboratoire différemment de ce qui avait été prévu.

Une deuxième préoccupation concerne l’impact des organismes synthétiques sur la biodiversité. La Commission se demande si un organisme résultant d’une synthèse chimique accroît ou appauvrit la biodiversité, telle que mesurée par les systèmes de classification traditionnels. Aux yeux de la Commission, la notion de biodiversité prend toute son importance environnementale et politique (notion d’arbitrage politique à opérer), lorsque l’utilisation de terres agricoles et d’autres ressources naturelles est en jeu.

Ø L’avis des scientifiques entendus par la Commission présidentielle américaine de bioéthique

Ces scientifiques ont fait état de réflexions concernant notamment la méthode d’évaluation des risques, son adaptation aux spécificités de la BS ainsi que les difficultés auxquelles elle peut se heurter.

En ce qui concerne la méthode d’évaluation des risques, Nancy King, professeure de sciences sociales et de politique de la Santé à Wake Forest University School of Medecine, a tenu à préciser les paramètres devant, selon elle, régir l’évaluation des risques. Elle considère que l’on devrait parler de bénéfices et de préjudices plutôt que de risques et de bénéfices, l’analyse du rapport préjudices-bénéfices lui paraissant plus complexe. Elle préconise également d’examiner avec précision tous les bénéfices et les préjudices au lieu d’en parler de façon approximative.

Elle introduit les critères suivants : leur nature anticipatrice, leur importance, leur durée et leur vraisemblance. Cette démarche repose sur trois motivations. Elle aide à éviter de tirer la fausse conclusion selon laquelle les bénéfices sont certains et les préjudices improbables. Elle contribue à promouvoir une compréhension plus nuancée des bénéfices potentiels et des risques, quelle que soit leur origine. Enfin, elle garantit la reconnaissance des compensations qui existent dans toute avancée médicale et scientifique.

En second lieu, Nancy King considère que l’évaluation doit inclure la prise en considération des alternatives valables. A cet égard, elle estime que la spécificité du contexte de la BS invoquée par plusieurs personnalités auditionnées par la Commission n’est en réalité pas propre à la BS. Classant la BS dans la catégorie des nouvelles biotechnologies, Nancy King fait remarquer que la BS présente de nombreuses incertitudes et inconnues - qu’il importe d’analyser - mais aussi de nouvelles voies menant à des bénéfices potentiels. Toutefois l’histoire d’autres nouvelles biotechnologies montre que le bénéfice peut ou non se concrétiser.

Le deuxième thème, relatif aux particularités de l’évaluation des risques en BS, porte, selon les intervenants, sur la question de savoir si cette évaluation est réellement différente de celle qui a été appliquée au génie génétique. Michael Rodemeyer, professeur à la School of Engineering and Applied Science de l’Université de Virginie met ainsi l’accent sur l’ambivalence qui caractérise, à ses yeux, l’évaluation des risques en BS. D’un côté, il relève que de nombreux intervenants ont indiqué à la Commission présidentielle américaine de bioéthique que les débats soulevés au cours des années 70 et 80 par l’ADN recombinant en matière de bio-sûreté sont, souvent, les mêmes que ceux qui concernent la BS. Pourtant, il constate qu’il existe des différences entre les deux domaines, lorsque l’on pose la question essentielle, à ses yeux, de savoir comment prévoir le risque potentiel lié à un organisme, en vue de connaître le niveau de bio-sûreté et de biosécurité à mettre en place. Michael Rodemeyer estime que, pour la technologie de l’ADN recombinant, cette évaluation est relativement simple parce que l’on peut trouver l’origine naturelle du segment de gène d’intérêt et déterminer sa fonction sur la base des connaissances naturelles.

En revanche, l’évaluation en BS lui paraît compliquée à assurer. Car un micro-organisme synthétique peut être assemblé à partir de briques génétiques modifiées prises dans plusieurs organismes qui n’ont aucun rapport entre eux ou même qui ont été construits de façon totalement artificielle en laboratoire. Dès lors, estime Michael Rodemeyer, il est concevable que les parties opèrent dans le nouvel organisme de façon inattendue et révèlent ainsi des comportements émergents.

Pour sa part, Nancy King réfute l’idée de nouveauté de la BS. Se référant aux propos d’intervenants soulignant que les développements de la BS sont seulement le fruit d’avancées incrémentales allant au-delà des développements nouveaux des biotechnologies en général, elle déclare : « Si c’est le cas, rien n’est réellement nouveau. L’évaluation du rapport préjudices-bénéfices en BS n’est pas, de façon significative, différente de celle qui est appliquée à d’autres nouvelles biotechnologies, y compris, par exemple, le transfert de gènes, le génie génétique, l’ingénierie tissulaire, la médecine régénérative et les nanotechnologies. »

Quant aux difficultés auxquelles l’évaluation des risques en BS est susceptible de se heurter, trois points évoqués par les intervenants méritent l’attention.

La première difficulté concerne l’évolution très rapide des recherches. Ainsi Michael Rodemeyer fait-il observer que la première génération des produits de la BS est, conformément aux attentes, relativement simple et pas très différente de la catégorie de leurs équivalents génétiquement modifiés, bien connus des Agences. Dans le court terme, ils ne soulèveront pas de nouveaux problèmes en matière d’évaluation et de gestion des risques.

Toutefois, Michael Rodemeyer considère que, du fait du développement continu de la technologie, et de la complexité et de la nouveauté croissantes des organismes de plus en plus artificiels, la capacité à évaluer les risques qui leur sont liés constituera un véritable défi. Ce sera un problème particulièrement sensible pour les micro-organismes destinés à être utilisés dans l’environnement. On peut s’interroger, dans ce contexte, sur la pertinence du transfert de la recherche à l’industrie de travaux dont on ne serait pas encore capable de mesurer les risques potentiels.

Une deuxième difficulté a trait à l’absence de transparence des activités de l’industrie, liée à la protection du secret industriel, notamment dans la production des biocarburants de nouvelle génération. A cet égard, Allison Snow, professeure à l’Université de l’Ohio, dans un laboratoire « plant population ecology laboratory », fait remarquer que le contrat s’élevant à six cents millions de dollars passé entre ExxonMobil et Craig Venter ne permet d’obtenir aucune information sur les algues génétiquement modifiées qu’ils envisagent de développer. Or, elle observe qu’il serait utile de savoir de quel type d’algue il s’agit, si elles sont dotées de gènes suicide, si elles vont croître dans des mares en plein air ou seront confinées dans un bioréacteur, si le milieu aquatique concerné contiendra de l’eau douce ou de l’eau salée, tous ces éléments ayant des conséquences différentes sur le niveau de risques potentiels.

Un dernier point soulevé également par Allison Snow concerne l’absence d’étude d’impact environnemental. Elle relève qu’une telle carence tient à ce que, d’habitude, les questions touchant à la dissémination dans l’environnement sont éclipsées au profit de celles relatives à la bio-sûreté et à la biosécurité. Elle estime également que l’accent est mis davantage sur les bénéfices potentiels que sur les préjudices éventuels de la BS.

En conclusion, dans ses préconisations, Allison Snow souligne la nécessité d’adopter pour la BS une évaluation au cas par cas, comme pour les OGM. Tous les organismes synthétiques ne présenteraient pas le même degré de risque potentiel. De plus, jusqu’à présent, les travaux menés en BS sont pour la plupart à un stade très précoce de recherche et développement. Ceux qui sont les plus avancés peuvent recourir à des organismes synthétiques totalement confinés. Sachant que la dissémination hors des installations de confinement n’est pas à exclure, Allison Snow considère que le risque est majoré en cas de passage à l’échelle industrielle. Définissant les points à prendre en considération, elle appelle l’attention sur la nécessité d’être très prudent lorsque des organismes s’auto-répliquant sont disséminés dans l’environnement. Selon elle, beaucoup d’entre eux ne sont pas susceptibles de provoquer de préjudices, mais des exceptions ne sont pas à exclure.

Évoquant le scénario-catastrophe hypothétique d’algues bleu-vertes destinées à produire des biocarburants - dont l’idée a été reprise par la Commission –Allison Snow souligne que ce type d’algues relâche des toxines dans l’environnement, produites par les blooms133. Pour ces raisons, elle considère qu’il conviendrait de cesser de les cultiver.

S’agissant de la fiabilité des confinements physiques ou biologiques, en termes de sécurité, Allison Snow émet de fortes réserves. Ainsi note-t-elle que les gènes suicides peuvent ne pas toujours fonctionner, du fait d’erreurs humaines de manipulation et d’événements inattendus qui pourraient leur permettre d’échapper à tout contrôle.

De même, la probabilité d’une mutation rapide est-elle particulièrement élevée chez les microbes. Certains meurent, mais d’autres pourraient prospérer et évoluer. C’est le cas des organismes génétiquement modifiés qui pourraient échanger des gènes avec d’autres lignages ou d’autres espèces, créant ainsi une progéniture hybride, au sein de laquelle les gènes synthétiques les plus prospères seraient répandus dans leur descendance. En conséquence, Allison Snow considère que l’on ne peut prétendre catégoriquement que tous les organismes domestiqués ou censés être des organismes suicide génétiquement modifiés ne seront pas en mesure de persister dans l’environnement.

Enfin, Allison Snow estime qu’il est extrêmement difficile de déterminer les nouveaux organismes susceptibles de causer des préjudices irréversibles. Cette tâche est, selon elle, plus aisée dans le cas d’une culture génétiquement modifiée comme le maïs ou le soja, parce qu’ils ont été domestiqués et qu’ils nous sont familiers. Ils sont entièrement dépendants des humains et n’ont pas d’ancêtres sauvages, au moins aux États-Unis. En raison de cette expérience précoce avec les cultures génétiquement modifiées, il est plus aisé de disposer d’une base de comparaison, d’examiner les nouvelles caractéristiques et d’estimer qu’elles ne causeront pas de problèmes à l’environnement.

En revanche nous ne disposons pas de beaucoup d’expérience avec les microalgues ou les bactéries cultivées en plein air, sans parler des nouvelles formes de vie qui seraient entièrement synthétiques. Cela soulève, selon Allison Snow, la question de savoir si les agences seront en mesure de surveiller et d’évaluer les nouveaux types d’organismes entièrement ou partiellement synthétiques susceptibles de se disséminer.

Pier Luigi Luisi, professeur à l’Université de Rome 3, partage l’analyse de Michael Rodemeyer, d’Allison Snow et de Nancy King en estimant, lui aussi, que l’un des risques potentiels créés par la BS réside dans la faculté qu’auraient les chercheurs à créer des micro-organismes contre lesquels l’homme ne pourrait se défendre, du fait de leur nouveauté. Il faut cependant relativiser la portée de ces questions, car, pour de nombreux biologistes et bio-ingénieurs, on est encore très loin de la fabrication d’organismes nouveaux dont on ne sait même pas s’il sera possible un jour de les réaliser. De plus, les micro-organismes ainsi créés sont très vulnérables car ils n’ont pas de défenses adaptées pour survivre.

b) L’évaluation des risques en matière de bio-sûreté : entre surévaluation et évaluation circonspecte

Les spécialistes sont, en matière de bio-sûreté, confrontés à un double risque : celui du bioterrorisme, dont le détournement éventuel de la BS à des fins terroristes est un aspect, et celui de la biologie dite « de garage » facilitée par la vente en ligne de séquences d’ADN.

Dans les deux cas, on constate une fois encore que les évaluations sont contrastées.

1° Le risque d’un détournement de la biologie de synthèse à des fins malveillantes

Cette éventualité a été évoquée par Jonathan Tucker, spécialiste américain des questions de bio-sûreté134. Un rapport sur la bio-sûreté et la recherche à usage dual135 souligne que, jusqu’à il y a encore quelques années, les principales questions touchant aux risques liés aux biotechnologies étaient les suivantes : le clonage est-il autorisé ? Les cellules souches embryonnaires peuvent-elles être utilisées à des fins médicales ? La production de cellules vivantes synthétiques devrait-elle être interdite ?

Analysant les facteurs qui différencient les problèmes d’usage dual dans la biologie « classique » de ceux existant dans la BS, les auteurs de ce rapport sur la bio-sûreté et la recherche à usage dual se réfèrent aux propos de deux spécialistes américains, Jonathan Tucker et Raymond Zilinskas, selon lesquels « le cas le plus probable d’une application détournée de la BS à des fins hostiles comprend la régénération des virus pathogènes connus en laboratoire136 ». Ce serait, par exemple, le cas du virus de la grippe espagnole, ou encore du virus de la polio.

Selon eux, cette régénération pourrait donner lieu à une application détournée, pour la fabrication d’armes biologiques ou à des fins de bioterrorisme. Ces mêmes auteurs jugent toutefois qu’« il n’existe pas, de façon fondamentale, de différence avec la question de l’usage dual dans la biologie traditionnelle. Ce que l’on doit rechercher, c’est savoir si les possibilités d’usage dual sont plus grandes ou différentes dans le domaine de la BS. »

Or, sur cette question essentielle, les positions sont une fois encore très partagées. Ainsi, Jonathan Tucker et Raymond Zilinskas estiment-ils que, « probablement, compte tenu de la difficulté à anticiper et à évaluer les risques liés aux organismes synthétiques, la BS exigera l’adoption d’une nouvelle approche de la régulation, qui diffèrera de façon significative des lignes directrices des NIH (National Institutes of Health) sur l’ADN recombinant »137.

De façon plus affirmative encore, le rapport de Michele S. Garfinkel et de ses collègues souligne que, dans un avenir proche, le risque d’usage malveillant de la BS s’accroîtra, à cause de l’accélération des progrès de la technologie et de son accessibilité de plus en plus grande.138 Ces chercheurs estiment que le risque reste limité dans les cinq prochaines années, car la fabrication de virus très pathogènes, dont le génome est déjà connu, demeurera une opération plus difficile que leur obtention de façon naturelle ou dans les stocks des laboratoires. En revanche, dans les dix années à venir, ils sont convaincus qu’il sera plus facile de synthétiser la plupart des virus pathogènes que de les obtenir en les isolant de la nature ou en les subtilisant dans un laboratoire sécurisé.

Face à cette perspective inquiétante, un groupe de biologistes de synthèse a proposé, en 2006, une série de mesures qui peuvent être considérées comme un addendum aux lignes directrices du NIH sur l’ADN recombinant. Ces mesures avaient pour objet déclaré 139 :

– d’insister sur la nécessité pour toutes les sociétés synthétisant des gènes d’adopter l’actuel code des bonnes pratiques concernant les procédures de vérification des ordres d’achat des séquences dangereuses,

– de créer et de soutenir l’élaboration de nouvelles listes de surveillance, afin d’améliorer les procédures de vérification de l’industrie,

– de créer une ligne téléphonique d’urgence confidentielle dédiée aux problèmes de biosécurité et de bio-sûreté,

– d’affirmer les obligations éthiques des membres (de la communauté des biologistes de synthèse), d’enquêter et de présenter un rapport sur les comportements dangereux,

– de créer une grande communauté d’échange d’informations, en vue d’identifier et d’assurer la traçabilité des problèmes potentiels de biosécurité et de bio-sûreté,

– de soutenir les priorités de la R&D sur la bio-sûreté et la biosécurité.

Dans ce contexte, un chercheur a appelé l’attention sur la nécessité d’élever la prise de conscience des scientifiques concernant les risques liés à l’usage dual de la BS, constatant que seule une minorité d’entre eux en était informée140. Cette tâche paraît d’autant plus nécessaire que de nombreux biologistes de synthèse sont issus, par leur formation, de disciplines autres que la biologie et peuvent être moins conscients des risques évoqués qu’un biologiste confirmé.

Malgré de fortes divergences d’appréciation, les scientifiques s’accordent tous sur le fait qu’il existe des moyens de nuire plus simples et plus dangereux que les produits de la BS - comme l’anthrax. Ce point de vue est toutefois contesté par le professeur Pier Luigi Luisi, qui estime que, parce que la BS peut créer des formes de vie nouvelles contre lesquelles il n’existe pas de défense possible, elle est susceptible de présenter des risques supérieurs à l’anthrax.

Ces mêmes chercheurs soulignent les difficultés liées à l’exploitation de la recherche à usage dual. Ainsi, Michele Garfinkel note-t-elle, dans son étude, que l’obstacle-clé à la fabrication d’un virus fortement pathogène réside dans la capacité à répliquer la séquence génomique correcte141. Elle estime aussi que la tâche est d’autant plus difficile que les virus maintenus en laboratoire ont tendance à accumuler des mutations.

Les souches de laboratoire fournissent de nombreuses séquences virales, qui se trouvent actuellement dans des bases de données (les séquences d’ADN stockées dans les bases de données sont toutefois constamment mises à jour, en particulier celles des virus d’intérêt scientifique et sociétal). Enfin, la simple synthèse du génome ne constitue qu’une étape d’un processus qui en comporte beaucoup d’autres. La complexité du processus est donc un facteur qui limite les risques d’actes malveillants.

Jonathan Tucker a fourni des indications sur quelques étapes à franchir en vue de transformer un agent infectieux en arme biologique :

– cultiver l’agent infectieux en quantité nécessaire,

– modifier l’agent infectieux à l’aide d’additifs chimiques en vue d’élever sa stabilité et sa durée de vie,

– conserver l’agent infectieux dans un liquide concentré ou une poudre sèche,

– élaborer un système qui puisse disséminer l’agent infectieux sous la forme d’un aérosol à fines particules infectant les poumons142.

Le nuage d’aérosol doit être relâché dans des conditions atmosphériques et météorologiques optimales, pour atteindre des victimes dans un territoire de taille suffisante. Or, les méthodes de stabilisation, d’habillage, de stockage et de dispersion d’un agent biologique, très compliquées, ne sont connues que d’un nombre limité de personnes et sont rarement publiées. De fait, souligne Jonathan Tucker, « même si les terroristes parvenaient à synthétiser un agent viral, ils seraient, selon toute vraisemblance, mis en grande difficulté durant la phase militaire du processus ».

De la même façon, les risques d’un usage dual par un Etat sont réévalués par Jonathan Tucker et Raymond Zilinskas. Ils voient, en effet, la première menace d’un usage malveillant de la BS dans les programmes de guerre biologique élaborés par l’ex-URSS, à l’aide de dangereux pathogènes, comme ceux à l’origine de l’anthrax, de la peste et de la tularémie143.

A la différence de Jonathan Tucker et de Raymond Zilinskas, le professeur Pier Luigi Luisi souligne la dangerosité des programmes militaires de l’ensemble des pays (France, États-Unis, Russie et Chine notamment). Il estime que les produits fabriqués par les laboratoires militaires de biologie de synthèse de ces pays peuvent tuer une population ciblée, ce qui le conduit à douter de la réelle portée de la convention sur les armes bactériologiques ou à toxines.

Jonathan Tucker et Raymond Zilinskas se posent la question de savoir si des scientifiques possédant cette expertise pourraient utiliser la BS en vue de concevoir et de fabriquer un pathogène entièrement artificiel qui soit, de façon significative, robuste donc plus dangereux que ceux qui existent déjà dans la nature, voire mortel.

Pour Jonathan Tucker et Raymond Zilinskas, un tel scénario est hautement improbable. Car, pour créer un tel pathogène artificiel, un biologiste de synthèse compétent devrait assembler des complexes de gènes qui, travaillant ensemble, permettent à un microbe d’infecter un être humain et de générer une maladie mortelle. La conception d’un pathogène contagieux et capable de se propager serait encore plus difficile. De plus, un pathogène synthétique devrait être équipé de mécanismes destinés à bloquer les défenses immunitaires de l’hôte, caractéristiques acquises par les pathogènes naturels depuis des millénaires d’évolution. Il en résulte, selon Jonathan Tucker et Raymond Zilinskas que, devant ces obstacles techniques multiples et sérieux, la menace d’un « super pathogène » synthétique apparaît surfaite, au moins dans un avenir prévisible.

Dans le même esprit, le rapport sur la bio-sûreté et la recherche à usage dual précité estime que tout ce qui est dit au sujet de l’usage possible à des fins malveillantes de la BS « revêt toutefois une valeur plutôt hypothétique ».

Si ses auteurs préconisent d’être attentif à ces développements possibles à un stade précoce, ils considèrent cependant que « les risques ne doivent pas être surévalués ». Ce qui importe davantage, c’est de ne pas accorder une importance prioritaire à la possibilité d’un usage dual, pour éviter de ralentir ou d’obérer des développements prometteurs de la BS ou d’en écarter des chercheurs talentueux provenant de l’étranger (en particulier des pays suspects)144.

Toutefois, Jonathan Tucker et Raymond Zilinskas se déclarent préoccupés par deux scénarios d’usages délibérément malveillants de la B.S. Le premier est celui de « l’opérateur isolé », un biologiste moléculaire de haut niveau qui nourrirait une rancune obsessionnelle à l’encontre de certains individus, de groupes ou de l’ensemble de la société. Ils font remarquer que si Théodore Kaczyinski, encore appelé « Unabomber »145, avait été un microbiologiste et non un mathématicien, il aurait pu correspondre à ce profil. Des terroristes ainsi appelés « loups solitaires » se sont avérés très innovants et difficiles à localiser. Ils pourraient travailler de façon isolée en vue de synthétiser un pathogène naturel ou un pathogène incorporant des facteurs exogènes de virulence.

Jonathan Tucker et Raymond Zilinskas estiment que, à cause de son isolement, un opérateur solitaire ne serait probablement pas découvert par les services de renseignements avant son passage à l’acte. A l’appui de leur argumentation, Jonathan Tucker et Raymond Zilinskas considèrent que le vivier de personnes capables d’utiliser la BS à des fins malveillantes est limité à un petit nombre d’étudiants - diplômés ou non - et de scientifiques seniors, soit probablement moins de 500, selon l’évaluation probabiliste faite au début de l’année 2006. Cela n’en est pas moins inquiétant et mérite d’être suivi attentivement, d’autant que, dans l’avenir, ce nombre devrait croître en proportion de la communauté des chercheurs en BS, un domaine promis à un développement important compte tenu de son potentiel. On peut toutefois se demander si l’opérateur solitaire envisagé par Jonathan Tucker et Raymond Zilinskas parviendrait si facilement à ses fins, compte tenu des nombreux obstacles techniques assez insurmontables, signalés par ces mêmes auteurs précédemment.

Le deuxième scénario préoccupant est celui du « biohacker », ou biologiste « de garage ». Les évaluations des risques sont, là aussi, contrastées.

2° Les risques de la biologie de garage

La notion de biologie de garage désigne les amateurs qui, sans avoir des intentions nécessairement malveillantes, cherchent – le plus souvent en dehors des institutions officielles de recherche – à créer des organismes biologiques par curiosité ou par souci de démontrer leur capacité. Leur motivation peut être jugée comparable aux hackers informatiques opérant sans arrière-pensée malveillante.

Aux États-Unis, notamment, ces individus sont considérés comme faisant partie d’une communauté informelle appelée DIY (Do It Yourself : faites-le vous-même).

Les différentes analyses des risques potentiels liés au développement des activités des biologistes de garage se situent entre alarmisme et simple circonspection. Les inquiétudes suscitées par ces activités résultent des facilités accrues à faire de la BS. Ainsi Jonathan Tucker et Raymond Zilinskas font-ils remarquer que les réactifs et outils utilisés en BS seront finalement convertis en kits commerciaux, ce qui permettra aux biohackers de les acquérir plus facilement. En outre, comme les étudiants - et peut-être même les lycéens - pourront de plus en plus accéder à une formation en BS, une « culture de hacker » pourra ainsi émerger, ce qui accroîtra le risque d’expérimentations « hors cadre », simplement négligentes ou tout à fait malveillantes.

Sur ce dernier point, Markus Schmidt fait remarquer que ce qu’il appelle la bio-économie illicite constitue une source sérieuse de préoccupation. Ce secteur inclut, en effet, la production de substances illégales, les drogues. A la différence des biologistes amateurs qui opèrent avec de petits budgets, la bio-économie illicite et ses acteurs sont connus pour disposer d’importants moyens financiers. Il est donc facile d’imaginer que les cartels de la drogue mettent en place des laboratoires (semi-)professionnels utilisant une boîte à outils biologiques aisément disponible pour concevoir des micro-organismes, en vue de produire non pas une levure produisant l’artémisinine mais une levure synthétisant de la cocaïne ou de l’héroïne semi-synthétique146.

Le fait que de telles dérives puissent avoir lieu conduit Antoine Danchin à se demander si les scientifiques ne devraient pas se refuser à publier leurs travaux susceptibles d’encourager des usages malveillants147. Faisant écho à l’analyse d’Antoine Danchin, professeur honoraire à la faculté de médecine Li Ka Shing de l’Université de Hong Kong et président d’Amabiotics SAS, Michael Rodemeyer, professeur à l’Université de Virginie, a souhaité, lors de son audition par la Commission présidentielle américaine de bioéthique, que la biologie de garage fasse l’objet d’une réglementation. Il fait valoir que le potentiel de dommages involontaires est réel, à mesure que les outils et les technologies deviennent moins coûteux et plus accessibles. Or, il n’existe pas de modèles réglementaires clairs qui permettraient d’aborder ces problèmes. Les autorités locales ou celles de l’État fédéral ne disposent pas, en dépit de certains textes réglementaires, de la capacité technique pour évaluer les risques de toutes les activités de recherche. Ainsi, les mesures prises pour vérifier les ordres d’achat des séquences d’ADN se concentrent-elles sur les questions de bio-sûreté en lien avec les agents pathogènes, une telle démarche ne permettant pas nécessairement de saisir toutes les questions de bio-sûreté. Pour ces raisons, Michael Rodemeyer a estimé que si les mesures destinées à développer des codes de conduite sûre au sein de la communauté Do It Yourself (DIY) étaient louables, elles ne permettront probablement pas d’assurer un usage sûr de la technologie. En conséquence, il a demandé que le Gouvernement fédéral procède à une évaluation des risques posés en matière de bio-sûreté par les recherches et les travaux des biologistes de DIY, en concertation avec les autorités locales, pour apporter les réponses appropriées.

Il est vrai que le processus de démocratisation de la BS ainsi que celui de « technicité décroissante » de la BS sont désormais une réalité, au développement de laquelle ont contribué, pour une grande part, le registre des bio-briques et le concours iGEM, les objectifs du registre étant « de permettre l’ingénierie de la biologie et contribuer à la construction d’une société qui puisse, de façon productive, appliquer les technologies biologiques ».148

Dans ce contexte, les risques évoqués antérieurement ne doivent pas être exclus.

Pour autant, bien que la BS soit de plus en plus accessible, des obstacles de nature scientifique et financière empêchent les biologistes de garage de procéder à des travaux qui auraient des finalités malveillantes. Ainsi un rapport du National Science Advisory Board for Biosecurity (NSABB) 149 de 2006 faisait-il observer que la technologie de synthèse de l’ADN est facilement accessible, simple, et constitue un outil fondamental utilisé dans la recherche biologique. En revanche, la technique de construction et d’expression des virus en laboratoire est plus complexe. Ce sont les procédures en aval de la synthèse de l’ADN qui marquent les limites dans la récupération des virus à partir du matériel génétique.

De même, la Commission présidentielle américaine de bioéthique déclare-t-elle qu’il y a peu de risque que la communauté des biologistes de garage crée un organisme totalement nouveau. Elle rappelle ainsi que la synthèse réalisée par Craig Venter en mai 2010 a demandé 15 années de travail et coûté environ 40 millions de dollars (soit environ 25 millions d’euros).

Pour ces raisons, la Commission présidentielle américaine de bioéthique a évalué la biologie de garage comme un niveau de risque faible, dont la surveillance ne nécessiterait pas la création d’un nouvel organisme. Elle a fait sienne l’idée initiée par le FBI de diffuser une « culture de responsabilité », notamment au sein de la communauté des biologistes de garage, en vue de prévenir les usages malveillants de la BS. A ce titre, le FBI est l’un des sponsors du concours iGEM et les questions de bio-sûreté, de biosécurité et d’éthique font désormais partie des critères d’évaluation des projets présentés par les participants au concours. Un atelier spécifique avec le FBI a d’ailleurs été mis en place pour l’édition 2011 du concours. Au-delà, le FBI a développé une stratégie de communication à travers des forums. Par exemple, le 30 juin 2010, il a participé, à l’Université de Berkeley à l’Open Science summit Conference, dont l’un des thèmes était la possibilité d’une transition du simple DIY150 à « Do it with others » (DIWO  : faites-le avec d’autres). Il est intéressant de noter que l’une des recommandations de cette réunion a incité les biologistes de DIY à joindre les Institutional Biosafety Committees (IBC, Commissions institutionnelle de biosécurité). Ces commissions sont instituées dans tous les établissements recevant des crédits du National Institutes of Health (NIH) au titre de travaux sur l’ADN recombinant. En outre, la réglementation du NIH précise que chaque commission est tenue de comprendre deux membres, qui représentent les intérêts d’associations en charge de la protection de la santé et de l’environnement. L’objectif est que ceux qui pratiquent le DIY prennent notamment connaissance et appliquent les procédures concernant l’utilisation correcte des matériaux biologiques dangereux.

L’évolution de la méthode utilisée par le FBI pour maîtriser les dérives de la biologie de garage ou de « mauvaises » pratiques dans les laboratoires est intéressante. Initialement, la méthode utilisée était celle, traditionnelle, du renseignement et de la « délation ». Ayant pris conscience de son inefficacité, dans un milieu de chercheurs réfractaires à la pratique de la délation, le FBI a radicalement changé de méthode. Il a ainsi constitué une équipe de biologistes, biochimistes, informaticiens, de haut niveau, dédiée à la veille sur les évolutions de la BS. Cette équipe d’experts, crédible pour ses interlocuteurs de la recherche et de l’industrie, a établi des relations de confiance et de partenariat avec les laboratoires de recherche, les biologies de « garage » et les responsables du concours iGEM, développant ainsi une culture collective de sécurité et de sûreté, qui responsabilise l’ensemble de la communauté.

Grâce à cette stratégie, qui ne touche d’ailleurs pas seulement les jeunes et les étudiants mais l’ensemble de la société151, le FBI est parvenu à créer sinon une relation de confiance avec les jeunes, en particulier avec les biologistes « de garage », du moins à diffuser chez eux une image positive. Ainsi, les représentants du FBI nous ont-ils déclaré que dans l’esprit des jeunes, le FBI avait devancé Google comme employeur le plus attractif. Au demeurant, j’ai pu noter que le FBI recrutait de nombreux titulaires de doctorat, dont un ancien doctorant en biochimie de l’ESRF (synchrotron) que j’ai retrouvé dans l’équipe du FBI ! Cette expertise est d’autant plus utile que, en tant que membre du NSABB, le FBI est appelé à donner des conseils aux sociétés ayant des activités de synthèse et de séquençage.

On notera qu’en France, une association de biologistes de garage - La Paillasse - a été créée récemment, à l’initiative d’un universitaire. François Képès nous a indiqué que le milieu académique s’intéresse à ces activités, qui contribuent à élever le niveau de connaissances scientifiques de la population et à contrecarrer les actions de mouvements opposés à la science et à la technologie, bien que diffusant largement leurs idées par une utilisation intensive des nouvelles technologies de l’information et de la communication, notamment sur internet.

De plus, l’association La Paillasse présente l’intérêt de susciter des débats sur les questions de sûreté et de sécurité. Les membres de cette association seraient d’ailleurs demandeurs d’une réglementation, pour donner un cadre légal à ces activités.

2.– L’ÉVALUATION DES RISQUES SUR LA BASE DE NOUVELLES LOGIQUES

Ces nouvelles logiques sont celles sur lesquelles s’appuient les analyses de l’ONG canadienne ETC tout comme celles du rapport de sociologues du BIOS centre rattaché à la London School of Economics, publié le 20 mai 2011, intitulé : « The transnational Governance of synthetic Biology, Scientific uncertainty, cross-borderness and the “art” of governance ».

Si, comme dans les analyses examinées précédemment, ETC et BIOS prennent tous deux en compte la notion d’incertitude, ils l’inscrivent cependant dans des perspectives différentes.

a) Les positions d’ETC

Ces positions reposent sur deux postulats :

– la BS est source de risques ;

– il est nécessaire d’aller au-delà du seul examen des questions de biosécurité et de bio-sûreté pour parvenir à une évaluation approfondie des risques.

1° La biologie de synthèse, source de risques nouveaux

ETC récuse l’idée que la BS se situe dans la lignée du génie génétique, position qu’elle considère comme un stratagème invoqué par les chercheurs qui refusent le principe d’une nouvelle réglementation qu’imposeraient pourtant, selon ETC, les changements révolutionnaires introduits par la BS : « En réalité, la capacité à concevoir et à construire des organismes synthétiques à partir de l’ADN comporte potentiellement la possibilité de révolutionner et d’amplifier la puissance des technologies convergeant à l’échelle nanométrique. La BS est une technologie nanométrique qui doit être considérée dans le contexte plus large des technologies convergentes. »152

Les pouvoirs ainsi conférés par ETC à la BS lui paraissent d’autant plus dangereux qu’ils seraient de nature à renforcer la guerre bactériologique. Selon ETC, les chercheurs, confrontés à une série d’incertitudes, seraient aujourd’hui dans l’incapacité de contrôler efficacement les effets de leurs travaux. Analysant les implications de la BS, ETC cite, en premier lieu, la contribution possible de la BS à l’amélioration des armes bactériologiques, en se fondant sur plusieurs facteurs.

Tout d’abord, ETC fait état des déclarations d’Eckard Wimmer, le chercheur américain ayant procédé en 2002 à la reconstitution du génome du poliovirus. Eckard Wimmer a indiqué que, pour y procéder, il avait commandé des oligo-nucléotides par courrier électronique. Ensuite, il a répété l’opération de reconstruction à six reprises et ce plus facilement et plus rapidement à chaque fois.

Ceci conduit ETC à mettre l’accent sur les lacunes de la réglementation. Se référant à une enquête du New Scientist, ETC constate que seulement 5 des 12 sociétés synthétisant l’ADN contrôlent systématiquement les ordres d’achat, en vue de s’assurer que les fragments d’ADN synthétisés et vendus ne seront pas utilisés pour assembler le génome d’un pathogène dangereux.

Ces lacunes expliquent pourquoi, par exemple, le quotidien britannique The Guardian a annoncé, en juin 2006, que l’un de ses journalistes s’était fait livrer à son domicile un fragment d’ADN synthétique de Variola major - le virus courant de la variole. De plus, note ETC, la carte du génome de Variola major est disponible sur Internet. ETC estime toutefois qu’au-delà des risques liés à la reconstruction de micro-organismes virulents qui pourraient accroître le potentiel d’armes bactériologiques, l’ingénierie des protéines pourrait être utilisée pour créer des hybrides de toxines protéiques.

ETC constate donc que « la prolifération des techniques de BS signifie que la menace de bioterrorisme est constamment en train d’évoluer, ce qui pose des problèmes pour l’application de la convention sur les armes bactériologiques ou à toxines et pour les organes de surveillance de la société civile pour contrôler et prévenir la guerre bactériologique »153.

La position d’ETC paraît excessive. Car non seulement l’ONG ne prend pas en compte les analyses - précédemment décrites - soulignant les difficultés scientifiques et techniques qui, fort heureusement, s’opposent à ce que l’utilisation de la BS à des fins terroristes puisse être facilement couronnée de succès. Mais, de plus, depuis quelques années, les entreprises qui commercialisent la synthèse des fragments d’ADN procèdent à une vérification de leurs clients, afin de mieux contrôler la traçabilité de leurs ventes.

S’agissant des incertitudes auxquelles les biologistes de synthèse sont confrontés, ETC souligne qu’elles proviennent du fait que les techniques qu’ils utilisent, issues de celles employées pour les OGM, soulèvent de nouveaux problèmes de biosécurité. ETC remarque que les OGM sont souvent évalués sur la base du principe d’« équivalence substantielle », lorsque l’organisme altéré est assimilé à un organisme naturel, à travers une similitude génétique. Or, ce principe ne peut être appliqué aux organismes synthétiques, car les biologistes de synthèse créent de nouveaux organismes, substantiellement différents de ceux qui existent dans la nature.

Selon ETC, la sécurité des produits conçus par la BS suscite d’autant plus le doute que rien n’indique que les chercheurs soient en mesure de maîtriser les systèmes qu’ils construisent. Dès lors, « comme les OGM auparavant, les organismes créés à l’aide de la BS sont loin d’être bien compris ».

Les autres facteurs d’incertitude abordés par ETC sont les mêmes que ceux évoqués par Markus Schmidt ou par certaines personnalités auditionnées par la Commission présidentielle américaine de bioéthique : évolution et mutation des organismes vivants, ou encore possibilité pour ces derniers de s’échapper et d’interagir avec leur environnement.

2° La nécessité d’instaurer une évaluation approfondie des risques

ETC relie cette nécessité à l’idée d’un débat sociétal devant être élargi aux implications socio-économiques et éthiques de la BS, ce qui inclut les impacts potentiels sur la sécurité, l’environnement, les droits de l’homme et la sûreté. « Le débat doit aller au-delà de la bio-sûreté et de la biosécurité pour incorporer des discussions sur le contrôle et la propriété de la technologie et sur la question de savoir ce qui est socialement acceptable ou désirable. »154 ETC ajoute que, « parce que la BS est hautement décentralisée et que ses impacts ont une portée universelle, les options de la gouvernance doivent être débattues dans un cadre international ».

La préconisation de l’application du principe de précaution est l’une des conséquences majeures de cette prise de position. ETC estime que, conformément à ce principe, la dissémination dans l’environnement des organismes synthétisés de novo devrait être interdite, jusqu’à ce qu’un large débat sociétal et qu’une forte gouvernance ait lieu, prenant en compte pleinement les implications environnementales et socio-économiques de la BS.

Lors de son audition par la Commission présidentielle américaine de bioéthique, Jim Thomas, directeur des programmes d’ETC, a ainsi insisté sur les dérives de ce qu’il a qualifié « la bio-économie stupide », dont l’émergence a été facilitée par la BS. Il a considéré que si l’on n’examinait pas les grands changements économiques en jeu, on passerait sous silence l’impact socio-économique réel de la BS. Celle-ci est, selon lui, de nature à reconfigurer le monde, ce qui aurait un impact sur nos droits et renforcerait potentiellement les inégalités.

Un exemple de cette bio-économie est d’ailleurs fourni par Craig Venter qui, en passant des accords avec BP et Exxon, espère préserver l’industrie pétrochimique, en proposant une transition biotechnologique vers une économie dans laquelle la matière végétale vivante remplacera la matière fossile comme matière première de la production. Cela peut expliquer pourquoi la BS suscite une telle attractivité et une volonté d’investissement de la part des 500 entreprises répertoriées par le magazine Fortune.

Face à cette situation, nos analyses seraient d’autant plus insuffisantes, selon Jim Thomas, que nous n’avons pas accompli les efforts nécessaires pour développer les outils d’évaluation de ces technologies sur le plan social et sociétal. Jim Thomas exprime également des critiques sur la « course aux crédits » donnant lieu à des surenchères dans les déclarations des scientifiques, phénomène que nous avons déjà évoqué. Il faut d’ailleurs savoir que Craig Venter a installé, à côté de ses laboratoires de recherche, un studio de télévision dédié à la communication sur ses recherches.

A cet égard, l’annonce récente155 par Craig Venter que son équipe, dans le cadre du projet financé par Exxon, ne parvenait pas, contrairement aux annonces préalables, à identifier une variété génétiquement modifiée de microalgues permettant de développer une filière nouvelle et rentable de biocarburants, risque de justifier ces reproches.

Pour autant, à l’exemple de certains membres de la Commission présidentielle américaine de bioéthique, on pourrait reprocher à Jim Thomas de faire abstraction des possibilités de progrès offertes par la BS, notamment dans le domaine de la santé et de l’environnement (bio-remédiation). Par ailleurs, la bioéconomie est déjà une source d’emplois, de croissance (12 % du PIB des États-Unis) et mérite donc que l’on s’y intéresse.

b) Le rapport du BIOS Centre de la London School of Economics

Le BIOS Centre est un centre de recherches de sciences humaines et sociales spécialisé dans les sciences du vivant, rattaché à la London School of Economics. Il a publié, le 20 mai 2011, un rapport intitulé : « The transnational Governance of synthetic Biology, Scientific uncertainty, cross-borderness and the “art” of governance ».

Son objet est de proposer, sur la base de l’analyse des 40 rapports publiés sur la BS au cours des sept dernières années, une approche radicalement nouvelle des problèmes qui y sont examinés, dont la question d’une gouvernance de la BS permettant de tirer parti des bénéfices tout en limitant les risques. Dans cette perspective, le rapport se fonde sur le principe selon lequel les régimes de gouvernance effectifs de la BS doivent aborder l’incertitude scientifique inhérente à toute recherche, mais majorée dans un domaine aussi complexe, évolutif et peu prédictible que la BS.

Les auteurs indiquent d’ailleurs que de nombreux impacts futurs de la BS, comme d’autres biotechnologies émergentes, sont non seulement difficiles à prédire, mais parfaitement inconnus. Cela tient à ce que la BS peut être considérée en elle-même comme une source de risques émergents, un domaine scientifique dont les retombées peuvent être appréciées comme potentiellement significatives sans pour autant être comprises ni évaluées. Les options de la gestion des risques ne peuvent ainsi être développées de façon fiable.

Sur ce point, le rapport cite à titre d’exemple la question de l’application à la BS de l’évaluation des risques liés aux OGM. Dans ce cas, les approches existantes sont largement basées sur la comparaison entre le nouvel organisme modifié et son équivalent naturel et se concentrent sur les attributs de l’organisme receveur/parent, l’organisme donneur et le vecteur utilisé pour le transfert de l’ADN. Mais si les composantes génétiques individuelles ou des génomes entiers peuvent à l’avenir être conçus à l’aide de l’ordinateur et synthétisés chimiquement, les notions de receveur et d’organisme donneur seront-elles encore pertinentes ?

La BS ne se limite d’ailleurs pas à la modification d’organismes naturels, mais pourrait s’étendre aussi à la construction de nouvelles formes de vie. Certains produits comme les cellules minimales pour lesquelles il n’existe pas de point de comparaison naturel présentent de nouveaux défis, en ce qui concerne la caractérisation du risque.

Le rapport souligne toutefois que, même si la source de toutes les parties de l’organisme synthétisé est connue et si tout nouveau circuit génétique est compris, il reste difficile de prédire si ce nouvel organisme se verra doté de propriétés émergentes inattendues. Se référant à l’analyse de la nouvelle évaluation des risques en biologie, les auteurs considèrent que les trois catégories de risques identifiés par la Royal Society s’appliquent à la BS. Il s’agit des risques naturels (par exemple la maladie), le risque inattendu (par exemple les découvertes effectuées par la recherche à usage dual) et la transformation délibérée en armes des agents biologiques.

Dans ce contexte, le rapport estime que la voie la plus pertinente pour aborder la question des incertitudes scientifiques liées à la BS devrait consister, pour les autorités de régulation, à utiliser l’état de l’art des connaissances scientifiques, tout en étant conscientes de leurs limites et de leur possible remise en cause par des connaissances à venir. Il serait donc insuffisant de s’en tenir aux seuls référents connus par la BS, comme les OGM, pour lesquels une réglementation existe déjà.

Enfin, une approche par les seules sciences exactes paraît, elle aussi, réductrice. Par son effet de rupture possiblement fort, la BS est susceptible d’induire de nouveaux comportements sociaux, qui susciteraient des modèles économiques ainsi que des impacts sanitaires et environnementaux inédits.

Les évaluations doivent donc intégrer les effets indirects, différés et cumulatifs à long terme de la BS sur la santé, l’environnement, les terres agricoles, l’alimentation et ce, à une échelle mondiale, compte tenu du caractère transfrontalier des développements réalisés. Il s’agit pour les auteurs du rapport d’une nouvelle dimension, qui impose aux autorités de régulation de ne plus se reposer sur la seule connaissance scientifique mais sur la construction de ce que le rapport appelle la résilience de la société face à ce qui n’est pas connu, en provoquant constamment la réflexion chez tous les acteurs.

La nouvelle méthode d’évaluation des risques en faveur de laquelle plaide le rapport de BIOS - « The transnational Governance of synthetic Biology, Scientific uncertainty, cross-borderness and the “art” of governance » - soulève la question de l’opportunité du dialogue public.

Si, à juste titre, le rapport souligne l’importance du rôle que doivent jouer les autorités de régulation dans l’organisation d’un tel dialogue, on peut se demander si les auteurs du rapport ne sous-estiment pas les difficultés à susciter la résilience de la société, surtout en ce qui concerne un sujet émergent et aussi complexe que la BS.

B.– PROBLEMATIQUES DE GESTION DES RISQUES

Pour identifier les différentes questions, nous nous appuierons sur :

– les positions des Commissions d’éthique, américaine et européenne qui - au-delà de leurs différences apparentes d’approche - s’accordent cependant à ne pas vouloir entraver les recherches,

– les positions des Etats et de l’Union européenne.

Nous évoquerons aussi les propositions qui ont été unanimement rejetées, comme la mise en place d’un moratoire ou d’une autoréglementation par la communauté scientifique ou les industriels.

1.– COMMISSIONS D’ÉTHIQUE AMÉRICAINE ET EUROPÉENNE :

DIVERGENCES ET RAPPROCHEMENT

a) Les différentes approches des commissions d’éthique

1° Le principe de « vigilance prudente » choisi par la Commission présidentielle américaine de bioéthique

« C’est le principe de gestion responsable des ressources qui requiert celui de vigilance prudente », souligne la Commission en établissant des processus d’évaluation des bénéfices probables, en même temps que ceux de l’évaluation des risques sur les plans de la sécurité et de la sûreté antérieurement et postérieurement à la prise de décision. Un processus responsable continuera d’évaluer la sécurité et la sûreté, à mesure que les technologies se développent et se diffusent dans les secteurs public et privé.

Le principe de vigilance prudente ne repose pas sur le rejet de la BS au vu des risques, du fait que l’on ne peut pas apporter définitivement de réponse à toutes les questions de sécurité et de sûreté avant même d’avoir engagé la recherche. Ce principe met en place une méthode d’évaluation continue des risques comme des opportunités, des dommages en même temps que des bénéfices potentiels.

La Commission formule ainsi le principe de gestion responsable : « Que peut-on et doit-on faire, en tant que société, en réponse au champ émergent de la BS pour être le gestionnaire responsable de la nature, de la générosité de la terre, de la santé humaine et du bien-être, ainsi que de la sûreté dans le monde, maintenant et dans le futur ? »

Les options de l’action en ce domaine, estime la Commission, vont de la non-régulation – c’est-à-dire l’autorisation d’un développement illimité de la BS, qui ne prendrait pas en compte la sécurité du public ou l’impact sur l’environnement – à l’arrêt ou, a minima, aux freins substantiels à son développement, en attendant que les risques puissent être identifiés et réduits.

Ainsi, selon la Commission, ce principe de gestion responsable implique, de façon générale, que si une action ou une politique est susceptible de causer un dommage, mais que la probabilité ou la gravité de ce dommage est incertaine, il incombe à ceux qui préconisent cette politique ou cette action d’en démontrer le caractère sûr.

A l’inverse de cette interprétation du principe de précaution, le principe de liberté d’innovation suppose qu’une initiative, action ou politique nouvelle (y compris donc une technologie émergente) est considérée comme sûre, économiquement bénéfique et intrinsèquement bonne, jusqu’à démonstration du contraire.

Les avocats de ce principe en appellent à un engagement en faveur de la liberté intellectuelle, de l’autonomie de la décision et de la responsabilité individuelle, de la croissance économique et de la participation de tous à un système de compétitivité nationale et internationale.

On trouve parmi les partisans de ce modèle, d’une part les advocateurs d’un marché ouvert, non régulé, basé sur un modèle néo-libéral. On y trouve d’autre part, et c’est ce que la Commission constate, les partisans de la vigilance prudente, exercée par le biais d’un certain nombre de mesures de surveillance et de contrôle. C’est le rôle que doivent exercer la FDA, aux États-Unis, et les différentes agences en Europe.

Afin de ne pas priver la société d’applications bénéfiques pour l’homme et son environnement, la Commission a jugé imprudents les extrêmes, c’est-à-dire soit d’instaurer un moratoire sur la BS jusqu’à ce que tous les risques aient pu être déterminés et réduits, soit a contrario de laisser les applications technologiques arriver sur les marchés sans aucun contrôle, ne prenant pas en compte les risques potentiels.

La Commission a estimé que le champ de la BS pouvait se développer de façon responsable en n’adoptant ni le principe de précaution, ni le principe de liberté absolue d’innovation. C’est pourquoi elle propose un compromis reposant sur un système continu de vigilance prudente, qui surveille soigneusement, identifie et réduit les dommages potentiels et ceux qui sont survenus au fil du temps.

Les raisons de ce choix ont été explicitées par la Commission. Selon elle, la BS ne susciterait ni inquiétudes ni risques potentiels par rapport à des sciences et technologies déjà connues ou émergentes comme les « omiques », la biologie moléculaire ou les nanotechnologies. A bien des égards, la BS est une extension du génie génétique et une partie du réseau - de plus en plus interconnecté - de disciplines diverses et déjà connues.

La Commission a constaté par ailleurs que les nombreux mécanismes de surveillance existants (réglementaires ou volontaires) contrôlent le champ de la BS, à mesure qu’il se développe. C’est la raison pour laquelle elle n’estime pas que de nouvelles agences ou autorités doivent être instituées à cet effet.156

● D’une part, la Commission fait remarquer que, pour la seule année 2009, le Gouvernement fédéral avait déjà pris diverses mesures dans le domaine de la BS :

– une proposition de révision des directives du NIH sur les recherches impliquant les molécules d’ADN recombinant en vue d’aborder les recherches en matière de BS,

– la mise en place d’un cadre visant à contrôler la traçabilité des ventes par les fournisseurs de doubles brins d’ADN,

– la mise en place par le service d’inspection de la santé animale et végétale [Animal and Plant Health Inspection Service (APHIS) / Centers for Disease Control and Prevention (CDC)], d’une directive sur les modalités d’application des règlements concernant les agents pathogènes particuliers (Select Agent) aux personnes fabriquant et utilisant les produits à base de génomique synthétique,

– la prise en considération par le NSABB de stratégies visant à mettre en place des démarches de proximité auprès de ceux qui travaillent dans la BS afin d’accroître la culture de responsabilité en leur sein et de promouvoir un engagement sur le plan international.

● D’autre part, la Commission indique que ces différentes mesures ont été le fruit des actions entreprises par les agences fédérales suivantes : Environmental Protection Agency (EPA) (sécurité dans l’industrie chimique), Food and Drug Administration (FDA) (alimentation, médicaments et dispositifs médicaux), Department of Agriculture (cultures et alimentation animale), Department of Homeland Security (bio-sûreté).

Dans ce contexte, la Commission souligne la nécessité :

1) de tirer profit des ressources existantes pour procéder à un contrôle continu et coordonné des développements de la BS,

2) de s’assurer que les exigences réglementaires sont cohérentes et non contradictoires entre elles.

2° La référence au principe de précaution en Europe

La recommandation 4 du Groupe européen d’éthique prévoit que, préalablement à la dissémination dans l’environnement d’un organisme fabriqué ou modifié par l’intermédiaire de la biologie synthétique, des études d’évaluation d’impact à long terme doivent être réalisées. Les données dégagées par ces études seront ensuite évaluées en tenant compte du principe de précaution et des mesures prévues dans la législation européenne (directive relative à la dissémination volontaire d’organismes génétiquement modifiés dans l’environnement). En cas d’évaluation défavorable, la dissémination d’organismes fabriqués ou modifiés ne devrait pas être autorisée.

Cette prise de position est conforme à l’article 174 du traité de Lisbonne, qui rappelle que la politique de l’Union dans le domaine de la protection de l’environnement est fondée sur le principe de précaution.

Il est intéressant de noter que la recommandation 7 de la Commission présidentielle américaine de bioéthique préconise également une évaluation des risques préalablement à la dissémination dans l’environnement d’organismes ou de produits issus de la BS. Cette évaluation doit inclure, de façon appropriée, un programme et une méthodologie pour organiser l’introduction ou la dissémination à partir des installations de confinement en laboratoire.

On voit donc que les préconisations de la démarche de précaution rejoignent, sur ce point, celles de la « vigilance prudente » exprimée par la Commission américaine.

b) Le rapprochement des positions

Le rapprochement est perceptible sur deux points majeurs :

– le refus de tout moratoire sur les recherches,

– l’adhésion au principe du contrôle continu de l’adéquation du cadre réglementaire.

La référence par le Groupe européen d’éthique au principe de précaution ne le conduit pas pour autant, à l’inverse d’ETC ou d’autres ONG, à préconiser un moratoire. Le Groupe prend des positions comparables à celles de la Commission présidentielle américaine de bioéthique : « Une utilisation responsable de la BS devrait impliquer l’utilisation d’outils de gouvernance visant à encourager les avancées scientifiques et les applications de la recherche qui pourraient être bénéfiques à la santé humaine, ainsi qu’à contribuer aux économies d’énergie et à la réduction des effets négatifs du changement climatique tout en prévenant les abus de la BS, à savoir le bioterrorisme et en préservant la biosécurité et la bio-sûreté. »

Quant à l’adhésion au principe de contrôle continu de l’adéquation de la réglementation, elle ne figure certes pas, de façon explicite, dans la recommandation 13 du Groupe européen d’éthique. Mais elle invite la Commission européenne à réviser la législation applicable à la BS et à évaluer sa pertinence par rapport aux questions qu’elle soulève. L’idée d’un contrôle continu est présente dans l’exposé des motifs de la recommandation 13. En effet, le Groupe évoque la nécessité, en cas d’introduction d’une technologie nouvelle dans l’Union européenne, de mettre en place une stratégie plus large et mieux adaptée pour faire face aux changements qui pourraient affecter l’environnement, les sociétés, les économies de marché ou les politiques nationales. Le Groupe estime que l’approche intégrée de la BS devrait permettre d’étudier au cas par cas les bénéfices et les dangers des développements proposés, en ce qui concerne les implications environnementales et sociales.

2.– LES POSITIONS DES ÉTATS ET DE L’UNION EUROPÉENNE

a) Les positions des États

Ces positions sont, dans l’esprit des Etats tout au moins, inspirées de celles des commissions d’éthique. Aux États-Unis, comme en Europe, les Etats ne souhaitent pas élaborer de nouvelles réglementations, d’autant qu’ils soulignent l’importance stratégique de la BS dans ses applications potentielles.

1° Les États-Unis

La Commission présidentielle américaine de bioéthique souligne que, au cours de la seule année 2009, le gouvernement fédéral a pris plusieurs mesures qu’elle avait préconisées :

– prise de position du NIH en vue de réviser ses lignes directrices sur la recherche utilisant des molécules d’ADN recombinant, pour tenir compte des problèmes potentiels posés par la BS,

– développement par le gouvernement fédéral d’un cadre destiné à la vérification par les fournisseurs de doubles brins d’ADN synthétiques,

– élaboration par le service d’inspection de la santé animale et végétale des Centers for Disease Control and Prevention (CDC - Centre de contrôle et de prévention des maladies) d’une circulaire prévoyant l’application des dispositifs concernant les agents pathogènes aux personnes qui créent et utilisent des produits issus de la synthèse générique,

– engagement du National Security Advisory Board for Biosafety and Biosecurity (NSABB) d’informer et de former toutes les personnes pratiquant la BS à la culture de la responsabilité tout en les incitant à développer la coopération internationale dans ce domaine.

A la suite de la publication, en décembre 2010, du rapport de la Commission présidentielle américaine de bioéthique, une instance placée auprès du Président Obama, - Emerging Technologies Interagency Policy Coordination Committee (ETIPC) : Commission de coordination des politiques interagences pour les technologies émergentes - a engagé la mise en œuvre des recommandations de la Commission présidentielle américaine de bioéthique. Cette commission est co-présidée par John P. Holden, assistant du Président pour la Science et la technologie, directeur de l’Office de la politique pour la science et la technologie ; Cass R. Sunstein, administrateur de l’OIRA (Office of Information and Regulatory affairs) et de l’OMB (Office of Management and Budget), et Islam Siddiqui, négociateur en chef pour l’Agriculture à l’US Trade Representative.

Ainsi, au mois de mars dernier, a-t-elle publié un mémorandum destiné aux dirigeants de départements et des agences, dans lequel elle expose les principes directeurs devant régir le développement et la mise en œuvre du contrôle des technologies émergentes, comme les nanotechnologies, la BS et le génie génétique. L’ETIPC souligne que l’innovation en ces domaines requiert non seulement la coordination et le développement de la recherche, mais également un contrôle approprié et équilibré.

En complément, elle précise que « la régulation et le contrôle devraient éviter d’empêcher l’innovation de façon injustifiée, de stigmatiser les nouvelles technologies ou de créer des barrières douanières ». Il s’agit donc d’un principe d’action, avec régulation, et non d’un principe d’empêchement. A noter que le principe de précaution inscrit dans la Constitution française en 2005 est qualifié, lui aussi, de principe d’action, même si les jurisprudences établies depuis ont pu contredire ou infléchir cette orientation.

Afin de pouvoir poursuivre ces objectifs, l’ETIPC pose les principes suivants :

– Rigueur scientifique : la réglementation et le contrôle des technologies émergentes devront être fondés sur les meilleures preuves scientifiques disponibles. L’information adéquate devra être recherchée et développée et les nouvelles connaissances devront être prises en considération lorsqu’elles seront disponibles,

– Participation du public : elle est importante pour la promotion de la responsabilité dans la prise de décision, l’amélioration des décisions, l’établissement d’une confiance accrue et la garantie que tous les acteurs de la BS (chercheurs, techniciens, organismes de régulation, consommateurs actuels ou à venir, etc.) ont bien accès à l’information la plus large,

– Bénéfices et coûts : la réglementation et le contrôle des technologies émergentes exercés au niveau fédéral devront prendre en considération leurs coûts et bénéfices respectifs,

– Flexibilité : dans la mesure du possible, la réglementation et le contrôle du Gouvernement fédéral devront être suffisamment flexibles pour apporter de nouvelles preuves, des connaissances complémentaires et prendre en compte la nature évolutive de l’information concernant les technologies émergentes et leurs applications,

– Évaluation et gestion des risques : elles devront être séparées. Le Gouvernement fédéral devra s’efforcer de parvenir à un niveau approprié de cohérence dans l’évaluation et la gestion des risques par les différentes agences. Les mesures prises par les agences en charge de la gestion des risques devront être appropriées et proportionnées au niveau du risque identifié, ce qui suppose une bonne coordination entre les agences fédérales,

– Coopération internationale : le Gouvernement fédéral devra notamment participer au développement de normes internationales compatibles avec le droit américain.

L’une des questions majeures soulevées par ces orientations est de savoir si elles permettront réellement d’améliorer l’évaluation et la gestion des risques potentiels dans le domaine de la BS. Ainsi, dans son exposé devant la Commission présidentielle américaine de bioéthique, Michael Rodemeyer s’est-il référé aux difficultés auxquelles l’EPA (l’Agence pour la protection de l’environnement) est confrontée, du fait des dispositions restrictives du Toxic Substances Control Act. Cette loi devrait inclure, dans son champ d’application, les organismes synthétiques – comme les algues – utilisés dans l’environnement en vue de produire le pétrole ou la biomasse. En effet, le Congrès a bien prévu que l’EPA contrôlerait ou empêcherait la mise sur le marché de nouveaux produits chimiques, qui présenteraient des risques pour la santé ou l’environnement. Mais le Congrès a aussi demandé à l’EPA de prouver que les nouveaux produits chimiques visés présentent bien un risque déraisonnable, ce qui se conçoit dans le cadre de risques potentiels. Michael Rodemeyer estime que l’EPA est limitée dans sa capacité à rassembler l’information et à procéder à une évaluation circonstanciée des risques des nouveaux organismes synthétiques qui seront disséminés intentionnellement dans l’environnement.

En matière de bio-sûreté, des scientifiques157 se sont également interrogés sur la pertinence de la circulaire établie par le Gouvernement fédéral concernant la vérification des commandes de séquences d’agents pathogènes et de toxines. A leurs yeux, un problème majeur réside dans le fait que, se fondant de plus en plus sur des listes établies de menaces microbiennes, on peut être confronté à une classification arbitraire des microbes à partir des similitudes de séquences. Ces scientifiques soulignent, en effet, la diversité génétique des micro-organismes découverts dans la nature, aussi bien que celle des micro-organismes conçus en laboratoire, ce qui rend les frontières des classifications de plus en plus floues. C’est pourquoi ils estiment que le fait de citer des agents pathogènes dans des listes donne à tort l’illusion d’avoir défini, de façon fiable, le spectre des menaces potentielles.

2° La France

Le rapport de la Stratégie nationale de la recherche et de l’innovation sur la BS, remis en mars 2011 à la ministre de l’Enseignement supérieur et de la recherche, récapitule les grandes lignes du cadre applicable à la BS en matière de sûreté et de sécurité.

Ainsi les produits de la BS sont-ils déjà soumis aux réglementations existantes selon le domaine d’application concerné - par exemple l’autorisation de mise sur le marché des médicaments. Les produits finaux et intermédiaires de la BS seront également soumis aux investigations éco-toxicologiques selon le règlement européen REACH.

En second lieu, le rapport de la SNRI relève que la sécurité et la sûreté relatives au génie génétique ont été les seules méthodes moléculaires de mise en œuvre de la BS à avoir été débattues. Or, selon le rapport, ces méthodes ont vu le jour à la suite du moratoire dit d’Asilomar158 , qui a été levé il y a plus de 30 ans.

Les auteurs du rapport indiquent que l’un des dangers potentiels de la BS réside dans la possibilité de synthétiser des fragments d’ADN dotés de pouvoirs pathogènes (virus par exemple). Le danger n’est en fait pas spécifique de la BS, mais résulte de l’augmentation de la capacité à synthétiser l’ADN.

Dans le domaine de la bio-sûreté, le rapport indique que la Délégation générale pour l’armement (DGA) a réalisé une base de données des acteurs de la BS : elle a formulé des recommandations sur le cadre dans lequel les expériences effectuées à l’aide de l’ADN recombinant pourraient se dérouler et a identifié les options sécuritaires. Quant au Secrétariat général de la Défense et de la sécurité nationale (SGDSN), il propose de maintenir une veille sur les enjeux de défense et de sécurité liés au domaine de la BS et d’organiser une réunion ministérielle annuelle de concertation. Les recommandations de l’étude approfondie de la DGA concernant les options bio-sécuritaires en BS visent principalement à sécuriser les activités de synthèse d’ADN à façon, en préconisant la création d’une cellule étatique d’aide à la décision concernant un client ou une commande « à risque », la mise en place d’une synergie forte entre sociétés de synthèse d’ADN et autorités chargées des risques au niveau international, ainsi que le suivi des appareils de synthèse d’ADN. L’objectif est de surmonter et de maîtriser les problèmes potentiels à un échelon international.

De son côté, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (ANSES) doit mettre en place une veille scientifique prospective sur la BS.

On peut constater le caractère très nuancé des observations du rapport de la SNRI, établi par un groupe d’experts interdisciplinaires, intégrant les sciences humaines et sociales (SHS), selon lesquelles la BS ne comporte pas de danger qui lui soit spécifique.

En revanche, il est regrettable que le rapport de la DGA n’ait pas été rendu public. Cette absence de transparence et de communication est d’ailleurs à l’image du déficit de coordination et d’information réciproque entre les services en charge de la biosécurité. Ainsi, le responsable pour le CEA du programme interministériel des risques NRBC (nucléaire, radiologique, bactériologique et chimique) nous a-t-il déclaré qu’il lui avait fallu quatre années pour développer des échanges avec le Service de la santé des armées (SSA). Ce manque de coordination favorise aussi l’existence des redondances constatées entre certaines actions entreprises par le CEA, le SSA et la DGA dans le cadre du programme NRBC.

La non-publication du rapport de la DGA a un autre impact négatif, puisqu’elle prive d’informations pertinentes les chercheurs qui peuvent être à l’origine des risques par manque de formation ou de sensibilisation.

De façon plus générale, on relève un déficit dans le partage de la culture du risque et il n’est pas surprenant de constater que, parmi les scientifiques rencontrés en audition, nombre d’entre eux ignoraient l’existence des recherches - de haut niveau - menées dans le domaine NRBC.

Pour nuancer ce propos, Daniel Gillet, responsable pour le CEA du programme NRBC, nous a indiqué que le CEA diffusait ses méthodes de prévention de risques NRBC auprès des laboratoires publics et privés avec lesquels il avait des partenariats.

3° L’Allemagne

La position du Gouvernement fédéral sur les risques potentiels liés à la BS est exposée dans une réponse à une question de députés du groupe SPD, publiée le 22 mars 2011. Le Gouvernement fédéral indique tout d’abord qu’il n’a soutenu aucun projet de recherche concernant la BS dans les domaines de la sécurité et de la sûreté. En second lieu, il déclare être en accord avec la position commune adoptée par les Académies des technologies, des sciences et la DFG (Deutsche Forschungsgesellschaft, société allemande pour la recherche). Les Académies estiment qu’il n’est pas nécessaire de prévoir une nouvelle législation, considérant que les risques en matière de sécurité et de sûreté présentés par la BS étaient analogues à ceux suscités par les biotechnologies. Dans le domaine des biotechnologies en général, les risques sont évalués par les dispositions des lois sur le génie génétique, le commerce extérieur et le contrôle des armes de guerre.

Seules les entreprises se conformant à ces lois peuvent avoir un accès aux acides nucléiques.

En outre, comme les Académies, le Gouvernement fédéral estime qu’un contrôle scientifique continu concernant les bénéfices et les risques de la BS est nécessaire, pour accompagner, de façon pleinement responsable, les développements rapides de ce nouveau domaine.

On constate donc que la position du Gouvernement allemand est assez proche de celle présentée dans le rapport de la Stratégie nationale de la recherche et de l’innovation en France et de celle de la Commission présidentielle américaine de bioéthique des États-Unis.

b) La position de l’Union européenne

Selon une recommandation du Groupe européen d’éthique, un groupe de travail de la Commission européenne examine actuellement la possibilité d’assujettir les produits de la BS à la directive 2001/18/CE du Parlement européen et du Conseil du 12 mars 2001, qui traite de la dissémination dans l’environnement des OGM.

Si une telle disposition devait être adoptée par les Etats membres et par le Parlement européen, cela apporterait une réponse aux interrogations du Conseil d’analyse stratégique. En effet, dans une note de veille de 2009 sur la BS, ce Conseil avait fait part de ses doutes sur l’application à la BS de la directive 2001/18 précitée et de la directive 98/44 relative à la protection juridique des innovations biotechnologiques.

Les principales dispositions relatives aux OGM, qui seraient appliquées à la BS, figurent dans l’encadré ci-après.


PRINCIPALES DISPOSITIONS APPLICABLES AUX OGM

Le code de l’environnement - tel qu’il résulte de la transposition des directives communautaires - prévoit une réglementation sur l’utilisation des OGM en milieu confiné à des fins industrielles. Il s’agit des dispositions concernant les installations classées. Il existe environ une quarantaine d’installations en France. Cette réglementation pourrait s’appliquer à certaines installations mettant en œuvre la BS, selon le ministère de l’Ecologie. Elle instaure un régime d’autorisation préalable comportant une enquête publique. Ces installations combinent deux autorisations, l’une accordée par le préfet en tant qu’installation classée pour la protection de l’environnement, une autre résultant d’un agrément délivré après avis du Haut Conseil des biotechnologies (HCB) pour l’utilisation de chaque OGM (une douzaine de demandes d’agrément sont instruites chaque année en France pour ces installations classées). En effet, lorsqu’un laboratoire, qu’il soit installation classée ou non, souhaite utiliser des OGM, son dossier est transmis pour avis au Haut Conseil des biotechnologies. Des dispositions règlent les questions d’étiquetage et de transport des OGM. Lorsqu’il n’y a pas dissémination dans l’environnement de l’OGM, le HCB donne un avis sur le degré de confinement requis pour cet OGM en fonction du risque qu’il peut présenter pour la santé et l’environnement. Lorsqu’il y a dissémination de l’OGM dans l’environnement (essais sur plantes génétiquement modifiées, thérapie génique, certains vaccins), une évaluation est conduite sur le risque pour la santé et l’environnement.

Source : ministère de l’Ecologie et du développement durable

Mais au-delà de cette question de l’extension à la BS de la législation sur les OGM, le Groupe européen d’éthique souhaite que la Commission européenne poursuive d’autres objectifs :

● Selon sa recommandation n°1, la Commission européenne devrait procéder à une étude dont l’objet serait de :

– faire une enquête sur les procédures permanentes en matière de biosécurité,

– déceler les lacunes éventuelles dans la réglementation actuelle sur la biosécurité, afin d’évaluer efficacement les organismes et les produits nouveaux créés au moyen de la BS,

– indiquer le mécanisme permettant de combler les lacunes décelées.

Cette procédure d’évaluation des risques devra être ensuite mise en œuvre par les autorités compétentes au sein de l’Union européenne, par exemple la Commission européenne, l’Agence européenne des médicaments, l’Autorité européenne de sécurité des aliments, ainsi que par les autorités nationales.

Enfin, le Groupe européen d’éthique demande que le financement de la recherche en BS et la commercialisation de produits issus de la BS dans l’Union soient subordonnés à ces conditions.

● Dans sa recommandation n°2, il propose qu’une fois définie la réglementation préconisée dans la recommandation n°1 en matière de biosécurité, la Commission lance un débat international avec les parties concernées afin de favoriser une approche standardisée de la biosécurité en matière de BS, pour les tests financés par des fonds publics et privés. Les instruments de suivi de la mise en application de ces dispositions devraient être considérés comme faisant partie intégrante de la réglementation en matière de biosécurité (y compris des questions de fiabilité).

● La recommandation n°3 invite la Commission à préparer un code de conduite pour la recherche sur les micro-organismes synthétiques.

3.- LES PROPOSITIONS REJETÉES

a) L’instauration d’un moratoire

Le 16 décembre 2010, un groupe de 58 ONG de 22 pays, dont ETC, a adressé une lettre ouverte aux Secrétaires des départements concernés de l’Administration fédérale des États-Unis, pour déplorer l’inadéquation de la réponse apportée par la Commission présidentielle américaine de bioéthique aux risques potentiels de la BS.

Dans cette lettre, il est reproché à la Commission d’avoir ignoré le principe de précaution. D’après les signataires de cet appel, seul le principe de précaution offre le cadre juridique pour préconiser un moratoire sur la dissémination et l’usage commercial des organismes synthétiques, jusqu’à ce que soit entreprise une étude approfondie sur tous les impacts environnementaux et socio-économiques de cette technologie émergente. Ils proposent de maintenir le moratoire en l’attente d’une large expression publique, via une délibération démocratique la plus large possible, sur l’usage et le contrôle de la BS. Ils précisent que ce processus délibératif doit associer activement d’autres pays – en particulier ceux du Sud – puisque la BS aura des impacts globaux, notamment sur l’environnement de ces pays (biocarburants).

La Commission a eu tort, selon les ONG, de privilégier le principe de vigilance prudente, un concept législatif nouveau et sans précédent, au principe de précaution, reconnu par de nombreuses législations dans le monde.

Les ONG affirment qu’il ne faut pas voir dans le principe de précaution une marque d’hostilité à la science, à la technologie et au progrès. Elles précisent qu’il s’agit, avec la mise en place d’un moratoire, de prendre le temps nécessaire pour s’assurer de la validité des choix scientifiques et technologiques, dans un domaine aussi complexe et nouveau que la BS sur les plans social, économique et environnemental. On peut remarquer qu’elles interprètent le principe de précaution non pas comme un principe d’action, tel qu’il est défini dans la Constitution française (l’action consistant à engager des recherches complémentaires et contradictoires sur les risques potentiels pour les infirmer ou les confirmer) mais comme un principe de moratoire. C’est donc une conception extensive du principe de précaution qui est affirmée par ces ONG, d’où l’hostilité en retour de la majorité des chercheurs et scientifiques qui y voient un frein au développement de leurs travaux.

Enfin, les ONG s’appuient sur la décision de la Conférence de Nagoya sur la biodiversité159 d’octobre 2010 d’appliquer le principe de précaution à l’introduction et à l’utilisation d’organismes synthétiques.

De fait, la Conférence de Nagoya a demandé que les États appliquent le principe de précaution à l’introduction d’organismes synthétiques seulement s’ils sont nouveaux. Elle a aussi demandé au secrétariat de la Convention sur la biodiversité d’approcher les Etats pour dresser un état des lieux de la technologie et de ses applications potentielles, et de faire une synthèse des informations disponibles, afin que son conseil scientifique puisse étudier la question d’ici le début de 2012.

Même si certains scientifiques américains ont également demandé l’application du principe de précaution à la BS, ils ont finalement constaté l’impossibilité d’instaurer un moratoire. Ainsi, Jonathan Tucker et Raymond Zilinskas, après avoir identifié dans l’étude précitée160 les diverses incertitudes auxquelles chercheurs et autorités de régulation sont confrontés, estiment qu’« il serait prudent d’adopter le "principe de précaution" et de considérer les micro-organismes comme des agents dangereux jusqu’à ce qu’il soit prouvé qu’ils ne provoquent pas de dommage. En application de cette approche, les organismes contenant des assemblages de bio-briques devront être étudiés dans un site de confinement de niveau élevé (niveau 3 ou même 4) jusqu’à ce qu’il soit définitivement montré qu’ils sont sûrs. » Mais ils ajoutent en conclusion de leur article qu’« étant donné la vitesse à laquelle progresse la BS et son caractère international, il est déjà trop tard pour imposer un moratoire, à supposer que quelqu’un l’ait jamais réellement envisagé ».

Ces remarques sont en phase avec la décision de rejet du moratoire prises par la Commission présidentielle américaine de bioéthique et, de façon plus implicite, par le Groupe européen d’éthique.

Pat Roy Mooney, directeur des programmes d’ETC, a lui aussi indiqué, lors de notre rencontre, qu’ETC ne souhaitait pas imposer de moratoire sur les recherches en BS, notamment en ce qui concerne la santé, mais a confirmé ses inquiétudes concernant l’impact des biocarburants sur les cultures.

Ce point de vue marque une évolution par rapport aux déclarations antérieures faites par ETC et un certain nombre d’ONG.

b) L’autorégulation par la communauté scientifique ou par les industriels

Dans leur lettre précitée, les ONG expliquent les raisons pour lesquelles l’autorégulation équivaut à l’absence de régulation et à la violation des droits des travailleurs et du public.

Elles rappellent qu’elles s’étaient déjà opposées à ce concept, en 2006, lors de la réunion Synbio 2.0 (deuxième réunion annuelle de la conférence des biologistes de synthèse), décrite par ses organisateurs comme un Asilomar 2.0.

En 2006, selon les ONG, les biologistes de synthèse avaient tenté de rédiger un ensemble d’autoréglementations destinées à protéger l’environnement et à promouvoir la BS.

Cette conférence n’était pas parvenue à atteindre ces objectifs, notamment en raison de l’absence de dialogue avec les parties concernées. La société civile ayant été empêchée de participer aux discussions sur l’autoréglementation, 38 organisations représentant 60 pays avaient alors décidé d’adresser une lettre à la conférence, par laquelle elles avaient demandé aux biologistes de synthèse d’abandonner leurs propositions destinées à établir une autoréglementation et à s’engager dans un processus qui comprendrait un débat d’ensemble sur les implications de leurs travaux.

Les ONG critiquent l’état actuel d’autoréglementation permettant aux étudiants de créer des organismes synthétiques sur les campus et d’acheter en ligne des fragments d’ADN synthétique, ce qui donne lieu à la biologie « de garage ».

Elles rappellent également que Craig Venter et le MIT ont tenté d’élaborer une autoréglementation en 2007, dans le rapport intitulé « Synthetic Genomics : Options for Governance ». Ce rapport s’est limité – pour les seuls États-Unis – aux questions de biosécurité et de bio-sûreté, aux installations de laboratoires, mais a passé sous silence, aux yeux des ONG, le problème de la sécurité environnementale. Ces tentatives d’autoréglementation font l’objet d’analyses contrastées. Pour la Commission présidentielle américaine de bioéthique, elles ne sont pas un moyen suffisant pour réduire les risques. Toutefois, celle-ci considère qu’elles sont probablement un moyen efficace pour contrôler de nombreux risques associés aux technologies émergentes - y compris la BS - à leur stade précoce. Les scientifiques et les étudiants sont visiblement les premiers à noter les comportements suspects ou les manquements aux précautions de sécurité chez les collègues.

En revanche, le rapport du BIOS Centre de la London School of Economics précité note que les projets d’autoréglementation ont échoué à aborder l’exigence de responsabilité des scientifiques à l’égard du monde extérieur, ce qui a contribué à susciter une méfiance et une remise en cause de la part des autres groupes sociaux. On peut noter au passage que ces mêmes économistes n’ont pas remis en cause la responsabilité des économistes et des financiers dans la non-régulation de la finance. Même si c’est un autre sujet, cela montre bien le caractère relatif des risques que l’on met ou non en exergue. Pour la BS, il s’agit de risques potentiels, pour la finance le risque est bien avéré…

*

* *

Au terme de cette analyse des différentes approches de l’évaluation et de la gestion des risques aux États-Unis et en Europe, l’ensemble des études menées à ce jour ne font pas apparaître de risques avérés vraiment nouveaux liés à la BS, autres que ceux déjà identifiés pour les technologies existantes. Les risques potentiels, à ce stade de développement, ne paraissent pas non plus nécessiter de nouvelles réglementations.

Cependant, les annonces clairement exagérées de scientifiques comme Craig Venter qui revendique d’avoir « recréé la vie » (alors même que la base de son développement scientifique et technologique était un organisme déjà existant), sont de nature à susciter des interrogations légitimes sur le rapport à la science et la tentation toujours présente d’une fascination et d’une confusion entre science et science-fiction.

Des règles d’éthique devraient permettre d’éviter de telles déclarations abusives dont on voit bien qu’elles sont destinées d’abord à susciter des levées de fonds privés auprès des industriels mais qui sont in fine dommageables au développement de la science, d’autant qu’elles sont largement relayées par les médias… là aussi pour des raisons de nature commerciale.

De plus, l’accélération du transfert de la recherche à l’industrie favorise, dans le cas de la BS, le passage d’un milieu confiné et d’une production à petite échelle dans le laboratoire à une échelle industrielle et des risques de dissémination qui deviennent plus importants. Il paraît donc essentiel de mener, en parallèle à la recherche fondamentale et à la recherche appliquée de la BS, encore largement en amont des applications industrielles à grande échelle, des recherches en biosécurité, en bio-sûreté et en écotoxicologie. Dans le cas des nanotechnologies appliquées à la santé, domaine dans lequel on peut situer la BS, la recherche consacrée aux risques éventuels ne représente que 0,4 % du budget mondial des recherches : c’est largement insuffisant.

Dans un tel contexte, on voit bien que l’on risque de privilégier la mise sur le marché de nouvelles molécules ou de nouvelles bactéries avant de les avoir analysées, étudiées, comprises. Il faut donc développer la recherche en écotoxicologie et en biosécurité pour mettre au point une méthodologie, la plus fiable et la plus complète possible, pour expertiser l’évolution des nouveaux organismes synthétiques, pour surveiller et adapter les postes de travail (en mesurant les risques d’exposition aux virus, reconstitués en laboratoire par exemple), pour organiser des formations aux risques pour tous les acteurs de la BS et enfin pour renforcer les dispositifs d’évaluation de risques adaptés à l’évolution rapide et difficilement prédictible des développements de la BS. Il faut noter que la plupart de ces mesures sont déjà prises dans les laboratoires européens (Reach) comme américains.

Il conviendrait également de développer la recherche fondamentale en biologie, avant de mettre sur le marché de façon précipitée des produits dont on ne connaîtrait pas suffisamment les propriétés, les évolutions et l’impact sur l’environnement, la santé, les pratiques et équilibres sociaux.

C’est une nouvelle culture à acquérir et l’on peut regretter qu’elle soit insuffisamment préconisée dans les rapports publiés à ce jour. Par ailleurs, les conclusions de la recherche menée sur la toxicité et la sécurité de la BS devront être communiquées et expliquées, dans un langage compréhensible, à un public le plus large possible, en toute transparence.

Enfin, compte tenu de la dimension internationale de la recherche, et du caractère pervasif de la BS, il paraît nécessaire, comme plusieurs rapports l’ont déjà recommandé, de procéder à une réflexion et à une coopération européenne et internationale, afin d’harmoniser les procédures, réglementations et échanges, sur l’état de l’art des connaissances et des bonnes pratiques.

II.– LES ENJEUX DE LA PROPRIÉTÉ INTELLECTUELLE

Face aux perspectives importantes et diversifiées de développement de la BS, la question de la propriété intellectuelle est un enjeu majeur. Deux enjeux vont influer sur l’organisation de la propriété intellectuelle de la BS.

Le premier enjeu a trait à l’opportunité d’instaurer un régime sui generis, qui tienne compte des particularités de ce nouveau domaine, notamment à cause de son caractère spécifique (à la fois technologie et science), et interdisciplinaire (biologie, informatique, nanotechnologies, biochimie, sciences médicales, économie…).

Un deuxième enjeu est lié aux risques d’une privatisation du vivant et d’atteintes à la liberté de la recherche, du fait d’une pratique agressive en matière de brevetabilité. Cet enjeu n’est pas spécifique à la BS et concerne tout ce qui a trait au vivant.

Des chercheurs et des ONG opposent aux brevets un système d’open access biology inspiré de l’open source du logiciel libre, tandis que des solutions nouvelles, préservant les droits de la recherche et des entreprises, sont proposées.

A.– L’APPLICATION DU DROIT DE LA PROPRIÉTÉ INTELLECTUELLE

1.– LE MAINTIEN DU CADRE JURIDIQUE ACTUEL

a) Les spécificités de la biologie de synthèse justifient-elles un régime spécial de propriété intellectuelle ?

Comme cela a été déjà précisé, la BS repose sur une conception basée sur l’informatique et la construction biotechnologique.

Il en résulte qu’une même invention peut être assujettie à plusieurs régimes juridiques différents.

1° Les positions en droit américain

En droit américain, une invention pourra être brevetable si elle satisfait aux conditions suivantes :

– la nouveauté : cette exigence s’applique aux inventions ou découvertes de tout procédé nouveau et utile, aux machines, aux produits, ou à une composition de matières. Ce dernier terme a été défini par la Cour suprême comme toute composition de deux substances ou plus et de différents éléments, qu’elles soient le résultat d’une union chimique, d’un mélange mécanique et qu’elles prennent la forme de gaz, fluides, poudres ou solides,

– l’utilité : en janvier 2001, l’USPTO (United States Patents Trademarks Office) (Bureau des brevets et des marques des États-Unis) a précisé que ce critère devait répondre à trois exigences. L’utilité doit être spécifique  : par exemple, il ne suffit pas de prétendre qu’un gène est un diagnostic, encore faut-il spécifier dans quelles conditions. L’utilité doit être substantielle, ce qui signifie que l’invention doit avoir une utilité pratique et exclut, par exemple une invention destinée simplement à approfondir les connaissances sur l’ADN. Enfin, l’utilité doit être crédible,

– le caractère non évident : l’invention doit être suffisamment créatrice pour ne pas être une évidence pour les spécialistes du domaine.

A l’heure actuelle, dans le domaine de la biotechnologie, les directives d’examen relatives à la notion d’utilité prévoient que « le brevet porte sur un gène comme le gène isolé et purifié mais non sur un gène, tel qu’il existe dans la nature ». Il résulte de la jurisprudence que les développements sur l’ADN isolé – ou selon une jurisprudence similaire, l’ADN modifié ou purifié – sont brevetables.

Les gènes fabriqués à l’aide des techniques de la BS n’existant pas à l’état naturel, ils sont donc en principe brevetables161.

Si une invention biotechnologique peut rencontrer des difficultés à être brevetée, du fait de l’opposition à la brevetabilité des gènes, cette invention peut être également confrontée aux problèmes du copyright, au regard du droit des logiciels.

La protection du copyright s’applique aux œuvres originales d’auteurs fixées dans un moyen tangible d’expression actuellement connu ou développé ultérieurement, à partir duquel ces oeuvres peuvent être perçues, reproduites ou communiquées autrement, soit directement, soit à l’aide d’une machine ou d’un dispositif. La fixation peut intervenir sous n’importe quelle forme ou manière. Toutefois, le mode de fixation doit être suffisamment permanent ou stable pour permettre à l’œuvre d’être perçue, reproduite ou communiquée de façon permanente.

Or, il résulte de déclarations du Congrès et de décisions jurisprudentielles que les logiciels ont fini par être régis par le copyright et le brevet, situation que des juristes ont jugée absurde162. En effet, le copyright exclut explicitement les œuvres de nature fonctionnelle. A l’inverse, la fonctionnalité est l’un des critères de la brevetabilité. En outre, le droit des brevets a été traditionnellement interprété comme excluant les formules et les algorithmes. Si bien qu’un logiciel – c’est-à-dire une machine faite de mots et d’un ensemble d’algorithmes, dédiés à une fonction particulière – a semblé n’entrer ni dans la catégorie du copyright ni dans celle du brevet, parce que trop fonctionnel pour le copyright et trop proche d’une collection d’algorithmes pour se voir appliquer le régime du brevet. L’assujettissement des résultats de la recherche en BS au régime du copyright divise les juristes américains. Les uns invoquent le fait que ces inventions ne figurent pas parmi les matières éligibles au copyright, selon la loi américaine sur le copyright163. A l’inverse, d’autres considèrent que, grâce à l’interprétation extensive de la notion d’œuvres d’auteurs voulue par le Congrès en 1976, les séquences d’ADN, pouvant être reproduites directement ou à l’aide d’une machine ou d’un dispositif, sont susceptibles d’être couvertes par le copyright.

Les difficultés soulevées par les juristes américains existent aussi en Europe, même si le cadre juridique est un peu différent.

2° Les positions en Europe

En Europe, la BS peut en effet relever également du droit des brevets et/ou du droit de la protection des bases de données.

Pour faire l’objet d’une protection par un brevet, une invention doit satisfaire aux conditions suivantes :

– être nouvelle : une invention est considérée comme nouvelle si elle n’est pas comprise dans l’état de la technique, celui-ci étant constitué par tout ce qui a été rendu accessible au public avant la date de dépôt d’un brevet par description écrite ou orale, un usage ou tout autre moyen,

– revêtir un caractère inventif : l’invention ne doit pas découler d’une manière évidente de l’état de la technique pour les professionnels du domaine,

– être susceptible d’application industrielle, ce qui implique qu’elle doit pouvoir être fabriquée ou être utilisée dans tout genre d’industrie, de commerce ou dans l’agriculture,

– ne pas être l’objet d’une exclusion de brevetabilité : les inventions dont l’exploitation serait contraire à l’ordre public ou aux bonnes mœurs ne sont pas brevetables. Cela couvre également les inventions dont l’application causerait un dommage important à l’environnement ou porterait atteinte à la vie ou la santé d’êtres humains.

S’agissant des inventions biotechnologiques, la directive 98/44 du 6 juillet 1998 relative à la protection juridique des inventions biotechnologiques prévoit en partie des dispositions analogues à celles du droit américain. Son article 5, alinéa 2, dispose, en effet, que peut constituer une invention brevetable un élément isolé du corps humain ou autrement produit par un procédé technique, y compris la séquence totale ou la séquence partielle d’un gène, même si la structure de cet élément est identique à celle d’un élément naturel. De plus, aux termes de l’alinéa 3 de cet article 5, l’application industrielle d’une séquence partielle d’un gène doit être concrètement exposée dans la demande de brevet.

Or, aujourd’hui encore, les dispositions de la directive 98/44 suscitent de très fortes réserves chez certains juristes, tels que Michel Vivant, professeur à l’École doctorale de droit de Sciences-Po Paris. Jugeant nécessaire de limiter la brevetabilité des séquences génétiques à l’usage applicatif des gènes que l’on a identifiés, il conteste la position de l’Office européen des brevets qui voit dans l’isolement un critère suffisant de la brevetabilité. Michel Vivant estime que, dans le domaine génétique, c’est la question de l’inventivité qui se pose. Or, le séquençage étant une opération mécanique, il ne le considère pas comme une activité inventive.

Ces critiques de Michel Vivant confirment celles que notre collègue parlementaire Alain Claeys avait déjà formulées dans le rapport sur la brevetabilité du vivant qu’il avait établi au nom de l’OPECST en 2001. Ainsi Alain Claeys avait-il procédé à une analyse des contradictions contenues dans l’article 5 de la directive 98/44. La directive exige que soit indiquée une fonction de la séquence d’ADN pour qu’elle soit brevetable. Or cette exigence n’est pas formulée dans le dispositif de l’alinéa 3 de ce même article 5, qui ne requiert que la description concrète de l’application industrielle.

Cette incohérence tient à ce que les auteurs de la directive n’ont pas repris dans son dispositif les considérants 23 et 24. Le considérant 23 prévoit l’exposé de la fonction du gène pour que soit reconnu le caractère brevetable d’une séquence d’ADN : « Une simple séquence d’ADN sans indication de fonction ne contient aucun enseignement technique ; (…) elle ne saurait par conséquence constituer une invention brevetable ». Le considérant 24 prévoit également que, « pour que le critère d’application industrielle soit respecté, il est nécessaire, dans le cas où une séquence partielle d’un gène est utilisée pour la production d’une protéine, de préciser quelle protéine ou protéine partielle est produite ou quelle fonction elle assure ».

Selon Alain Claeys, ces dispositions sont en fait la conséquence des débats éthiques et scientifiques sur la brevetabilité des gènes d’origine humaine suscités en 1992 par les demandes de brevets déposées par Craig Venter auprès de l’USPTO. Ces demandes avaient été rejetées du fait de l’absence d’indications quant aux nouvelles fonctions exercées.

Les critiques formulées par Alain Claeys ont influencé les débats lors de la discussion de la loi du 6 août 2004 relative à la bioéthique, qui a transposé la directive 98/44. D’importantes divergences de formulation résumées dans l’encadré ci-après existent, en effet, entre l’article L. 611-18 du code de propriété intellectuelle (CPI) issu de la loi du 6 août 2004, relative à la bioéthique et les articles 5 et 6 de la directive.

L'article L. 611-18 du code de la propriété intellectuelle issu de l'article 17 de la loi du 6 août 2004 est structuré en trois parties et semble transposer les articles 5 et 6 de la directive.

Le premier alinéa de l'article L. 611-18 du CPI reprend bien la formulation de l'article 5, alinéa premier, de la directive et soustrait de la brevetabilité « le corps humain, aux différents stades de sa constitution et de son développement, ainsi que la simple découverte d'un de ses éléments, y compris la séquence totale ou partielle d'un gène ».

Au contraire, le deuxième alinéa s'écarte radicalement du texte de l'article 5, alinéa 2, de la directive en y apportant des restrictions, puisqu'il énonce que « seule une invention constituant l'application technique d'une fonction d'un élément du corps humain peut être protégée par brevet. Cette protection ne couvre l'élément du corps humain que dans la mesure nécessaire à la réalisation et à l'exploitation de cette application particulière. Celle-ci doit être concrètement et précisément exposée dans la demande de brevet. »

L'article 5, alinéa 2, de la directive autorise à l'inverse, sans aucune restriction, une protection par brevet « d'un élément isolé du corps humain ou autrement produit par un procédé technique ».

Le troisième alinéa évoque les exclusions de brevetabilité reprenant en partie les dispositions de l’article 6, en insérant un point (d), dont les termes ne figurent pas dans la directive. Ce point vise l’exclusion « des séquences totales ou partielles d’un gène prises en tant que telles ».

Source : Hélène Gaumont-Prat, Les Petites Affiches, 18 février 2005

Outre les dispositions relatives au brevet, celles de la directive 96/9 du 11 mars 1996 sur la protection juridique des bases de données sont susceptibles de s’appliquer à la BS. Car si l’Europe, à la différence des États-Unis, n’a pas protégé les logiciels, en revanche, à l’inverse de ces derniers, elle a assujetti les bases de données à un régime sui generis.

La directive du 11 mars 1996 confère au « producteur » d’une base de données la faculté d’interdire l’extraction ou la réutilisation de parties substantielles (voire l’extraction ou la réutilisation répétée et systématique de parties non substantielles) de cette base, lorsqu’il peut justifier du fait que « l’obtention, la vérification ou la présentation [de son] contenu […] attestent un investissement substantiel du point de vue qualitatif ou quantitatif » (article 7). Cette directive a été conçue pour apporter un complément à la protection classique par le droit d’auteur, jugée insuffisante du fait de la rigueur du critère d’originalité.

Cette protection - distincte et autonome de celle qui peut être accordée au titre du droit d’auteur - est acquise non à un créateur, mais à l’entité (généralement une personne morale) ayant financé et organisé la constitution de la base. Elle lui offre un monopole d’exploitation (sous la forme d’un « droit d’interdire ») et vise essentiellement à préserver durant quinze années un investissement, dont l’existence et le caractère substantiel doivent être cependant démontrés pour pouvoir bénéficier de la protection.

Cette directive est l’objet de nombreuses interprétations mettant en cause le contenu précis à donner aux critères définis par la directive concernant le caractère substantiel de l’investissement et l’interdiction d’extraire ou de réutiliser une partie substantielle du contenu de la base.

Certains font ainsi observer, à juste titre, qu’une appréciation du caractère substantiel de l’investissement de manière absolue risque de favoriser les grandes entreprises plus à même d’investir des sommes significatives, alors que, à l’inverse, se livrer à une appréciation relative (au regard de la taille du producteur concerné) serait moins discriminant mais plus discutable du point de vue de l’égalité vis-à-vis de la loi.

Tout aussi imprécise à l’usage est la qualification de l’adjectif « substantiel » appliqué aux extractions ou réutilisations interdites d’une partie de la base protégée. Là aussi, la détermination de la limite entre ce qui est substantiel et ce qui ne l’est pas, très difficile à fixer, accroît ou réduit proportionnellement la portée effective de la protection.

Un troisième sujet de malentendu possible concerne les conditions dans lesquelles la durée initiale de protection pourra être prorogée comme le prévoit la directive, dès lors que sera intervenue une « modification substantielle » qui « ferait considérer qu'il s'agit d'un nouvel investissement substantiel, évalué de façon qualitative ou quantitative » (art. 10.3). Certains y ont vu la possibilité d'une protection « perpétuelle » des bases de données, puisque beaucoup d'entre elles sont constamment mises à jour et font donc l'objet d'investissements réguliers au fur et à mesure de leur évolution. Là encore, cette interprétation juridique avantagerait les grands groupes industriels ou pharmaceutiques, au détriment de la recherche et développement du secteur public.

Enfin, et plus globalement, se pose la question de la conciliation entre la protection des bases de données et le droit de la concurrence. D’une part, les incertitudes évoquées précédemment concernant la portée de la réservation des bases et de leurs contenus peuvent induire, au nom de la directive, des monopoles abusifs. D’autre part, tous les droits de propriété intellectuelle sont désormais confrontés aux limitations qu'impose le droit de la concurrence (notamment depuis l'arrêt Mcgill de la Cour de Justice des Communautés Européennes de 1995).

Dans un contexte marqué par la « numérisation de la science » et même de l’« e-science », les économistes et les milieux scientifiques ont, de leur côté, remis en cause la directive au nom des intérêts de la recherche scientifique.

Selon des analyses développées aux États-Unis, la numérisation des résultats de la recherche et des outils de recherche favoriserait l’appropriation par des intérêts privés des retombées technologiques et commerciales de ces recherches.

Ces critiques ont été jugées non pertinentes, étant généralement sans rapport avec l’application de la directive de 1996. C’est ainsi, par exemple, que la base helvétique Swiss-Prot, tout en n’étant pas exploitée sous la protection communautaire, comporte toutefois des conditions restrictives d’accès et d’usage pour certains de ses utilisateurs. De plus, les craintes exprimées par les milieux scientifiques mésinterprètent les mécanismes de la protection sui generis des bases de données, en surestimant les droits conférés au producteur en Europe. D’une part, l’article 9 de la directive prévoit des dispositions destinées à empêcher les titulaires du droit de propriété intellectuelle d’abuser de leur monopole d’exploitation. D’autre part, la jurisprudence communautaire et nationale164 contribue également à mieux faire respecter le droit de la concurrence, en appliquant la théorie des équipements essentiels, propre au droit de la concurrence. La théorie des « équipements essentiels » (essential facilities), qui trouve son origine dans le droit américain de l’antitrust, repose sur l’idée que lorsque l’accès à une ressource est essentiel pour pouvoir opérer sur un marché dérivé, le propriétaire de cet équipement peut, dans certaines circonstances, être obligé de le garantir aux opérateurs.

b) Le choix du maintien du cadre juridique actuel

Deux arguments justifieraient le maintien du cadre actuel :

– d’une part, les Accords sur les aspects des droits de propriété intellectuelle et commerciale (ADPIC) élargissent et renforcent le champ d’application des brevets,

– d’autre part, le brevet est toujours considéré comme un moyen de favoriser et de protéger l’innovation, le transfert à l’industrie et la création des emplois correspondants.

1° L’élargissement et le renforcement du champ d’application des brevets par les ADPIC (Accords sur les aspects des droits de propriété intellectuelle et commerciale)

Les accords du General Agreement on Tariffs and Trade (GATT ou Accord général sur les tarifs douaniers et le commerce) conclus en 1947 ont voulu instaurer une libéralisation des échanges commerciaux entre les nations du monde. A cette époque, la propriété intellectuelle n'était pas à l'ordre du jour, les échanges concernant plutôt les produits matériels. Aucune réglementation visant spécifiquement les droits de propriété intellectuelle dans le cadre du système commercial multilatéral régi par le GATT n'avait donc été prévue.

Cette question a commencé à être réellement débattue sur la scène internationale au cours des négociations du Cycle de l'Uruguay (Uruguay Round) qui se sont déroulées de 1986 à 1994. Ce sont les États-Unis qui, les premiers, soulevèrent dans le cadre de ces négociations commerciales multilatérales l’argument selon lequel l'absence de législation exhaustive sur la propriété intellectuelle pourrait être constitutive d'une barrière aux échanges commerciaux.

Un lien avait alors été établi entre les droits de propriété intellectuelle et le système commercial multilatéral régi par l'Organisation mondiale du commerce (OMC) qui a succédé au GATT. Il s'agissait de légitimer les possibilités de sanctions contre les nations ne se soumettant pas à des règles strictes en matière de protection de la propriété intellectuelle. Les négociations ont abouti à la signature de ces ADPIC le 15 avril 1994. Le texte de ces accords figure en annexe de l'accord-cadre de Marrakech instituant l’OMC. Les États membres de l'Union européenne sont tenus de s'y conformer depuis le 1er janvier 1996.

Ces accords visent à définir un cadre d'harmonisation des législations nationales sur les droits de propriété intellectuelle. Il s’agit de droits attribués à des acteurs privés pour leur contribution au développement de nouvelles technologies, qui leur permettent de contrôler l’innovation produite sous différentes formes : brevets, marques déposées, copyrights...

Les dispositions concernant le vivant sont comprises dans l’article 27-1 précisant que des brevets doivent pouvoir être obtenus dans tous les domaines et l’article 27-3(b) qui détermine les possibilités d'exclusions de la brevetabilité. Selon l'article 27-1, « un brevet pourra être obtenu pour toute invention, de produit ou de procédé, dans tous les domaines technologiques, à condition qu'elle soit nouvelle, qu'elle implique une activité inventive et qu'elle soit susceptible d'application industrielle ». Le vivant est bien concerné. Cet article reprend également les critères classiques du brevet : nouveauté, invention et application industrielle. L'article 27-3(b) précise, outre les exclusions pour protéger l'ordre public, la moralité, la santé et la vie des personnes et des animaux, ainsi que les végétaux, ou encore, pour éviter les graves atteintes à l'environnement, que pourront être exclus de la brevetabilité « les végétaux et les animaux autres que les micro-organismes et les procédés essentiellement biologiques d'obtention de végétaux ou d'animaux autres que les procédés non biologiques et microbiologiques ». 165

Toujours selon cet article, les membres devront prévoir « la protection des variétés végétales par des brevets, par un système sui generis efficace ou par une combinaison des deux moyens ».

La durée de la protection conférée aux brevets est de 20 ans au moins, à compter de la date du dépôt. Toutefois les exceptions à cette règle seront autorisées, à condition qu’elles ne causent pas un préjudice injustifié à l’exploitation normale du brevet.

Ces dispositions, qui ont contraint l’Europe à adopter la directive 98/44 sur la protection des innovations biotechnologiques et à modifier la Convention sur le brevet européen, montrent clairement que sur un plan strictement juridique, le droit des brevets peut régir la BS comme ce fut le cas pour d’autres technologies émergentes, telles que l’informatique. En effet, souligne Michel Vivant, ce parallèle est d’autant plus pertinent que la notion d’information est contenue dans l’une et l’autre, le logiciel étant un objet qui traite de l’information tout comme une séquence génétique.

Dans ce contexte, les offices de brevets et les industriels s’estiment fondés à écarter toute idée d’instaurer un cadre juridique spécifique, d’autant qu’ils voient dans le brevet un moyen de protéger et de promouvoir l’invention.

2° Le brevet : un moyen de protéger et de promouvoir l’invention

D’après une étude récente166, le nombre de brevets accordés dans le domaine de la BS par l’USPTO, ainsi que par l’Office européen des brevets, serait passé de 2 pour la période 1990-1994 à 18 pour la période 2005-2008.

ÉVOLUTION DE LA DÉLIVRANCE DES BREVETS DANS LE DOMAINE
DE LA BS

Ces chiffres en progression, mais malgré tout encore très faibles, illustrent le caractère encore très amont des développements de la BS et leur éloignement du marché et de la production industrielle.

Une construction technologique inventive et satisfaisant aux critères de brevetabilité est jugée tout à fait légitime. Ainsi, lors de l’audition publique organisée par l’OPECST le 4 mai 2011 sur les enjeux industriels et sociétaux de la BS, Marc Delcourt, président-directeur général de Global Bioenergies, a-t-il tenu à distinguer les cas où la brevetabilité pouvait être contestable parce que concernant des produits naturels, de cas comme celui de l’isobutène, un biocarburant issu d’un procédé industriel spécifique et légitimement brevetable par son entreprise.

Certains scientifiques ne remettent pas non plus en cause la légitimité de la protection conférée par le brevet. Ainsi, en réaction à un arrêt de la Cour de Justice de l’Union européenne du 18 octobre 2011 excluant de la brevetabilité l’utilisation d’embryons humains à des fins de recherche scientifique, Marc Peschanski, chercheur au Genopole d’Evry, a-t-il déploré que cet arrêt porte préjudice principalement aux sociétés de biotechnologie innovantes, pour lesquelles les brevets sont indispensables à l’obtention et au maintien de financements. Il a estimé qu’à défaut d’une action des États, l’Europe abandonnera ces recherches au profit des États-Unis et du Japon167,se rendant ainsi dépendante technologiquement de ces pays dans un secteur aussi porteur et stratégique que la BS.

Même si ce point fait controverse, Marc Péschansky pointe à juste titre le rôle majeur du brevet comme outil de stimulation, de valorisation de la recherche et de sa transformation en innovation créatrice d’emplois. Il est d’ailleurs significatif que le Bayh-Dole Act de 1980 ait autorisé les universités américaines à déposer des brevets et à créer des bureaux de transferts de technologies, afin de collecter des royalties grâce aux brevets et licences sur des produits qui, jusque-là, tombaient directement dans le domaine public.

L’étroitesse du lien entre recherche, innovation et brevet est confirmée par le diagnostic d’un récent rapport du Conseil d’analyse économique168, qui constate, malheureusement, le retard constant de la France dans le secteur de l’innovation au regard de pays comparables. Les indicateurs sont alarmants : notre pays est passé de la 8e à la 22e place dans le monde en 10 ans169, notre pourcentage de PIB dédié à la R&D plafonne à 2,2 % depuis 10 ans, bien loin de l’objectif des 3 % fixé par l’Union Européenne à Lisbonne en 2002 (un objectif dépassé par les pays scandinaves, l’Allemagne, la Corée, le Japon, les États-Unis…). Par ailleurs, si la qualité de notre recherche est reconnue, il n’en est pas de même de sa valorisation, l’Office Européen des Brevets constatant que les laboratoires et entreprises françaises déposent trois fois moins de brevets que les entreprises allemandes, la France se situant au 12e rang pour l’innovation170, soit au même niveau que la Hongrie ou l’Estonie...

Le Prix Nobel américain d’économie, Joseph Stiglitz, souligne à ce propos que nous ne pouvons nous attendre à de l’innovation sans investir dans un brevet. Il précise aussi que le brevet est utile pour le processus d’innovation lui-même, parce qu’il permet de divulguer l’état de l’évolution des connaissances et évite ainsi le problème posé par le secret scientifique ou industriel171.

De plus, dans le contexte économique que connaissent les pays développés, avec la concurrence croissante des pays émergents, le lien entre innovation et création d’emplois est évident et doit être pris en considération, y compris dans notre approche des risques potentiels et de la brevetabilité de la BS.

2.– LES DÉRIVES POSSIBLES LIÉES À L’APPLICATION DU DROIT DE LA PROPRIÉTÉ INTELLECTUELLE À LA BIOLOGIE DE SYNTHÈSE

a) L’élargissement des critères de brevetabilité

1° Des critères flous

Le caractère flou de la notion d’invention prévue par les ADPIC (Accords sur les aspects des droits de propriété intellectuelle qui touchent au commerce) a sûrement contribué aux divergences d’approche entre les États-Unis et l’Europe sur la question de la brevetabilité des programmes d’ordinateurs et des méthodes dans le domaine des activités économiques. Les Européens s’y sont, en effet, opposés parce que l’expression « dans tous les domaines technologiques » visée à l’article 27, paragraphe premier des ADPIC, implique que l’invention ait un caractère technique, ce qui est une condition implicite dans la législation européenne172, mais pas aux États-Unis.

Au-delà de ces conflits d’interprétation, on peut, comme Michel Vivant, s’interroger sur l’adéquation de la notion d’invention. Il fait observer que les notions américaine d’utilité et européenne de technique, sur lesquelles se fonde la notion d’invention, sont vagues, puisque tout brevet est utile. Quant à la notion de technique, Michel Vivant la juge des plus floues. Ainsi pourrait-on, selon lui, parler aussi bien de technique de la danse.

S’agissant de la notion européenne de technique – solution technique apportée à un problème technique – elle a été inspirée, selon Michel Vivant, par la doctrine allemande, qui voyait dans l’invention la mise en œuvre des lois de la nature. Or, si cette définition était claire dans les années 60, antérieurement au développement de l’informatique et des biotechnologies, il semble qu’elle ne le soit plus aujourd’hui pour appréhender la notion d’information, qui est au cœur de ces nouvelles technologies. Ceci est évident pour l’informatique, le logiciel étant de l’ordre de l’abstrait. Quant aux biotechnologies, si la création de toutes pièces d’un code génétique peut se rapprocher de celle d’un code informatique, il reste bien entendu que nulle « création » d’un organisme vivant et viable ne pourra se faire sans obéir forcément aux lois de la nature.

2° L’extension de ces critères

Deux dispositions de la directive 98/44 du 6 juillet 1998 relative à la protection juridique des inventions biotechnologiques sont particulièrement critiquées par une partie des juristes.

La première concerne l’article 3, deuxième alinéa, aux termes duquel « une matière biologique isolée de son environnement naturel ou produite à l’aide d’un procédé technique peut être l’objet d’une invention, même lorsqu’elle préexistait à l’état naturel ». En érigeant ainsi l’importance de l’activité humaine en critère décisif de la brevetabilité, la directive s’inscrit dans une évolution – d’ailleurs initiée par l’Office européen des brevets – qui tend à faire disparaître la distinction entre découverte et invention. Certes, il est délicat d’opposer invention et découverte, la première découlant de la seconde. Mais, comme le rappelle l’article 52, alinéa 2 a) de la Convention sur le brevet européen, les découvertes ne sont pas brevetables.

La deuxième disposition contestée est celle de l’article 4, paragraphe 2, de la directive qui prévoit que les inventions portant sur les végétaux et des animaux sont brevetables, si la faisabilité technique de l’invention n’est pas limitée à une variété végétale ou à une race animale déterminée.

Le biologiste Axel Kahn, membre du conseil scientifique de l’OPECST, a appelé l’attention sur les abus auxquels cette disposition peut conduire. Il a considéré qu’un transgène introduit dans une plante était un moyen de s’assurer des droits sur toutes les qualités génétiques de la variété, dès lors que cette variété transgénique acquiert une position dominante, ce qui, à ses yeux, n’est pas légitime. En effet, une entreprise qui a construit un transgène conférant des propriétés intéressantes - par exemple, une résistance à des insectes ou à des herbicides - peut se prévaloir d’une activité inventive. En revanche, lorsqu’un transgène est ajouté aux quelque 80 000 gènes d’une variété de maïs, Axel Kahn doute, à juste titre, de la légitimité de l’entreprise à bénéficier de droits qui excéderaient ceux relevant du transgène lui-même, c’est-à-dire de la résistance conférée. Car les autres gènes de la plante sont naturels, tandis que leur échantillonnage particulier, sur lequel repose la valeur de la variété, n’a pas été sélectionné par cette entreprise173.

b) Les dérives de la brevetabilité

Il s’agit de dérives suscitées par les décisions d’élargissement du domaine de protection prises par certaines cours ou offices de brevets, ainsi que par la pratique agressive du dépôt des brevets.

1° Des décisions ayant favorisé l’extension du domaine de protection.

Ø Aux États-Unis

En 1980, dans l’arrêt Diamond c/ Chakrabarty, la Cour Suprême a jugé que le droit des brevets n’établissait pas de distinction entre les choses vivantes et inanimées, mais distinguait les produits de la nature - qu’ils soient vivants ou non - et les inventions de l’homme.

Ce n’était certes pas la première fois qu’un brevet avait été déposé sur une technologie utilisant l’ADN recombinant. En l’espèce, Chakrabarty avait déposé un brevet sur une méthode utilisant des organismes pour dégrader le pétrole et un autre brevet sur les organismes eux-mêmes. Mais pour les juristes américains, l’arrêt Charkabarty est d’une importance majeure, parce qu’il a affirmé que quiconque découvre ou invente un procédé nouveau et utile - machine, produit, ou une combinaison de matériaux - peut en conséquence obtenir un brevet sous les conditions prévues par l’USPTO. Les juristes américains ont depuis lors traduit ce principe jurisprudentiel par la formulation suivante : « Tout ce qui sur cette terre est fait par l’homme peut être breveté. »

De fait, à la suite de cet arrêt, les brevets déposés et accordés sur les séquences d’ADN ont augmenté rapidement, ce qui n’a cessé de nourrir le débat sur les abus commis par certains titulaires de ces brevets, comme l’illustre l’affaire Myriad Genetics. Cette entreprise américaine détient, en effet, des brevets concernant un test sur les gènes BRCA1 et BRCA2, en vue de la détection du cancer du sein. Elle a estimé être titulaire d’un monopole lui assurant le contrôle sur toutes les applications possibles de ces gènes, ce qui a donné lieu, entre autres, à un contentieux entre Myriad Genetics et l’Institut Curie.

Cette affaire a connu plusieurs péripéties, puisqu’en 2010, une cour du district de New York a invalidé les brevets détenus par Myriad Genetics. Mais, au mois d’août 2011, la Cour d’Appel du circuit fédéral a rendu une décision contraire, de telle sorte qu’il appartiendra à la Cour Suprême de se prononcer.

Les débats juridiques suscités par cette affaire et son issue finale sont suivis de très près par la communauté américaine des biologistes de synthèse, ainsi que pour l’ensemble de la communauté internationale, au premier rang desquels l’Institut Curie.

Au-delà de la biotechnologie, le principe posé par l’arrêt Chakrabarty a conduit les tribunaux à breveter les algorithmes, à la suite d’une réinterprétation de la notion d’utilité. A l’origine, celle-ci écartait la brevetabilité de certaines inventions, jugées inutiles, parce que néfastes. Cette réserve a toutefois été revisitée comme autorisant a contrario la brevetabilité à partir du moment où une invention serait jugée utile, comme les algorithmes. En 2010 encore, la Cour suprême américaine a ainsi jugé que les méthodes d’affaires étaient brevetables.

Ø En Europe

On a pu constater que dans les domaines de la biotechnologie et des logiciels, l’Office européen des brevets a adopté des décisions analogues à celles qui avaient été rendues aux États-Unis174.

Ainsi, les directives d’examen de l’OEB sur la brevetabilité des matières biologiques précisent-elles que « quiconque découvre une propriété nouvelle d’une matière ou d’un objet connu fait une simple découverte qui n’est pas brevetable. Si, toutefois, cette personne utilise cette propriété à des fins pratiques, elle a fait une invention qui peut être brevetable.»

La directive 98/44 sur la protection juridique des inventions biotechnologiques a conféré une portée légale à cette jurisprudence de l’OEB puisque l’article 3, alinéa 2, de cette directive permet à une matière biologique même préexistante à l’état naturel d’être l’objet d’une invention, lorsqu’elle est isolée de son environnement naturel ou produite par un procédé technique.

S’agissant des logiciels, Bernard Remiche175, juriste spécialisé dans le droit international, a relevé que, sous la pression des milieux favorables à la brevetabilité des logiciels, l’Office européen des brevets n’avait pas attendu que la Convention sur le brevet européen soit modifiée pour faire évoluer la pratique.

C’est ainsi que l’on a contourné parfois l’exclusion de la brevetabilité des logiciels par le dépôt de brevets revendiquant des procédés ou encore en admettant la validité des brevets portant sur des programmes d’ordinateur lorsqu’ils « produisent un effet technique ».

Ces décisions rendues par les cours ou les Offices de brevets n’ont pas manqué d’encourager une pratique agressive de la part des industriels et de certains scientifiques.

2° Une pratique agressive du dépôt des brevets

Cette pratique peut être qualifiée d’agressive, lorsque des brevets déposés et accordés sur une base large ou étroite posent des problèmes aux chercheurs.

Craig Venter est souvent critiqué pour avoir déposé plusieurs demandes de brevets à revendication large. Ainsi, le 15 novembre 2007, ses collaborateurs et lui avaient-ils déposé un brevet intitulé « Génomes synthétiques », dont la description était la suivante : méthode en vue de la construction d’un génome synthétique comprenant l’assemblage de cassettes d’acides nucléiques, qui incluent des fragments de génome synthétique dans lesquels au moins l’une de ces cassettes est construite à partir de composants ou de copies d’acides nucléiques, ayant fait l’objet d’une synthèse chimique. La demande indique clairement que la méthode vise à la fabrication d’un génome minimal qui sera ensuite réplicable.

Elle concerne également des produits tels qu’une « source d’énergie », définie par référence à l’hydrogène ou à l’éthanol, ainsi que des polymères thérapeutiques et industriels. L’objet de cette invention était la version synthétique du génome de Mycoplasma genitalium.

Une étude récente176 fait observer que, même en acceptant que « l’invention » soit la méthode, l’un des défauts patents de la demande de Craig Venter réside dans la tentative d’établir un monopole sur la méthode de construction d’un génome synthétique utilisant des cassettes d’acides nucléiques. Selon Luigi Palombi, les demandes portant sur les procédés cherchent également à établir un monopole, notamment sur les organelles cellulaires des eucaryotes fabriquées synthétiquement à l’aide d’une méthode employant des cassettes d’acides nucléiques.

Une autre critique formulée par cette même étude a trait au fait que ni Craig Venter, ni personne d’autre, n’a fabriqué le génome de Mycoplasma genitalium, sa version synthétique étant, de façon substantielle, identique à la bactérie naturelle. Ce génome doit donc rester dans le domaine public.

Le 22 novembre 2007, Craig Venter et ses collaborateurs ont déposé une deuxième demande de brevet intitulée : « Installation de génomes ou de parties de génomes dans les cellules ou des systèmes analogues aux cellules ». L’invention, soutenue par le Gouvernement américain, est définie comme une cellule synthétique produite grâce à un génome qui n’est pas à l’intérieur d’une cellule et à l’introduction du génome à l’intérieur d’une cellule ou d’un système analogue à une cellule.

La demande ne vise pas l’insuline synthétique mais des peptides d’insuline, qui pourraient être « collectés » à partir de cellules synthétiques, ce qui signifie que Craig Venter et ses collaborateurs envisagent que l’insuline humaine soit l’une des protéines qui puissent faire l’objet d’une invention.

Dans le passé, des brevets ont déjà été accordés sur la production d’insuline : insuline purifiée extraite du pancréas d’animaux, entre 1922 et 1939 ; insuline humaine purifiée à l’aide d’ADN recombinant entre 1978 et 1995. Dans un avenir prévisible, même si ce n’est pas encore une réalité, selon Luigi Palombi177, des brevets pourraient être délivrés sur l’insuline humaine synthétique utilisant des cellules synthétiques.

Pour autant, Luigi Palombi doute que la simple réplication des protéines naturelles suffise à lui conférer un caractère de nouveauté, même si le matériel utilisé est synthétique et induit des améliorations, étant donné que la protéine obtenue serait la même que la protéine naturelle. À ses yeux, le procédé ne saurait être brevetable parce qu’il est trop peu nouveau et trop évident pour les spécialistes.

Craig Venter n’est pas le seul chercheur à avoir déposé des brevets à revendications larges. En effet, en 2004, le Département fédéral de la Santé des États-Unis a déposé un brevet intitulé : « Éléments d’informatique moléculaire, portes logiques et bascules [flip-flops] ». La demande portait sur l’utilisation de protéines liant des acides nucléiques destinées à alimenter une mémoire de données informatiques et des portes logiques178 qui effectuent les fonctions essentielles de l’algèbre booléenne.

La revendication précisait que l’invention pourrait non seulement avoir une application informatique, mais aussi être utilisée pour un contrôle numérisé de l’expression des gènes. Elle pourrait ainsi concerner les parties qui effectuent les fonctions de l’algèbre booléenne, mais également tout dispositif et système contenant ces parties. Un tel brevet s’appliquerait donc aux fonctions informatiques essentielles lorsque celles-ci seraient mises en œuvre par un moyen génétique.

Des juristes se sont demandés si un brevet de cette nature, qui toucherait ainsi aux bases de l’informatique et de la génétique, pourrait être défendu devant une cour179. Sur ce point, ils ont craint que la Cour du circuit fédéral n’assouplisse le critère de non-évidence comme elle l’avait fait en biotechnologie.

S’agissant des conséquences pouvant découler de ces pratiques, en particulier celles de Craig Venter, elles sont jugées de façon assez contrastée. Certains craignent que Craig Venter n’introduise un modèle analogue à celui de Microsoft, apparenté à un quasi-monopole de fait. Ainsi James Boyle, professeur de droit à la Duke School of Law, observe-t-il que, dans le secteur informatique, Microsoft est en compétition avec le système d’open source offert par Apache et d’autres opérateurs. Dans le domaine de la BS, il en va de même, puisque les bio-briques, système d’open source ou plutôt d’open access biology seraient menacées par des brevets larges portant sur des technologies de base. Craig Venter – à l’exemple de Bill Gates dans l’informatique – voudrait ainsi imposer un monopole sur le code du vivant180. L’opinion du professeur James Boyle est partagée par plusieurs scientifiques britanniques rencontrés dans le cadre du présent rapport. En revanche, Ron Weiss a écarté tout risque de monopole analogue à celui exercé par Monsanto, d’une part, en raison du nombre élevé des applications de la BS et, d’autre part, parce que l’accès ouvert de la matière génétique garantirait la possibilité de valorisation des recherches et de création d’entreprises de façon croissante. Le professeur David Mc Allister, membre du groupe de recherche du BBSRC (Biotechnology and biological Sciences Research Council), a partagé les observations de Ron Weiss, en invoquant le fait qu’au Royaume-Uni, l’importance du financement public de la recherche publique et une politique d’accès public à la recherche empêchent tout risque de monopole des recherches et de leur valorisation.

Les demandes de brevets portant sur des champs plus étroits peuvent également entraver la recherche fondamentale. On a ainsi cité l’exemple de chercheurs de l’Université de Boston, qui ont déposé des brevets sur l’utilisation de l’ADN, en vue de produire des mécanismes spécifiques de régulation des gènes, comme un oscillateur à états multiples181.

Arti Rai et James Boyle, professeurs de droit à la Duke School of Law, font observer que dans le secteur des technologies de l’information, de nombreux produits sont issus de douzaines ou de centaines de composants brevetés. Or, si les industriels sont parfois parvenus à créer des pools de brevets, en particulier des brevets autour d’industries standards, ces efforts ont été entravés par la décision d’entreprises partenaires de ne pas divulguer leurs brevets correspondants. À la lumière de ces expériences, Arti Rai et James Boyle estiment que l’échec des pools de brevets dans les sciences de la vie est une source de difficultés pour la BS, qui intègre non seulement la technologie de l’information mais aussi la biotechnologie.

Sur ce dernier point, Richard Gold, professeur de droit à l’Université Mac Gill de Montréal et à Sciences-Po Paris, a fait état de deux modèles d’open innovation. Le premier est celui d’Open Biosystems, entreprise créée en 2001, qui offre des instruments de recherche génomique aux chercheurs des institutions académiques et aux laboratoires gouvernementaux. Richard Gold indique que, si ce système a un coût élevé, il est néanmoins ouvert à tous.

Le second exemple est celui du Structural Genomics Consortium. Créé en 2004, cet organisme à but non lucratif est financé par des entreprises, dont Novartis, des universités et des fondations. Il a décidé de rendre publics les travaux concernant les molécules fabriquées par le consortium et permet l’accès sans restriction à sa base de protéines.

Au final, l’extension de la brevetabilité des gènes aux États-Unis a été décrite par certains comme une véritable « ruée vers l’or », aboutissant à ce que, en 2005, environ 20 % de la totalité des gènes humains avaient été brevetés dans ce pays182. Pour sa part, à la fin de 2000, l’OEB avait reçu environ 2 000 demandes portant sur des gènes humains, dont 300 environ brevetés par l’Office183.

C’est pourquoi, en réaction à cette évolution, diverses initiatives ont été prises en vue de rechercher des solutions alternatives au brevet.

B.– LES SOLUTIONS ALTERNATIVES AU BREVET : DÉFINITION ET ÉVALUATION

1.– PRÉSENTATION DES SOLUTIONS ALTERNATIVES AU BREVET

Ces solutions sont : l’open access biology et le copyleft.

a) L’open access biology

Ce concept s’inspire directement de l’open source développé pour l’informatique en même temps que le logiciel libre. Dans ce système, le code-source d’un programme d’ordinateur est disponible publiquement, les utilisateurs licenciés ayant le droit de modifier et de diffuser le logiciel ainsi modifié, à condition de rendre publiques leurs améliorations dans les mêmes termes.

L’adaptation du système de l’open source dans le domaine de la BS doit beaucoup à la formation des fondateurs du concours iGEM et en même temps gestionnaires de la BioBricks Foundation  (Fondation bio-briques) : Drew Endy est titulaire d’un diplôme d’ingénieur du génie civil, Tom Knight est chercheur au MIT dans le laboratoire de science informatique et d’intelligence artificielle et Randy Rettberg, rencontré dans le cadre de ce rapport, est ingénieur en électricité et informaticien. Leur culture d’ingénieurs, majoritairement informaticiens, explique leur parcours et leurs choix dans le domaine de la BS.

Retraçant la genèse de la création du registre des bio-briques, Arti Rai et James Boyle indiquent que l’idée de fonder une BS qui appartiendrait à tous (commons) à travers ce registre tire, en partie, son inspiration de la prépondérance du modèle d’open source dans l’informatique, considéré comme une alternative au régime de propriétaire du logiciel. Les producteurs de logiciels open source mettent leur code-source à la libre disposition des utilisateurs pour y apporter des améliorations, des modifications et des redistributions du logiciel184. Les mêmes auteurs suggèrent également que l’idée d’appliquer l’open source à la BS a été jugée par les fondateurs du registre du MIT comme un moyen de remédier à l’échec du système de pool de brevets dans les sciences du vivant.

D’autres études ont soutenu que le choix en faveur du système de l’open access biology a été effectué en réaction aux inconvénients liés aux brevets, qui peuvent empêcher le développement des diagnostics et des thérapeutiques par des tiers, en raison des coûts associés aux données utilisant des recherches brevetées185. Jay Keasling développe une argumentation analogue en soutenant que, à la différence du brevet, l’open access biology réduit le coût de fabrication des systèmes biologiques, rend cette fabrication plus prédictible et encourage les solutions innovantes. En revanche, tel n’est pas le cas du brevet car, selon Keasling, le fait que les entreprises aient breveté la plupart des briques (promoteurs, gènes, plasmides, etc.) a eu pour conséquence d’en limiter l’accès aux seules entreprises capables de verser des royalties, d’accroître le prix des médicaments et de freiner l’innovation dans le génie génétique186.

La création du registre des bio-briques est donc considérée comme un processus de biologie ouverte 187.

Géré par une fondation à but non lucratif - la BioBricks Foundation - le registre a pour objectif de promouvoir le développement et l’utilisation responsable des technologies fondées sur les fragments de l’ADN conformes aux standards des bio-briques qui codent les fonctions biologiques essentielles. Le registre est un répertoire contenant les « briques » du vivant et l’information technique sur les conditions permettant de fabriquer et d’utiliser les briques. Toute personne peut apporter sa contribution au registre, mais les utilisateurs sont particulièrement encouragés à s’assurer que toute brique du vivant proposée est conforme aux standards techniques de la Fondation et qu’elle est accompagnée de l’information qui permet son utilisation efficace et prédictible.

Les conditions de fonctionnement de ce registre ont été l’objet de deux séries de critiques. En premier lieu, Bernadette Bensaude-Vincent, professeure à l’Université de Paris I, et Dorothée Benoît-Browaeys, déléguée générale de Vivagora, font valoir188 que la BioBricks Foundation, à la différence de Linux, ne dispose d’aucun levier pour contraindre les usagers du registre à remettre le produit de leurs travaux dans le domaine public. Rien n’empêche, selon leur analyse, les usagers des bio-briques de breveter les modules construits à partir de ces dernières et de s’assurer la propriété de tous les développements ultérieurs.

Sur ce point, deux réponses différentes ont été formulées. Selon la première, l’accord sur les bio-briques (BioBrick Agreement) peut être considéré comme une licence. En définissant les obligations des contributeurs et des usagers, il tente de prévenir à l’avance les litiges liés aux questions de propriété, de droits de propriété intellectuelle, d’attribution et de responsabilité. En réduisant ainsi l’incertitude juridique, un tel cadre validerait la croissance du registre et l’usage des briques189.

Françoise Roure, présidente du comité « technologies et société » du Conseil consultatif national de l’industrie, de l’énergie et des technologies, apporte une réponse différente : pour elle, les briques resteront non brevetées, compte tenu du coût que représenterait l’enregistrement de 15 000 nouveaux éléments par an190.

En second lieu, Bernadette Bensaude-Vincent et Dorothée Benoît-Browaeys constatent que la BioBricks Foundation se constitue ce qu’elles qualifient de « trésor de guerre ». En incitant tout un chacun à user librement de cette base de données, les chercheurs du MIT peuvent imposer des standards définissant les séquences. Par la pratique de l’open access biology, le MIT peut devenir la référence pour définir les modules standard destinés à garantir l’interopérabilité des parties191.

Pour sa part, Françoise Roure voit dans le registre le point focal des développements logiciels et taxonomiques visant à la représentation, à l’organisation, à la classification et à l’utilisation des connaissances à des fins d’enseignement, de recherche, d’innovation et de production. De plus, le registre est au fondement même de l’interopérabilité des bases de données et de standardisation dans le continuum biologique (gènes-protéine-cellule, tissus, viscères, systèmes). Pour ces raisons, Françoise Roure se demande s’il faut accepter la constitution d’un monopole privé de droit californien pour le développement de cet outil stratégique192.

Il s’agit d’une question importante qui, comme j’aurai l’occasion de l’indiquer plus loin dans le volet relatif à la recherche et à la formation, mérite une action concertée entre la France et ses partenaires européens. La proposition formulée par Françoise Roure en vue de permettre à l’Europe d’obtenir l’instauration d’un cadre réglementaire bornant et influençant la finalité et les usages de ce répertoire est tout à fait pertinente. Toutefois, on peut légitimement se demander si l’Europe ne devrait pas également s’attacher à créer son propre registre, qui serait fondé sur une logique différente du registre du MIT. Ce serait là une opportunité pour l’Europe de tirer pleinement parti des centres d’excellence dont elle dispose.

En dehors du registre des bio-briques, il existe d’autres initiatives basées également sur l’approche de l’open access biology, mentionnées dans l’encadré ci-après :

PRINCIPAUX AUTRES SYSTÈMES D’OPEN SOURCE

General Public License for Plant Germoplasm

Créé en 1995 par le botaniste Tom Michaels, ce système vise à adapter le régime de la licence publique générale, qui fixe les conditions de distribution des logiciels libres, au germoplasme.

Ce terme désigne une cellule, un tissu ou un organe à partir desquels il est possible de multiplier un végétal.

International Hap Map Project (IHMP)

L’IHMP est un partenariat conclu entre des scientifiques du Canada, de Chine, du Japon, du Nigéria, du Royaume-Uni et des États-Unis pour développer une ressource publique, qui permette aux chercheurs de trouver des gènes associés aux maladies humaines. Le Hap Map (ou carte des haplotypes (193)) est un catalogue des variantes génétiques communes qui apparaissent chez les êtres humains. L’IHMP s’efforce depuis 2009 de créer une base de données publique d’haplotypes, en encourageant les chercheurs à ne pas breveter leurs recherches, mais, au contraire, à transférer gratuitement leurs données concernant les haplotypes à l’IHMP.

Les chercheurs peuvent accéder à la base de l’IHMP sans licence.

Diversity Arrays Technology (DArT)

Créée en 2001, cette entreprise australienne commercialise une technologie brevetée de marqueur de molécules. Inspirée du modèle de Red Hat - la société de distribution de Linux -, DarT exploite la synergie entre la fourniture de services et le développement de la technologie plutôt que d’appeler des fonds sur les marchés de capitaux.

Biological Open source (BIOS) est une initiative de CAMBIA (Center for Applications of Molecular Biology in international Agriculture), un institut de recherche à but non lucratif australien.

Lancée en 2005, l’initiative BIOS comprend :

- Patent Lens : une base de données sur les brevets déposés et accordés par l’USPTO et les offices de brevets européen et australien,

- Bioforge : un portail conçu sur le modèle du logiciel libre,

- Biological Open source (BIOS), qui accorde des licences pour certains des éléments du portefeuille de brevets de CAMBIA.

Ces licences invoquent explicitement les termes de l’open source. Mais, en réalité, le propre site de CAMBIA appelle l’attention sur le fait que ces licences se distinguent sur des points-clés de la logique de l’open source. En particulier, les licences confèrent à CAMBIA un contrôle plus étendu sur les actions entreprises par les inventeurs à la suite de leur innovation que celui qui serait compatible avec les normes établies par les licences accordées dans le régime du logiciel libre.

Network for Open scientific Innovation (NOS)

NOS réunit des experts de plusieurs disciplines pour développer et analyser des licences qui répondent aux principes de l’open source en vue de leur utilisation dans les sciences du vivant.

Public sector Human Genome Project

Dans le cadre de la compétition qui avait opposé les chercheurs du secteur public de l’Institut britannique Sanger au secteur privé au sujet du séquençage du génome humain, les premiers avaient envisagé en 1999 d’assujettir l’accès à leurs données à un régime de licence, pour éviter que le secteur privé n’en tire profit indûment. Ils ont finalement renoncé à imposer des contraintes à l’usage de leurs données.

Tropical Disease Initiative (TDI) and the Synoptic Leap

Le TDI résulte d’un projet - basé sur un régime d’open source appliqué à la découverte de médicaments - qui a été proposé en 2004 par les juristes Stephen Maurer et Arti Rai et le bio-informaticien Andrej Sali.

Equitable Access and Neglected Disease Licensing

Ces deux organismes, inspirés des principes du logiciel libre et créés à l’initiative d’une équipe de chercheurs de l’Université de Yale, visent à améliorer l’accès aux médicaments essentiels.

Les universités, mais aussi les autres chercheurs et les institutions opérant dans le cadre de Tropical Disease Initiative évoqué précédemment sont les destinataires des licences.

Celles délivrées par Equitable Access ont pour objet l’amélioration de l’accès aux innovations biomédicales dans les pays à bas et moyens revenus.

Les licences de Neglected Disease visent à faciliter les recherches sur les maladies orphelines et négligées.

Open Source Drug Discovery Initiative (OSDD)

OSDD est une initiative du Conseil de recherche scientifique et industrielle de l’Inde. L’objet de cette initiative est d’assurer des soins abordables aux pays en développement, en procurant une plate-forme globale permettant aux meilleurs chercheurs de collaborer pour développer de « nouvelles thérapies pour les maladies qui affectent surtout les pays pauvres ».

Cette initiative est financée par le gouvernement indien qui y a affecté des crédits d’un montant de 38 millions de dollars (soit plus de 29 millions d’euros). OSDD tente de lever des fonds d’un montant équivalent auprès d’institutions internationales ou d’organisations caritatives.

La première phase de l’initiative comprendra la promotion du partage des données et des techniques par Internet auprès de biologistes indépendants travaillant sur le développement de médicaments destinés à lutter contre la tuberculose.

Source : Janet Hope, Australian National University, 2009

b) Le copyleft

L’idée du copyleft a été lancée dès 1984 par Richard Stallman, ingénieur informaticien et défenseur du mouvement open source au sein de la Free Software Foundation (FSF - Fondation pour le logiciel libre). Selon Richard Stallman, le copyleft utilise le droit du copyright, mais à la différence de ce dernier, il n’a pas pour objet de restreindre un programme.

En effet, le principe du copyleft consiste à autoriser toute personne à copier un programme d’ordinateur, à le modifier et à en distribuer des versions modifiées, mais pas à y intégrer des limitations. Richard Stallmann insiste sur le fait qu’il est essentiel de garantir la possibilité d’apporter librement des modifications, si l’on veut assurer la liberté à chaque utilisateur du programme. C’est pourquoi il considère que l’on ne peut parler de programme libre, si le code-source ne l’est pas. Conçu à l’origine pour les logiciels, le copyleft est formalisé par la licence GPL (General Public Licence) et a été étendu ensuite à toute œuvre de création.

S’agissant de l’application du copyleft à la BS, Arti Rai et James Boyle appellent l’attention sur le contexte particulier de la biomédecine, tout en soulignant que celle-ci n’est pas le seul cas d’application de la BS. Ils font remarquer que, au terme de certains processus d’innovation, il y a la phase très coûteuse du développement et de la mise sur le marché d’un médicament (homologation avant commercialisation). Or, si une condition relative au copyleft est imposée à certaines briques élaborées à l’aide de la BS, il faudrait éviter que cette technologie ne se développe dans une thérapie brevetée. Citant le système de licences de BIOS (Biological Innovation for an Open Society), Arti Rai et James Boyle indiquent que ces licences présentent l’avantage de restreindre le copyleft aux améliorations apportées aux technologies et de n’imposer aucune limitation aux produits des plantes transgéniques. Ils précisent toutefois que la distinction entre technologie et produit est plus aisée à établir dans le cas de BIOS, où la technologie concernée a une trajectoire en termes d’innovation relativement claire en ce qui concerne l’amélioration apportée à la technologie elle-même et à la production de produits finaux194.

2.– COMMENT CONCILIER LE PARTAGE DU SAVOIR ET LES PRINCIPES DE LA PROPRIÉTÉ INTELLECTUELLE INDISPENSABLES À L’INDUSTRIALISATION ?

a) La promotion de l’idée de communauté de savoir et de l’innovation

Les méthodes d’élaboration de la BS favoriseraient cette idée de communauté et de savoir, à laquelle plusieurs entreprises ont déjà adhéré.

1° Une idée que favoriseraient les méthodes de la biologie de synthèse

Cette idée serait au cœur du registre des bio-briques puisque, selon Andrew W. Torrance, le registre vise à créer une communauté open source ou plutôt open access biology d’ingénieurs en biologie et de biohackers 195, que reflètent et encouragent les termes du BioBrick Public Agreement affiché sur le site de la Fondation. Ce texte rappelle que l’accord constitue un cadre légal destiné à garantir la libre mise à disposition des bio-briques standardisées. Les contributeurs s’engagent à renoncer à toute propriété intellectuelle. Quant aux utilisateurs, ils se voient garantir l’accès aux briques du registre.

Il est également significatif que Richard Jefferson, à l’origine de l’initiative BIOS (Biological Open Source), souligne la nécessité d’instaurer un mouvement d’open source dans le domaine de l’innovation biologique, afin que le public et les innovateurs du secteur public soient dotés des outils, des plates-formes et des paradigmes qui permettent des innovations rapides et efficaces dans les sciences du vivant et qui concernent les priorités négligées et de nouvelles opportunités196.

De même, présentant la base de données Patent Lens, Richard Jefferson indique qu’elle n’est pas seulement une base de données sur les brevets accordés par l’USPTO et les Offices de brevets européen et australien. Elle comporte également une dimension pédagogique, l’objectif étant de créer une ressource d’apprentissage que les acteurs du système d’innovation à tous les niveaux – scientifiques, ingénieurs, entrepreneurs, juristes, citoyens et décideurs politiques – peuvent utiliser pour s’informer des enjeux et de l’état de l’art de la recherche, sur des sujets susceptibles d’améliorer l’action publique ainsi que la création d’emplois innovants.

Dans une perspective différente, Joachim Henkel et Stephen Maurer, chercheurs américains, soutiennent que la BS contient la quasi-totalité des éléments qui ont contribué au succès de Linux197. En premier lieu, l’approche de la BS fondée sur les briques met l’accent sur l’importance de la modularité, en permettant au travail de création d’une base de données de briques de s’appliquer à de nombreuses entreprises. Cela permet également aux entreprises de dégager des bénéfices en brevetant certaines briques, tout en mettant d’autres briques à disposition. En second lieu, ces mêmes auteurs suggèrent que, du fait de la particularité des besoins en briques de chaque entreprise, les entreprises les plus avancées peuvent partager leurs briques sans perdre leur avantage compétitif, compte tenu de leur avance technologique. Enfin, les entreprises ont des expertises diverses, ce qui permet de supposer que des briques fondées sur le principe communautaire peuvent être plus efficaces que si elles sont dédiées à une entreprise isolée. Finalement, le marché de la BS concernerait un grand nombre de petits consommateurs au profil particulier, ce qui rendrait le brevet moins lucratif et, par conséquent, l’ouverture plus attractive.

Pour illustrer ce point de vue, Joachim Henkel et Stephen Maurer citent le cas d’entreprises de biotechnologie ayant adhéré au principe de l’open access biology.

Il faut signaler une initiative récente, très intéressante, prise par une soixantaine de chercheurs issus d’organismes de recherche et universités du monde entier198 visant à mettre en place une métabase de données commune à tous les chercheurs. Pour la France, Magali Roux, directrice de Recherche au CNRS au Laboratoire d’Informatique de Paris VI CNRS-UPMC, précise le contexte : « Les e-sciences sont les sciences qui se fondent sur la production et l’utilisation de grands volumes de données numériques ; parmi elles, la biologie est entrée dans l’ère du numérique199 avec le développement des approches dites à haut-débit (notamment, sciences "omiques"). »

Avec le développement de standards200 et de procédures de qualité, les données produites par les laboratoires publics intéressent beaucoup d’utilisateurs potentiels et l’accès à ces données constitue des enjeux importants, quel que soit le point de vue considéré :

– scientifique (volume, hétérogénéité, complexité sont – notamment – des verrous pour l’utilisation des données),

– économique, avec le partage, la réutilisation (éviter, notamment, de reproduire des expériences identiques), éducation et formation (utilisation des données pour la formation),

– sociétal, avec les enjeux liés aux données personnelles, expérimentation animale, société de la connaissance, etc.

Des communautés scientifiques se créent pour faciliter l’utilisation et le partage en développant des formats et outils visant à assurer leur interopérabilité201. Toutefois la plupart des scientifiques, s’ils approuvent le libre accès aux bases de données, sont peu enclins à communiquer les ressources produites, fût-ce au terme d’une période suffisante permettant leur exploitation. Il s’agit donc de trouver les conditions de protection des producteurs de données tout en facilitant le partage et la réutilisation. Magali Roux propose d’utiliser le cadre défini ci-après202, pour créer un Metadata Registry, qui permettrait l’identification des ressources (données), soit centralisées soit réparties sur leurs sites de production. Ce Metadata registry (registre de données publiques) pourrait être géré par une autorité publique ; ainsi les utilisateurs pourraient contacter via l'autorité (ou directement) le producteur pour connaître les conditions d'utilisations (licence, collaboration, etc.).

Ce type d'organisation est défini comme un clearinghouse qui permet :

– aux producteurs et aux utilisateurs de ressources de se trouver,

– d'établir une fédération basée sur la confiance en agissant sur le pivot de cette confiance : ce sont les membres de la fédération qui produisent/échangent les certificats (et les résilient).

Cette organisation est donc hautement contrôlée avec les utilisateurs et les producteurs de données qui définissent soigneusement :

– ce qui est partagé,

– qui est autorisé à accéder,

– les conditions d’utilisation (libre, licence, collaboration scientifique, etc.).

L’organisation :

– est basée sur un réseau sécurisé de ressources distribuées,

– utilise des procédures automatiques de sécurité.

Cette initiative internationale (à laquelle participent la Chine, les États-Unis, l’Inde, les pays d’Europe dont la France avec 4 équipes de recherche) démontre que la communauté scientifique des chercheurs publics se structure dans le domaine des biosciences et, singulièrement, dans celui de la biologie de synthèse, et est capable d’organiser à la fois le partage et la protection des données. Cette initiative de mise en place d’un registre international des données scientifiques me paraît tout à fait bénéfique à l’équilibre public/privé de la bioéconomie.

2° L’adhésion de certaines entreprises de biotechnologie aux principes de l’open access biology

Joachim Henkel et Stephen Maurer se réfèrent à l’initiative prise en 1999 par dix entreprises pharmaceutiques de fonder le SNP (Single nucleotide polymorphisms) Consortium et de publier dans le domaine public des données sur le génome humain, de telle sorte que leurs concurrents ne puissent pas, par le dépôt de brevets, instaurer des monopoles. De même, Pfizer a décidé de divulguer le contenu de ses méthodes de découverte de médicaments en cours. Syngenta a partagé ses données sur le génome du riz. Quant à Novartis, il a publié sur Internet la carte du génome des gènes en cause dans le diabète de type 2.

Enfin, en mai 2010, Glaxo a décidé d’autoriser l’accès au design de 13 500 molécules chimiques en mesure d’inhiber l’agent du paludisme. Les données de Glaxo sont hébergées par trois sites, dont deux sont financés par des fonds publics (américain et européen). Le troisième est un site privé (Collaborative Drug Discovery), situé dans la Silicon Valley. L’accès à ce site est gratuit. Tout chercheur qui s’y enregistre a accès aux descriptions graphiques des molécules de Glaxo et aux données chimiques et biologiques pertinentes. La base permet également aux chercheurs de télécharger leurs propres données, afin qu’elles puissent être accessibles à leur tour aux autres chercheurs203.

Précédemment, Glaxo avait participé à la mise en place de Tropical Disease Initiative, évoquée plus haut204, et avait mis des molécules provenant de Pfizer à la disposition de chercheurs réunis dans l’organisme à but non lucratif Drugs for Neglected Disease Initiative, déjà cité.

Ces entreprises imitent ainsi l’exemple de certains géants du secteur de l’informatique, comme IBM, qui ont également accepté de jouer le jeu de l’open source, même si dans le cas d’IBM, celui-ci s’est vu reprocher d’être revenu en 2010 sur l’engagement qu’il avait pris en 2005 de renoncer à invoquer 500 de ses brevets à l’encontre de logiciels libres205.

b) Des formules compatibles avec les principes de la propriété intellectuelle

Les principes de l’open access biology se combinent avec les régimes de la propriété intellectuelle, ce qui suscite des interrogations sur leurs droits et positionnements respectifs.

1° Les possibilités de combiner les solutions

Michel Vivant a tenu à souligner que les systèmes d’open access biology et de copyleft ne pouvaient être considérés comme de réelles alternatives au brevet. Les exemples cités précédemment montrent, en effet, qu’ils peuvent se combiner avec le brevet ou comporter des restrictions.

Le premier cas peut être illustré par BIOS (Biological Innovation for an Open Society), qui applique la protection accordée par le brevet au transfert de technologies concernant des gènes de plantes pour contraindre les licenciés à introduire dans le domaine public les améliorations apportées à ces technologies.

Dans le second cas, les restrictions reposent sur une licence clickwrap, qui est tirée du droit des logiciels. Dans ce type de contrat, le licencié consent, par une simple pression sur le bouton de la souris (clickwrap), à respecter les conditions imposées. Ce régime de licence a ainsi été appliqué temporairement par le projet Hap Map (une base de données sur les variations génétiques humaines). La licence exigeait des utilisateurs de données concernant le polymorphisme d’un seul nucléotide, de s’interdire la production des brevets sur les haplotypes, c’est-à-dire des collections de polymorphisme nucléotidique. L’objectif visé était d’empêcher la fuite de données hors du périmètre de la licence clickwrap, au profit de ceux qui n’auraient pas signé la licence. La restriction initialement prévue a été levée, les créateurs de la base de données ayant estimé que celle-ci avait atteint un niveau de développement qui lui permettait de faire face aux demandes de brevetabilité.

S’agissant des conséquences juridiques qui pourraient s’attacher aux restrictions ou interdictions dont l’open access biology et le copyleft sont susceptibles d’être assorties, Michel Vivant appelle l’attention sur les difficultés que ces deux formules soulèvent. Il s’agit en effet de savoir quelle sera la sanction applicable en cas de non-respect du contrat ou de prise de brevet. Dans cette dernière hypothèse, sera-t-il possible de revenir sur le brevet ? Une annulation est-elle possible ?

Sur ce point, Michel Vivant fait observer que le droit européen et le droit français apportent des solutions différentes. C’est pourquoi il estime nécessaire d’affiner la réflexion, avant que le législateur français ne prévoie, le cas échéant, de s’aligner sur le droit européen.

Il existe un dernier type de combinaison possible, celui de l’open access biology avec le droit des marques, comme l’illustre l’exemple de la Biobricks Foundation. En effet, comme le précise son site Internet, le terme de « BioBrick » est assorti de la mention TM (pour Trademarks - droit des marques), ce qui en fait une marque déposée. Un tel régime répond à la nécessité de permettre et de défendre le système de briques biologiques ouvert et librement utilisable.

Cette situation a été très sévèrement critiquée. On y a vu une stratégie de marketing inspirée de la préoccupation de Drew Endy, l’un des cofondateurs de la BioBricks Foundation et du registre, de se comporter comme un homme d’affaires206.

2° Des interrogations sur les rôles respectifs de l’open access biology et du brevet

Les trois points de vue suivants semblent bien résumer la complexité des enjeux de la propriété intellectuelle et industrielle dans le domaine de la BS.

Joachim Henkel et Stephen Maurer estiment qu’il s’agit de choix politiques. Au débat sur le besoin de briques accessibles en open source qu’ils jugent avoir été formulé en termes vagues (assimilation de briques à des systèmes opérationnels) ou transformé en objectifs normatifs (questions éthiques liées à la brevetabilité de formes du vivant), ils préfèrent se concentrer sur une question bien définie et plus restrictive : quelle combinaison d’incitations au brevet et à l’open source serait la plus à même de fournir les briques dont les biologistes de synthèse ont besoin à prix raisonnable et en quantité abondante ? En conclusion de leur étude, Joachim Henkel et Stephen Maurer déclarent se trouver devant une impasse. Car d’un côté, ils affirment ne pouvoir dire si l’open source (ou l’open access biology) est une solution meilleure que le brevet ou vice-versa. De l’autre, ils estiment qu’il serait plus astucieux de suggérer que les biologistes de synthèse combinent un niveau de système opérationnel ouvert avec un niveau d’applications placé sous le régime du propriétaire207.

En revanche, selon Arti Rai et James Boyle, la décision prise de placer les briques du registre dans le domaine public assure une protection efficace contre la menace de brevets qui restreindraient l’innovation. Car, en plaçant les briques dans le domaine public, non seulement on ne les rend pas brevetables, mais on empêche le dépôt des brevets sur de simples améliorations. En définitive, une stratégie fondée sur l’ouverture au domaine public comparable à celle qui a été employée par le projet public du Human Genome Project peut ne pas être idéale, mais constitue certainement une approche intéressante208.

Enfin, Dianne Nicol, professeure à la Faculté de droit de l’Université de Tasmanie (Australie), observe que les expériences d’open access biology montrent dans quelle mesure l’innovation en biotechnologie peut être promue en l’absence de droits de propriété intellectuelle. Pour autant, Dianne Nicol relève que ces expériences n’ont pas arrêté la brevetabilité, mais l’ont seulement retardée, ce qui est bénéfique, si la recherche fondamentale reste ouverte et si les opportunités de commercialisation en aval sont également préservées.

Elle estime que la réussite de l’open access biology passe plus sûrement par un financement par l’État ou par un autre organisme public, sauf dans les rares cas où le chemin entre la recherche et le marché est particulièrement court et où la stratégie visant à arriver en première position sur le marché est susceptible de réussir. Ce peut être un modèle de gestion valable dans l’industrie des technologies de l’information, mais moins probablement en biotechnologie où l’accès au marché est beaucoup plus complexe et plus long à cause des processus de validation et d’agrément des produits. Elle considère aussi que le défi sera toujours de trouver la bonne démarcation entre la phase pré-commerciale dans laquelle les données sont accessibles et celle où les recherches et les technologies relèvent de la logique du propriétaire209.

À cet égard, elle juge qu’il y a des cas où l’intérêt national pourra être mieux servi par la publication des résultats de la recherche dans le domaine public. C’est pourquoi, par exemple, l’Australian Law Reform Commission avait proposé que les agences publiques de financement, dans des circonstances exceptionnelles, subordonnent l’attribution des crédits à la publication des résultats dans le domaine public, ou, en cas de brevet, à l’octroi de licences à spectre très large.

c) Les questions éthiques liées à la spécificité du vivant

La propriété du matériel génétique d’origine humaine appartient d’abord à l’individu dont il est issu. Ce principe mérite d’être rappelé.

Car un dernier point doit être considéré, celui de la réglementation liée à l’utilisation d’un matériel biologique d’origine humaine, et à la nécessité d’une harmonisation internationale sur ce sujet de bioéthique, comme le prévoient les dispositions juridiques suivantes en France :

– La loi relative à la bioéthique a introduit les articles 16-10 du code civil et 226-25 du code pénal qui disposent que :

« Art. 16-10.- L’examen des caractéristiques génétiques d’une personne ne peut être entrepris qu’à des fins médicales ou de recherche scientifique.

« Le consentement exprès de la personne doit être recueilli par écrit, préalablement à la réalisation de l’examen, après qu’elle a été dûment informée de sa nature et de sa finalité. Le consentement mentionne la finalité de l’examen. Il est révocable sans forme et à tout moment. »

« Art. 226-25.- Le fait de procéder à l’examen des caractéristiques génétiques d’une personne à des fins autres que médicales ou de recherche scientifique, ou à des fins médicales ou de recherche scientifique, sans avoir recueilli préalablement son consentement dans les conditions prévues par l’article 16-10 du code civil, est puni d’un an d’emprisonnement et de 15 000 euros d’amende. » ;

– Les dispositions du code de la santé publique (art. R. 1242-1 et suivants et R. 1243-1 et suivants) fixent les conditions pour le prélèvement et l’utilisation de tissus ou de cellules : système d’autorisation administrative, interdiction d’une rémunération, fins thérapeutiques, etc.

Une harmonisation internationale de la réglementation sur ces points est indispensable afin de prévenir tout excès ou toute dérive à laquelle la BS, avec l’accélération qu’elle permet, pourrait contribuer.

*

* *

En résumé, afin de prémunir la BS contre des dérives analogues à celles auxquelles le secteur des technologies de l’information est actuellement confronté210, il importe de revisiter le cadre juridique actuel sur trois plans :

– au plan national : identifier les divergences et harmoniser le droit français et le droit européen sur les sanctions relatives à la violation des systèmes d’open source/open access biology ou copyleft,

– au plan européen : clarifier les critères de brevetabilité et, dans le domaine biotechnologique, limiter clairement la brevetabilité des séquences génétiques à l’application des gènes que l’on a identifiés,

– au plan international : prévoir des règles du jeu destinées à garantir le respect des règles de concurrence ainsi qu’un régime approprié pour les biotechnologies et la BS afin de protéger le principe de l’accès libre aux résultats des recherches fondamentales.

Enfin, il convient d’examiner avec le plus grand intérêt les initiatives prises par des entreprises et/ou des organismes de recherche de se regrouper pour rendre publiques des bases de données, dans un format utilisable pour tous. Une telle démarche permet en effet de mutualiser des connaissances permettant de faire progresser la recherche mondiale, sans pour autant menacer les applications pouvant donner lieu à des créations d’activités et d’emplois.

Ces évolutions du système de propriété intellectuelle et de propriété industrielle seront au cœur du modèle économique qui se développe autour du vivant, dénommé la bioéconomie, dont l’acceptabilité dépendra beaucoup de l’équilibre qui sera trouvé entre patrimoine scientifique public et valorisation économique.

III.– LA RECHERCHE ET LA FORMATION

Le caractère à la fois hybride - résultant de son statut de « science fondamentale centrée sur l’application» selon la définition de Jay Keasling - et interdisciplinaire de la BS suppose une adaptation des politiques de recherche et de formation dans ce domaine. D’autres technologies émergentes, comme les nanotechnologies ou les biotechnologies211, sont soumises à des exigences d’un niveau comparable.

Mais, dans le cas de la BS, présentée comme une « technologie de rupture » et une « révolution industrielle », ces exigences impliquent que les acteurs publics et privés mettent en œuvre une stratégie de développement ambitieuse et rigoureuse. Car il s’agit non seulement de développer la BS, mais aussi de s’assurer que les disciplines sur lesquelles elle s’appuie ont atteint le niveau d’excellence correspondant à sa complexité, ce qui suppose des investissements conséquents et de long terme à la fois pour la recherche et la formation.

A.– LES SYSTÈMES DE RECHERCHE ET DE FORMATION À L’ÉPREUVE DES EXIGENCES DE LA BIOLOGIE DE SYNTHÈSE

Ces exigences reposent sur la nécessité admise, de façon unanime, de procéder à une profonde réorientation des systèmes de recherche et de formation par la mise en place de synergies entre l’industrie et la recherche, d’une part, et l’application de l’interdisciplinarité dans les systèmes de recherche et de formation, d’autre part.

Les Etats y ont été d’autant plus encouragés que le concours iGEM (International Genetically Engineered Machine Competition - Compétition internationale de machines génétiquement modifiées) a joué un rôle de catalyseur dans ces stratégies.

1.– UNE NÉCESSITÉ UNANIMEMENT ADMISE : LA PROFONDE RÉORIENTATION DES SYSTÈMES DE RECHERCHE ET DE FORMATION

a) La mise en place de synergies entre l’industrie et la recherche

Cette démarche revêt une ampleur variable selon qu’il s’agit des États-Unis (dont la prépondérance est incontestable) ou du reste du monde - Europe et Asie. Les États-Unis ont davantage mis l’accent sur la recherche appliquée que sur la recherche fondamentale, à la différence de l’Europe. Pour sa part, l’Asie est en train de développer un modèle de partenariat recherche-industrie tout à fait efficace.

1° La prépondérance incontestable des États-Unis

Cette prépondérance repose sur un contexte institutionnel favorable à la très forte synergie entre les différents acteurs.

Comme le montrent plusieurs exemples, les chercheurs américains relient naturellement recherche fondamentale et recherche appliquée avec, notamment, la création et le développement plus facile de start up issues de la recherche. L’exemple le plus connu est celui de Craig Venter, fondateur, en 2006, du J. Craig Venter Institute, qui emploie 400 salariés, dont un Prix Nobel de médecine, Hamilton Smith.

D’autres chercheurs renommés qui, à la différence de Craig Venter, ont un statut académique, ont créé également leurs entreprises. C’est le cas de Jay Keasling qui, tout en étant professeur à l’Université de Berkeley et directeur de la Division des Biosciences physiques du Lawrence Berkeley National Laboratory, un institut de recherche dépendant du Département de l’Energie (DOE), a fondé la société Amyris Biotechnologies. Jay Keasling a également participé avec Georges Church, professeur à la Harvard Medical School de Boston, et Chris Somerville, professeur à l’Université de Berkeley et directeur de l’Energy Biosciences Institute, à la création de LS9. Fondée en 2007, cette société s’est spécialisée dans la fabrication de nouveaux biocarburants.

Lors de l’audition publique du 4 mai 2011 sur les enjeux de la biologie de synthèse, Jonathan Burbaum, directeur de programme des projets de recherches avancées du Département de l’Energie, a déclaré que ce dernier avait engagé le programme PETRO, dédié à l’ingénierie de végétaux visant à remplacer le pétrole. Le programme a bénéficié d’une première tranche de crédits s’élevant à 130 millions de dollars (soit près de 100 millions d’euros).

Quant à la DARPA (Defense Advanced Research du Département de la Défense), elle a financé, à hauteur de 30 millions de dollars (soit environ 23 millions d’euros), un programme de BS appelé « Living Foundries » destiné à standardiser des briques : gènes et régulation de l’ADN, notamment. Grâce à leur confiance dans les perspectives d’application de la BS, les entreprises ou fondations privées ont conclu d’importants partenariats avec les chercheurs. A ce titre, la Fondation Bill et Melinda Gates a versé une subvention d’un montant de 43 millions de dollars (soit environ 33 millions d’euros) au laboratoire de Jay Keasling, en vue de soutenir les recherches sur l’artémisinine, un médicament destiné à lutter contre le paludisme.

Les grandes compagnies pétrolières comptent parmi les partenaires les plus importants. Ainsi BP et Exxon ont-ils respectivement conclu des partenariats à hauteur de 500 millions de dollars (soit environ 384 millions d’euros) avec l’Energy Biosciences Institute212 et de 600 millions de dollars (environ 461 millions d’euros) avec l’Institut de Craig Venter. Ces partenariats s’inscrivent dans le cadre de recherches sur la production de nouveaux biocarburants.

Une autre illustration récente de ces partenariats entre les centres de recherche et l’industrie est la création, au mois d’avril 2011, du Synthetic Biology Institute (SBI) par l’Université de Berkeley et Agilent Technologies, numéro 1 de l’industrialisation des instruments de mesure. SBI est destiné à appliquer des recherches de pointe en biologie des systèmes, visant à établir des processus, produits et technologies répondant à la demande de l’industrie.

Cette organisation et cette proximité entre recherche publique et applications industrielles expliquent l’importance des financements et sont à l’origine du rôle prépondérant joué par la recherche américaine, par rapport à l’Europe, où les financements sont, comme on le verra, nettement moins élevés. La prépondérance des États-Unis se manifeste aussi dans le domaine des publications. Comme le montre l’étude de Françoise Roure213, présidente de la section « Technologies et Société » du Conseil général de l’industrie, de l’énergie et des technologies, les États-Unis représentent 68 % du total des publications, contre 17 % pour l’Union européenne (Allemagne, 8 % , Royaume-Uni, France et Espagne, 2 % chacun).

La domination américaine n’est toutefois pas totale. En effet, comme le relève un rapport de l’European Academy Science Advisory Council 214, l’Europe est en avance sur les États-Unis dans le domaine de la biochimie, qui joue un rôle-clé d’interface dans le développement de la BS. Mais on pourrait y ajouter également la biologie des systèmes. De plus, la biologie de synthèse, tout comme la biologie des systèmes, est confrontée à la complexité : or la formation des ingénieurs, en France, est fortement orientée vers la gestion des systèmes complexes, ce qui nous donne un avantage compétitif dont il faudrait davantage tirer parti. Faute de disposer d’un vivier important de spécialistes dans cette discipline, les États-Unis font partie d’un programme européen de recherches appelé BasysBio. Associant Argonne, le premier laboratoire national de recherche en science et ingénierie des États-Unis, l’Université de Chicago qui est l’un des gestionnaires d’Argonne, l’INRA, et plusieurs autres institutions, BasysBio vise à développer des techniques de biologie des systèmes. Celles-ci permettront d’étudier la régulation globale de la transcription des gènes dans le modèle bactérien Bacilus subtilis. Basysbio permet aux Américains d’accéder librement à une base répertoriant toutes les demandes contenant les souches réduites.

Les États-Unis sont également partie prenante du projet Basyntec, qui a débuté en octobre 2010. Il s’agit d’une recherche en biologie de synthèse rassemblant huit institutions de recherche, dont l’INRA et Argonne. Cette recherche a pour but, d’une part, le design de souches pour la biotechnologie et, d’autre part, le test de ces souches en vue de la production de vitamines et d’enzymes215. Dans les programmes BasysBio et Basyntec, les Américains sont des partenaires à part entière de l’Europe, sans toutefois bénéficier des subventions de la Commission européenne.

Le volontarisme affiché par le gouvernement américain pour valoriser les recherches en BS est très fort. En effet, le Président Obama a annoncé le 16 septembre 2011 que son administration développerait le projet national de bio-économie (National Bioeconomy Blueprint). Ce projet est destiné à exploiter les innovations de la recherche en biologie, pour relever les défis nationaux dans les domaines de la santé, l’alimentation, l’énergie et l’environnement.

Mais le recours des États-Unis à l’expertise scientifique européenne et française montre que l’Europe dispose d’atouts forts, pour peu que les gouvernements de l’UE s’engagent dans une stratégie de développement des sciences du vivant et des biotechnologies.

2° Le reste du monde : Europe, Chine

Ø L’Allemagne

L’Allemagne a davantage axé ses efforts sur la biologie des systèmes que sur la BS, même si les chercheurs allemands marquent pour celle-ci un intérêt croissant. Dans le domaine de la BS, l’étude récente de Pei, Gaisser et Schmidt216 souligne que, jusqu’à 2010, la DFG (Deutsche Forschungsgemeinschaft – société allemande pour la recherche) a financé des projets ne portant pas le label de biologie de synthèse, mais qui y sont potentiellement liés.

Ainsi la DFG a-t-elle versé une subvention de 32,5 millions d’euros pour les années 2007 à 2011 au cluster d’excellence de l’Université de Fribourg, le Centre for Biological Signaling Studies (BIOSS). Environ un cinquième des activités de BIOSS a des liens avec la BS. Le seul projet que la DFG ait officiellement financé dans le domaine de la BS concerne des recherches sur l’extension du code génétique.

De même, au niveau des Länder, très actifs dans le soutien à la recherche et à l’innovation (leur budget est largement supérieur, parfois d’un facteur 10, à celui de nos régions, même les plus dynamiques comme l’Ile-de-France, Rhône-Alpes, PACA ou Aquitaine), le Land de Hesse a financé à hauteur de 21 millions d’euros un cluster de recherche en microbiologie synthétique « SYNMIKRO », associant l’Université de Marburg et l’Institut Max Planck. L’étude précitée note que, jusqu’à présent, le ministère fédéral de l’Enseignement et de la recherche n’a pas financé de projets ayant un lien direct avec la BS, malgré un intérêt déclaré pour ce champ émergent.

Le congrès sur le processus stratégique « Biotechnologie 2020 », qui s’est tenu le 8 juillet 2011, à Berlin, pourrait donner une impulsion plus forte au développement de la recherche en BS. Ce congrès, qui a réuni des représentants du gouvernement, des instituts de recherche et de l’industrie, a examiné les conditions dans lesquelles l’enveloppe de 200 millions d’euros envisagée par le gouvernement fédéral permettra aux sciences biologiques et aux sciences de l’ingénierie de concourir au développement du processus stratégique « Biotechnologie 2020 ».

Dans ce processus, la BS pourrait jouer un rôle identifié, si l’on tient compte des déclarations de nombreux participants qui y ont vu un élément important de la biotechnologie de l’avenir. C’est ainsi que Petra Schwille, professeure de biophysique à l’Institut technique de Dresde, a déclaré qu’il s’agissait, selon une nouvelle approche, de comprendre la cellule à la manière des ingénieurs, c’est-à-dire un système construit à partir de modules pouvant de nouveau se combiner. D’autres représentants de l’industrie et du monde académique ont évoqué la possibilité d’utiliser des cellules synthétiques ou des microbes en vue de fabriquer de nouvelles substances ou développer de nouvelles thérapies.

Pour autant, les représentants du ministère de la Recherche rencontrés à Berlin ont déclaré qu’il n’était pas question, à ce stade, de lancer des appels d’offres sous le label de la BS, le ministère se retranchant derrière l’avis des scientifiques qui considèrent qu’il s’agit d’un domaine évolutif, recelant de multiples applications. C’est pourquoi la BS est financée dans le cadre de la biologie des systèmes et de la stratégie pour le développement de la bioéconomie. Sous l’impulsion du ministère de la Recherche, l’Allemagne s’est dotée depuis 2001 d’une stratégie pour développer la biologie des systèmes. Ainsi, le programme Hepatosys, qui s’intéresse au fonctionnement des cellules du foie, a-t-il été financé entre 2004 et 2010 à hauteur de 36 millions d’euros.

En 2007, le ministère a mis en place un programme d’envergure doté de 54 millions d’euros sur cinq ans, appelé FORSYS (Research Units for Systems Biology). Ce programme a permis de construire l’expertise et le savoir-faire en biologie des systèmes et de poser les bases d’un enseignement nouveau fondé sur l’interdisciplinarité. Il s’est initialement appuyé sur quatre centres :

– le FRYSIS (The Freiburg Initiative for System Biology), localisé à l’Université de Fribourg, comprend 17 groupes de recherche (plus de 60 chercheurs), qui travaillent sur la modélisation et l’analyse des systèmes dans le processus de signalisation durant la croissance et la différenciation d’organismes modèles (cyanobactéries, arabidopsis217, poisson zèbre …). FRYSIS a été doté d’un budget de 8,5 millions d’euros pour les années 2007 à 2009 et de 4,5 millions d’euros pour les deux années suivantes.

– ViroQuant : localisé à Heidelberg (Bade-Wurtemberg), ce programme est centré sur les interactions entre virus et cellule avec l’objectif de trouver de nouvelles molécules-cibles pour des médicaments antiviraux.

– Magdeburg Center for Systems Biology (MaCS) : localisé à Magdebourg (Saxe-Anhalt), ce centre s’intéresse à la biologie des systèmes appliquée à l’immunologie.

– GoFORSYS : localisé à Potsdam (Brandebourg), il s’agit d’une alliance entre l’Université de Potsdam, le Max Planck Institute for Molecular Plant Physiology et le Max Planck Institute for Colloid and Interface Research. Le programme s’est spécialisé dans la biologie des systèmes des plantes, en particulier les réseaux de régulation de leur métabolisme.

Quant aux Länder, ils ont également financé d’importantes initiatives, comme la construction, à l’Université de Heidelberg, à hauteur de 27 millions d’euros, du Centre for Quantitative Analysis of Molecular and Cellular Biosystems (BioQuant), la réalisation d’un nouveau bâtiment sur le campus de l’Université de Fribourg avec le centre BIOSS (Centre for Biological Signaling Studies), précédemment évoqué, qui établit une passerelle entre biologie des systèmes et BS. L’Université a investi 14 millions d’euros et le Land de Bade-Wurtemberg a prévu une somme équivalente.

Enfin, le Sénat de Berlin prévoit la construction d’un centre de recherche à Berlin, le Berlin Institute of Medical Systems Biology, avec un investissement à hauteur de 30 millions d’euros.

L’Allemagne s’attache à démontrer la faisabilité de l’approche fondée sur la biologie des systèmes pour les applications médicales. A ce titre, différents programmes sont financés par le ministère de la Recherche :

– le projet « foie virtuel » (Virtual Liver) : il bénéficie d’une dotation de 43 millions d’euros pour les cinq prochaines années, jusqu’en 2015,

– le programme MedSys (Medical Systems Biology), dans lequel seront investis 40 millions d’euros pour la période 2009-2011,

– le programme GerontoSys (Systems Biology of Aging) pour l’application de la biologie des systèmes aux enjeux du vieillissement et des maladies neuro-dégénératives, dont la dotation s’établit à 10 millions d’euros pour les années 2010 à 2014.

Les programmes MedSys et GerontoSys ont pour objectif d’intégrer des partenaires industriels (pharmacie et secteur agro-alimentaire).

Au total, pour les années 2004 à 2015, 328 millions d’euros seront ainsi consacrés aux différents programmes de la biologie des systèmes. S’y ajoutent les crédits que le gouvernement fédéral prévoit d’engager dans le cadre de la stratégie nationale de recherche sur la bioéconomie d’ici à 2030. A ce titre, 2,4 milliards d’euros seront investis pour les six prochaines années, par quatre ministères (Enseignement et recherche, Agriculture, Environnement, Coopération économique et développement), à hauteur de 1,4 milliard d’euros, le reste étant pourvu par des organismes de recherche (Max Planck, Fraunhofer, Leibnitz et Helmholtz).

Cette stratégie a notamment pour objectif de produire de l’énergie à partir de la biomasse et de progresser dans l’utilisation industrielle des matières premières renouvelables, afin de renforcer la compétitivité de l’industrie allemande et de s’assurer une position de leader parmi les pays développés.

En effet, dans le cadre de cette stratégie, toutes les recherches sont dirigées vers une plus grande utilisation des ressources biologiques, comme les plantes, les animaux et les micro-organismes, par des méthodes très diversifiées comprenant aussi les recherches sur les OGM. Parmi les premières actions programmatiques, une collaboration avec la France est prévue dans le domaine de la génomique des plantes. Comme l’ont indiqué les représentants du ministère fédéral de l’Enseignement et de la recherche, les projets de recherche dans le domaine de la BS seront inclus dans cette stratégie.

Ø Le Royaume-Uni

Au Royaume-Uni, les recherches dans le domaine de la BS, la biologie des systèmes, la bio-ingénierie et les bio-nanotechnologies, sont financées principalement par le Biotechnological and Biological Sciences Research Council (BBSRC) et l’Engineering and Physical Sciences Research Council (EPSRC). Le BBSRC consacre près de 21 millions d’euros par an au financement de projets ayant trait à la BS et à la recherche fondamentale. L’EPSRC et la National Science Foundation (États-Unis) ont lancé, au printemps 2009, des appels à projets relatifs à la BS et dégagé 6 millions d’euros pour cinq projets.

L’EPSRC finance également le Centre de BS et de l’Innovation, qui réunit l’Imperial College de Londres et la London School of Economics, à hauteur de 4,8 millions de livres (environ 5,3 millions d’euros) pour la période 2009-2014. L’Imperial College, l’un des centres d’excellence de la recherche en BS au Royaume-Uni, poursuit une politique de partenariat très active avec l’industrie, le professeur Richard Kitney indiquant que des projets conjoints avaient été conclus avec 11 entreprises, parmi les 40 avec lesquelles l’Imperial College est en contact.

De plus, soucieux de relier recherche fondamentale et applications commerciales, l’Imperial College crée des start up. Ainsi, cet établissement prélève-t-il 90 % des licences, 10 % revenant au fonctionnement de l’université, ce qui lui permet de s’autofinancer, ses revenus s’élevant à 300 millions de livres par an (environ 360 millions d’euros). Enfin, le Medical Research Council a engagé des crédits d’un montant de 1,8 million d’euros en 2007-2008. L’étude de Lei Pei et al. estime en conclusion que le financement de la BS est bon, ce domaine figurant au demeurant parmi les sujets que le plan stratégique de la BBSRC envisage de promouvoir pour les années 2010 à 2015.

Ø La France

L’étude de Lei Pei et al. précédemment citée218 observe que la BS ne fait l’objet d’aucun appel à projets spécifique, que ce soit de la part de l’Agence nationale de la recherche (ANR) ou du CNRS. Soit ces projets sont inclus dans les programmes blancs219, comme c’est le cas, par exemple, du programme national de recherche sur les bioénergies pour les deuxième et troisième générations de biocarburants. Soit ils font partie de programmes plus globaux de biotechnologies, ce qui ne leur donne pas de visibilité propre. Dans ces deux cas, la pertinence des projets pluridisciplinaires est très généralement sous-évaluée par des comités monodisciplinaires, un phénomène qui n’est pas propre à la France, et dont la BS est naturellement victime.

Le CNRS n’a pas non plus défini de programme spécifique à la BS, celle-ci étant financée dans le cadre d’un programme pluridisciplinaire de recherche, à hauteur de 50 000 euros sur un an220. A ce jour, deux projets de recherche en BS ont été financés par ce programme. L’étude précitée de Lei Pei constate que, dans ce contexte, la BS n’a pas été inscrite en tête de liste des priorités de l’ANR et du CNRS. C’est la raison pour laquelle les chercheurs français sollicitent la plus grande partie de leurs financements auprès des programmes européens.

La présence des équipes françaises dans 5 des 18 projets de biologie de synthèse regroupés dans le département NEST (science et technologie nouvelles et émergentes), du 6e PCRD a été significative. Il en est également de même dans au moins 8 projets du 7e PCRD, notamment dans le département KBBE (« Bioéconomie basée sur la connaissance ») qui regroupe les appels d’offre labellisés « biologie de synthèse ».

En ce qui concerne la recherche dans le secteur privé, l’audition publique du 4 mai 2011 a permis de constater qu’elle était active dans les domaines de la production de nouveaux biocarburants ou de la chimie. Mais, comme dans les autres domaines, les partenariats entre recherche publique et privée restent très faibles, contrairement à ce qui se passe aux États-Unis, en Allemagne, en Suisse, malgré l’incitation fiscale très attractive du crédit impôt recherche dans notre pays.

Ø La Suisse

La Suisse a suivi l’exemple de l’Allemagne, comme le montre l’initiative lancée en 2007 dans le domaine de la biologie des systèmes par Systems X.ch. Il s’agit d’un consortium réunissant huit universités et trois instituts de recherche. Le gouvernement helvétique lui a accordé des crédits d’un montant de 66,7 millions d’euros pour quatre ans et une enveloppe d’un montant équivalent provenant des partenaires du consortium. A la suite du lancement de deux appels d’offres, quatorze projets ont été financés, représentant ainsi 80 % des dotations au titre des années 2008 à 2011.

Le Département de la science des systèmes biologiques et de l’ingénierie de Bâle, l’un des centres de recherche en BS les plus actifs d’Europe, s’est vu également allouer une dotation de 66,7 millions d’euros. Ce centre a été créé pour réunir des chercheurs de diverses disciplines, sciences naturelles, ingénierie, informatique et mathématiques, la BS étant l’un des trois domaines de recherche. Le budget alloué par le centre au titre de la BS est d’environ 5,5 millions d’euros par an pour une période de quatre ans. Avec un budget annuel de 480 millions d’euros, le Fonds national de la recherche scientifique (FNRS) est le principal organe de financement pour la recherche fondamentale dans toutes les disciplines, dont la BS, financée depuis 2002.

Tous les projets financés par Systems X.ch et le FNRS couvrent les différents aspects de la BS, à l’exclusion des questions sociales et éthiques. Le FNRS finance essentiellement la recherche fondamentale, et Systems X.ch la recherche fondamentale et appliquée.

Ø La Chine

Plusieurs de nos interlocuteurs ont souligné l’importance des moyens alloués par le gouvernement chinois à la BS, que ce soit en termes de recherche fondamentale ou de moyens de financement. En ce qui concerne la recherche, un laboratoire de BS, le Shangaï Institute for Biological Science, regroupe depuis 2008 une douzaine de chercheurs principaux et une centaine d’étudiants et de chercheurs.

La Chine a accueilli au mois d’octobre 2011 deux colloques internationaux. Du 12 au 14 octobre 2011, un symposium consacré aux technologies-clés de la BS s’est tenu à Shangaï. Il a réuni les Académies chinoises des Sciences et de l’ingénierie, ainsi que leurs homologues britanniques et américaines sur les thèmes suivants : caractérisation et conception des briques et modules, génome synthétique, construction et conception des réseaux ainsi que les aspects industriels et éthiques de la BS. De même, une conférence réunissant l’Institut Max Planck et l’Académie des Sciences chinoise s’est tenue à Shangaï sur les différentes approches de la BS : bottom up et top down. S’y ajoutent des actions de coopération entre les universités chinoises et étrangères. Ainsi, Pamela Silver, professeure à la Harvard Medical School, accueille-t-elle régulièrement un certain nombre d’étudiants chinois dans son laboratoire.

S’agissant des moyens de financement, François Képès nous a indiqué que, dans le cadre du XIIe Plan, trois institutions soutiendraient la BS, dont le ministère de la Recherche à lui seul pour un milliard de dollars par an. Toutefois, faute de données exactes, cette dotation pourrait financer - outre la BS stricto sensu - d’autres domaines tels que les « omiques » ou la biologie des systèmes.

b) L’application du principe d’interdisciplinarité dans les systèmes de recherche et de formation

Le principe d’interdisciplinarité221, bien qu’il ait été déjà invoqué par d’autres disciplines et ce, bien avant que la BS ne se développe, est néanmoins présenté comme une exigence liée à la nature même de la BS. Cette notion d’interdisciplinarité s’étend aux sciences humaines et sociales (SHS), compte tenu des interrogations soulevées par les développements menés.

Pour autant, Natalie Kuldell222, enseignante au MIT, souligne le fait qu’il ne suffit pas simplement, à travers cette notion d’interdisciplinarité, de réunir les postes de biologistes et d’ingénieurs et d’attendre le « feu d’artifice » qui pourrait en résulter. Selon elle, la BS est une discipline distincte, qui exige de ceux qui la pratiquent de travailler de façon différente. Il s’agit en effet de gérer la complexité, plutôt que de la décrire et de s’en féliciter. Les scientifiques et les ingénieurs qui choisissent la BS doivent donc adapter les méthodologies utilisées habituellement et s’adapter à un domaine où recherche scientifique et ingénierie avancent de pair. Cette nouvelle culture doit être partagée par les étudiants. C’est ce qui explique la création, aux États-Unis comme en Europe, de centres de recherche et de formation dédiés à la BS ou à la biologie des systèmes.

1° Aux États-Unis

Le Centre SynBERC (Synthetic Engineering Research Center), situé à l’Université de Berkeley, illustre parfaitement cet objectif d’interdisciplinarité. SynBERC a été créé en 2006 par plusieurs universités (Harvard, MIT, Prairie View A&M, Berkeley), à l’aide d’une subvention de 20 millions de dollars allouée pour une période de cinq ans par la National Science Foundation et des entreprises. C’est un centre de recherche qui inclut un département consacré aux sciences humaines, à l’enseignement et au transfert de technologie.

L’Institut de Biologie Synthétique (SBI), évoqué précédemment, constitue un autre exemple achevé de la mise en œuvre systématique du principe d’interdisciplinarité. SBI comprend ainsi 33 facultés et des chercheurs provenant de huit départements de l’Université de Berkeley et de quatre divisions du Laurence Berkeley National Laboratory. Ces chercheurs sont issus de disciplines de l’ingénierie, de la chimie et de la biologie.

2° En Europe

Les conditions de mise en œuvre de l’interdisciplinarité se présentent différemment dans les pays d’Europe selon que l’on considère la recherche ou la formation.

Ø En matière de recherche

1) Le Royaume-Uni

Un aspect intéressant de l’interdisciplinarité au Royaume-Uni est l’intégration des recherches sur les questions sociales et éthiques (ELSI, Ethical, Legal and Social Implications) dans les recherches scientifiques, encouragée par l’EPSRC (Engineering and Physical Sciences Research Council).

2) L’Allemagne

Tous les programmes de recherche sont interdisciplinaires et associent mathématiciens, biologistes, médecins, informaticiens et biochimistes.

Cette organisation pluridisciplinaire de la recherche permet d’assurer en parallèle une formation à la biologie des systèmes pour les jeunes générations de chercheurs, grâce à l’intégration de ces disciplines : biochimie, génomique, physiologie, informatique et mathématiques. Toutefois, les SHS sont absentes des programmes et mènent leurs recherches en parallèle.

3) La France

L’Institut de Biologie systémique et synthétique (iBSS) a été créé en 2010 avec le soutien du Genopole, de l’Université d’Evry et du CNRS. Cet institut est dédié à la biologie de synthèse et la biologie systémique. Dans le cadre des investissements d’avenir, cet institut a soumis un dossier LABEX avec des industriels locaux et le centre de sociologie Pierre Naville, au mois d’octobre 2011.

Bien qu’il ne concerne pas spécifiquement la BS, il faut signaler le projet TWB (Toulouse White Biotechnology), financé à hauteur de 20 millions d’euros par l’ANR dans le cadre de l’appel à projets « Démonstrateurs préindustriels en biotechnologie », au titre de l’action « Santé et Biotechnologie » du programme des Investissements d’avenir. L’objectif de ce projet est de favoriser l’émergence d’une bioéconomie fondée sur l’utilisation du carbone renouvelable, en complément de celle basée sur le carbone fossile. Porté par l’INRA, ce projet associe l’INSA de Toulouse. Il a été soutenu par la région Midi-Pyrénées et par plusieurs entreprises. On notera également que, afin de s’interroger très en amont sur l’acceptabilité sociale des procédés envisagés, un partenariat dans le domaine de la bioéthique a été mis en place avec l’Ecole supérieure d’éthique des sciences de l’Institut catholique de Toulouse.

4) La Suisse

L’étude de Lei Pei et al. relève que l’interdisciplinarité est une condition du financement des projets par Systems X.ch. Cet organisme de financement exige en effet que les projets associent des chercheurs provenant au moins de deux instituts.

Quant au Fonds national de la recherche scientifique, c’est sa commission spécialisée pour la recherche interdisciplinaire qui évalue les projets portant sur des recherches relevant de deux ou plusieurs disciplines.

Ø En matière de formation

Dans le domaine de l’enseignement, les filières spécialisées ont été mises en place selon des modalités diverses.

1) Le Royaume-Uni

L’Imperial College de Londres offre aux étudiants trois voies possibles pour étudier la BS :

– un module de 12 semaines à la fin de l’année de licence, qui comprend des cours théoriques et des travaux en laboratoire. Les étudiants ayant une formation d’ingénieurs biologistes se voient dispenser des cours de biochimie et procèdent à des manipulations d’ADN. Les étudiants en biologie et en biochimie suivent des enseignements sur les principes de l’ingénierie et la modélisation, et mettent en pratique la modélisation informatique des systèmes biologiques,

– un master de biologie des systèmes et de BS : l’objet de ce cursus est de fournir aux étudiants diplômés provenant des sciences de la vie, de l’ingénierie et des sciences physiques, une plate-forme collaborative sur des sujets de recherche ou des applications de la BS. A cet effet, ils travaillent à un projet de recherche interdisciplinaire de huit mois,

– un master de bio-informatique et de biologie théorique des systèmes : le cursus a été conçu par une équipe d’enseignants des facultés des sciences de la nature, de l’informatique et de médecine.

2) La France

Un master 2 de BS a été créé en 2008 à l’Université d’Evry, avec l’Ecole Centrale de Paris et l’AgroParisTech. Les étudiants admis en 2010 et en 2011 proviennent, soit d’universités (françaises et étrangères), soit d’écoles d’ingénieurs. Ils ont tous validé une première année de master ou sont en troisième année d’école d’ingénieurs. Ils ont suivi différents cursus : biologie avec option bio-informatique, physique, chimie, avec une option biologie/biochimie, informatique, avec une interaction avec la biologie à travers un module d’enseignement ou un stage.

Au niveau de la licence, l’Université de Paris V - René Descartes a mis en place, en septembre 2011, une licence scientifique interdisciplinaire appelée « licence frontières du vivant », qui vise à transmettre aux étudiants une solide culture scientifique dans plusieurs disciplines (mathématiques, physique, chimie, biologie, informatique), de façon à ce qu’ils puissent poursuivre leurs études dans le domaine de leur choix.

Au-delà de ces filières spécialisées, Philippe Noirot, directeur de recherche à l’INRA en charge du pôle de biologie systémique et synthétique, nous a informés que les nouvelles formations des biologistes commençaient à intégrer davantage de statistiques et d’informatique, même s’il estime que cela reste encore insuffisant. C’est pourquoi il s’est félicité des préconisations du rapport de la Stratégie nationale de la recherche et de l’innovation en faveur du développement volontariste d’une formation interdisciplinaire pour la BS.

3) L’Allemagne

Une des priorités du programme FORSYS, au-delà de l’expertise en biologie des systèmes dans des centres de référence, a été la création de nouveaux cursus allant de la licence au doctorat. Les initiatives se sont ainsi multipliées et ont couvert les principaux domaines de la bio-informatique, de l’analyse logicielle, de la reconstruction de réseaux et de la modélisation multi-échelle.

3° Le cas du Japon 223

Les études de biologie synthétique au Japon ne sont conduites que dans un nombre très limité d’universités ainsi qu’au sein du RIKEN, l’un des grands instituts de recherche du ministère de l’Éducation, de la culture, du sport, de la science et de la technologie (MEXT).

De manière générale, des travaux de recherche traitant de certains aspects de cette discipline (biologie moléculaire, biochimie, biophysique…) sont réalisés dans de nombreux établissements mais ils ne sont pas considérés comme de la « biologie synthétique » par la communauté scientifique japonaise. Ce terme n’est en effet pas encore unanimement accepté par les spécialistes et très peu de projets sont parvenus à fédérer l’ensemble des domaines concernés par cette nouvelle biologie pluridisciplinaire. Aucune avancée majeure n’a ainsi été annoncée par ce pays concernant la reprogrammation ou la modification d’êtres vivants, à l’exception d’une méthode ambitieuse de cryptage de l’information.

Si Mme Anne Fagot-Largeault, professeure honoraire au Collège de France, convient de l’absence d’avancées majeures dans la reprogrammation ou la modification d’êtres vivants au Japon, elle tient toutefois à faire observer que ce pays est très avancé dans le domaine de la robotique, ce qu’elle relie à une différence profonde de culture. Il s’agit d’un choix très significatif : pour le service aux personnes âgées dépendantes, par exemple, le Japon parie sur les robots, tandis que nous parions sur les biotechnologies.

Cela étant, il faut également noter que, dès le début des années 1990, le Japon s’est fortement employé à développer des techniques de pointe dans la modélisation et la collecte de données biologiques, comme on a pu le voir précédemment dans la première partie.

2.– LE RÔLE CATALYSEUR DU CONCOURS IGEM (INTERNATIONAL GENETICALLY ENGINEERED MACHINE - COMPÉTITION INTERNATIONALE DE MACHINES GÉNÉTIQUEMENT MODIFIÉES)

Le succès incontestable enregistré par le concours iGEM a permis, d’une part, de diffuser la notion de BS et, d’autre part, de favoriser la consécration de certaines méthodes d’élaboration de la BS. Il a aussi pour effet, par son aspect ludique et créatif, de stimuler la curiosité et l’intérêt des étudiants et rendre ainsi plus attractive la filière de la BS, dans un contexte général de désaffection des étudiants européens pour la recherche scientifique.

a) Le concours iGEM a contribué à la diffusion de la notion de biologie de synthèse

Dans le cadre de ce concours, les étudiants reçoivent un kit de composants biologiques (appelé BioBricks) au début de l’été. Ce kit leur est envoyé par le registre des composants biologiques standard situé au MIT. Les étudiants travaillent en laboratoire au cours de l’été et combinent ces composants à ceux qu’ils ont eux-mêmes conçus pour construire des circuits génétiques synthétiques et les faire fonctionner dans des cellules vivantes.

Le format de l’iGEM regroupant des phases de conception et de construction est très motivant et constitue une méthode d’apprentissage efficace. L’une des principales caractéristiques de l’iGEM est que les participants commencent leurs projets avec des connaissances scientifiques relativement restreintes, la plupart étant en première et deuxième année d’université, le niveau bac + 5 étant la limite pour participer à l’iGEM. Mais au-delà de ce niveau, il reste toujours possible de participer en tant que conseiller ou superviseur. Les organisateurs de ce concours ont d’ailleurs mis en place, depuis 2011, un iGem des lycées, contribuant ainsi à attirer dans des filières scientifiques des jeunes qui, aujourd’hui, surtout dans les pays développés, se dirigent plus volontiers vers la finance, le droit ou le commerce.

Même si les travaux et les recherches en BS se sont développés antérieurement au concours iGEM, créé en 2003, il a fortement contribué à « mondialiser » la notion de BS224 , révélant ainsi l’intérêt croissant porté par la Chine à la BS. En effet, de sa création en 2003 jusqu’en 2005, le concours était limité aux seuls étudiants américains et se déroulait durant un mois au MIT dans le cadre de la période des activités indépendantes (Independant Activities Period).

Depuis, le nombre d’équipes et de participants n’a cessé d’augmenter, passant de 5 en 2004 à 13 en 2005 – la première année où le concours a été international – , 32 en 2006, 54 en 2007, 84 en 2008, 112 en 2009, 130 en 2010 et 165 en 2011. Cette participation croissante a contraint les organisateurs du concours à instaurer en 2011 des concours régionaux de pré-sélection, à Amsterdam pour l’Europe, Hong Kong pour l’Asie et Indianapolis pour les Amériques. Le « jamboree » final s’est déroulé, comme depuis la création, au MIT, du 5 au 7 novembre 2011.

L’INSTITUTION D’UN IGEM JAPONAIS :
L’INTERNATIONAL RATIONAL-GENOME-DESIGN CONTEXT (GENOCON)

Le Japon a créé en 2010 sa propre compétition internationale de biologie synthétique : l’International Rational-Genome-Design Contest ou GenoCon. Cette compétition est organisée par la division Bioinformatics And Systems Engineering (BASE) du RIKEN.

Plus restrictif que l’iGEM, le GenoCon concerne uniquement l’innovation des systèmes végétaux, leur physiologie et leur capacité à purifier l’environnement.

L’objectif de ce concours en 2010 et 2011 a été la modélisation d’une séquence virtuelle d’ADN permettant à l’espèce végétale Arabidopsis thaliana de détoxifier les molécules de formaldéhyde.

Afin de réaliser leurs projets, les participants sont invités à exploiter les données génériques et protéomiques disponibles dans la base de données Riken Scientists Networking System (SciNeS). Une fois achevés, les modèles génétiques virtuels sont traités et envoyés à la BASE par le biais d’une application Internet. Les expérimentations et manipulations génétiques sont alors réalisées par les professionnels du RIKEN ou d’autres instituts de recherche et les caractéristiques des plantes obtenues sont évaluées.

La session 2011 a été annulée pour cause de restrictions budgétaires suite au tremblement de terre du 11 mars 2011.

Source : Eric Perrot, «La biologie synthétique au Japon», service pour la Science et la Technologie de l’ambassade de France au Japon, 15 décembre 2011

b) Une méthodologie de la biologie de synthèse diffusée et partagée dans le monde grâce à iGEM

Grâce à ce concours, les fondateurs Drew Endy et Randy Rettberg ont contribué à créer et faire partager une culture et une méthodologie de la BS dans le monde entier. Tout d’abord, conformément au pari de Drew Endy de rendre l’élaboration de la biologie plus facile, les concurrents sont plongés dans une atmosphère ludique225, avec l’impression de jouer avec des Lego en manipulant des bio-briques standardisées. Randy Rettberg souligne à juste titre que ce concours ne peut être comparé à un enseignement traditionnel. La préparation et le déroulement du concours reposent sur le travail d’équipe, à l’exemple de celui de l’ingénieur et à l’opposé du travail en laboratoire traditionnel où les biologistes travaillent plutôt de façon isolée sur leur paillasse. Les participants prennent connaissance du registre des bio-briques et reçoivent un kit de briques standardisées, ce qui leur permet de mesurer le rôle de ce registre et du système d’open source /open access biology dans l’élaboration de la BS. Enfin, tant la composition des équipes que celles des jurys renforcent le caractère interdisciplinaire de la BS.

En France, la première équipe iGEM a rassemblé en 2007 des compétences multi-disciplinaires en provenance d’Évry, Paris, Palaiseau et Lyon. Elle a remporté au MIT le premier prix de recherche fondatrice et faisait partie des six équipes finalistes226. Depuis, le nombre d'équipes françaises a augmenté (quatre en 2011), et elles ont engrangé quelques succès supplémentaires.

LE CENTRE DE RECHERCHES INTERDISCIPLINAIRES (CRI)

Le CRI offre la liberté aux étudiants d’aborder de nombreux sujets : ceux-ci sont notamment incités à créer des clubs scientifiques sur des thèmes qui les intéressent. Les étudiants sont libres d’organiser leur club comme ils le souhaitent : étude d’articles, de livres, invitation de chercheurs, discussions ou débats, etc. C’est ainsi qu’un club de biologie synthétique est né au sein du CRI. Celui-ci a vite vu son affluence augmenter et le lien a rapidement été établi avec le réseau des chercheurs français s’intéressant à la biologie synthétique. Devant le succès du club, l’initiative d’organiser une participation francilienne à la compétition iGEM a naturellement été prise. L’équipe a alors organisé une recherche de sponsors et a recruté des étudiants de toutes disciplines et formations dans les universités et écoles d’ingénieurs franciliennes. Ainsi, les étudiants de l’équipe francilienne se répartissaient en 2 ingénieurs, 3 médecins, 2 bio-informaticiens, 1 biophysicien et 2 biologistes.

Source : Médecine et Sciences, 24 mai 2008

Toutefois, le rôle et la portée du concours font l’objet d’appréciations contrastées.

La stimulation intellectuelle qu’il suscite chez les étudiants, en les incitant à faire preuve d’inventivité, est unanimement reconnue. C’est la raison pour laquelle l’Imperial College prévoit, pour les étudiants en licence, l’organisation d’une compétition de type iGEM dans la seconde moitié de leur module de formation. A cet égard, le professeur Richard Kitney a tenu à faire observer que ces étudiants et ceux qui participent au concours iGEM préparent, par la suite, pour la plupart d’entre eux, une thèse de doctorat. L’effet incitatif est donc bien réel et il est reconnu par tous les participants.

De même, dans leur prise de position sur la BS, en juillet 2009, la DFG, Akatech (l’Académie des technologies) et la Leopoldina (l’Académie des sciences d’Allemagne) soulignent la motivation des équipes à présenter des projets créatifs à un niveau international.

D’autres voix, cependant, s’élèvent pour mettre en garde contre les risques d’une vision simplifiée de la biologie de synthèse et de la biologie en général provoquée par la dimension ludique du concours : celui-ci développerait l’idée que l’on peut, finalement, jouer avec le vivant, le manipuler facilement et, pourquoi pas, « recréer la vie » comme l’exprime Craig Venter. Le directeur général de l’ONG ETC a ainsi dénoncé les dangers d’un concours qui peut faire naître des fantasmes démesurés chez les jeunes concernant le vivant, proches de la science-fiction. Ces messages semblent d’ailleurs avoir été entendus par les organisateurs qui, s’ils n’ont pas modifié l’aspect ludique du concours, ont cependant mis en place un prix sur l’éthique et un autre sur la bio-sûreté et ont encouragé la participation des SHS aux projets de l’iGEM.

Des réserves d’un ordre différent se sont exprimées. Des scientifiques européens y voient un instrument d’intelligence économique efficace, sous couvert d’une manifestation ludique. C’est dans cet esprit que l’organisation d’un iGEM européen, adapté à la culture européenne et permettant d’éviter cette fuite des idées, est actuellement en cours de réflexion.

B.– LES OBSTACLES AU DÉVELOPPEMENT DE LA BIOLOGIE DE SYNTHÈSE

Ces obstacles tiennent à des facteurs d’ordre culturel et institutionnel, mais aussi économique.

1.– DES FACTEURS D’ORDRE CULTUREL ET INSTITUTIONNEL

La BS souffre de la désaffection pour les carrières scientifiques dans les pays développés.

a) La désaffection pour la science

On ne peut que constater la désaffection croissante des étudiants pour les études scientifiques, phénomène qui touche essentiellement les pays occidentaux, à la différence des pays asiatiques.

1° Aux États-Unis

Un rapport rendu en 2010227 par les académies nationales américaines a identifié les causes qui, selon elles, sont à l’origine de la perte de leadership des États-Unis dans les domaines de l’économie, de la science et de l’innovation.

Parmi ces causes, elles relèvent entre autres que :

– en 2000, le nombre d’étudiants étrangers étudiant les sciences physiques ou les sciences de l’ingénieur avait dépassé, pour la première fois, le nombre d’étudiants américains,

– le nombre de titres de docteurs décernés dans les mathématiques et les sciences physiques par les universités américaines est demeuré inchangé au cours de la décennie 2000-2010,

– les États-Unis délivrent davantage de diplômes aux étudiants en arts plastiques qu’aux étudiants ingénieurs.

Pour enrayer cette tendance, le rapport recommande que davantage d’Américains fassent carrière dans les mathématiques, les sciences et les sciences de l’ingénieur. Reprenant ces thèmes dans son discours sur l’Etat de l’Union du 25 janvier 2011, le Président Obama a déclaré que ce n’est pas seulement le vainqueur du Super Bowl qui méritait d’être célébré, mais le vainqueur d’un concours scientifique.

2° En Allemagne

Un sondage récent sur le classement des dix filières d’études préférées des étudiants, selon leur sexe, a fait apparaître les données suivantes :

Classement de la matière

Etudiantes

Etudiants

1

Sciences de gestion

Sciences de gestion

2

Germanistique

Construction de machines

3

Médecine

Informatique

4

Sciences juridiques

Ingénieur économiste

5

Sciences de l’éducation

Electronique

6

Anglais

Sciences juridiques

7

Biologie

Sciences économiques

8

Sciences économiques

Médecine

9

Psychologie

Informatique appliquée à l’économie

10

Mathématiques

Physique

Source : Studieren-im-netz. org

Les mathématiques sont classées en dernière position dans le choix des étudiantes comme la physique dans le choix des étudiants. En ce qui concerne les matières utiles au développement de la BS, si l’informatique est classée en troisième position chez les étudiants, elle est, en revanche, exclue du classement des étudiantes. Quant à la biologie, elle est classée septième chez les étudiantes, tandis qu’elle n’est pas du tout citée dans le classement des étudiants.

3° Au Royaume-Uni

Plusieurs enquêtes tendent à confirmer une désaffection des jeunes à l’égard des sciences. Une enquête effectuée en 2008 dans trente collèges d’Angleterre a montré que seulement un tiers des jeunes âgés de 13-14 ans avaient classé les matières scientifiques parmi leurs favorites.

Une autre enquête de 2008 a noté que les enfants jugeaient la science trop théorique et non pertinente pour les expériences de la vie quotidienne. C’était aussi le cas de 75 % des enfants âgés de 9 à 14 ans qui, s’ils considéraient la science comme utile, n’estimaient pas toutefois être attirés par elle.

Par ailleurs, les résultats pour 2010 du General Certificate of Secondary Education, l’équivalent du baccalauréat, font ressortir que le nombre de lycéens ayant choisi l’option « triple science » (chimie, biologie et physique) avait doublé depuis 2007. Mais, en 2010, seulement 16 % des candidats relevaient de cette filière. De plus, leur orientation vers la recherche scientifique n’est pas majoritaire à l’issue de cet examen.

Enfin, s’agissant de l’attitude des jeunes à l’égard des sciences de l’ingénieur, une enquête de 2010 effectuée auprès de jeunes âgés de plus de 20 ans a montré que 61 % considéraient que cette branche pourrait leur offrir une carrière attractive. Néanmoins, selon cette même enquête, moins de 16 % des jeunes interrogés avaient personnellement envisagé d’effectuer une carrière d’ingénieur.

4° En France

Le rapport d’information de Jean-Marie Rolland228, établi au nom de la Commission des affaires culturelles, après avoir relevé un désenchantement général vis-à-vis de la science, a fait état d’une désaffection très nette en France pour les études en physique-chimie et en mathématiques.

C’est ainsi que le nombre de diplômés en sciences physiques a diminué de 37 % entre 1995 et 2006 et de 18 % pour ce qui est des diplômés en mathématiques entre 1998 et 2006.

Dans une note de veille d’octobre 2006, le Conseil d’analyse stratégique constate une désaffection particulièrement marquée dans les filières scientifiques du 1er cycle, dont les effectifs diminuent de façon préoccupante de 9,4 % pour la seule année 2004. En revanche, les effectifs des sciences de l’ingénieur ont enregistré une forte croissance - de plus de 200 % pour l’informatique - au cours de la période 1995-2000. Comme la BS a besoin des deux types de compétences pour se développer de façon équilibrée, les sciences fondamentales d’une part (biologie, physique, mathématiques, chimie et biochimie) et les sciences de l’ingénieur d’autre part (électronique, informatique), un déséquilibre dans les expertises pourrait entraver sa progression ou favoriser l’approche ingénieur au détriment d’une approche plus fondamentale.

L’interdisciplinarité nécessaire au développement de la BS est donc compromise par la diminution des étudiants en sciences en Europe, comme aux États-Unis. Toutefois les États-Unis compensent cette désaffection par l’accueil d’étudiants du monde entier : il est essentiel, dans ce cadre, que la France développe, sans entraves réglementaires, l’accueil d’étudiants et de chercheurs venus du monde entier si elle veut continuer à être performante sur le plan scientifique et celui de l’innovation.

b) Des dysfonctionnements affectant le système de recherche et de formation

L’évolution de notre système de formation, en France, ne fait qu’accentuer cette tendance à la désaffection et, pire, à la méconnaissance des sciences. Cette évolution n’est pas favorable, pour plusieurs raisons :

– réduction de la durée des enseignements scientifiques : Pierre Léna, délégué à l’éducation et à la formation et membre de l’Académie des sciences a déploré que moins de la moitié des écoles primaires aient mis en œuvre les deux heures d’enseignement scientifique prescrites par les programmes229.

Par ailleurs, la méthode active d’initiation aux sciences dans les écoles primaires, promue par « La main à la pâte » lancée il y a 15 ans par Pierre Léna et Georges Charpak, est trop peu présente dans les écoles.

De même, la réforme des programmes scientifiques de la classe de 1re S s’est traduite, depuis la rentrée 2011, par la réduction d’1 h 30 par semaine de l’enseignement de physique. Quant aux 4 heures hebdomadaires consacrées aux mathématiques, Cédric Villani, Médaillé Fields, a douté qu’une telle durée soit suffisante pour former de futurs chercheurs ou même pour l’instruction de base des lycéens230. Enfin, les sciences de la vie ont été mutualisées avec les sciences de la terre, ce qui les rend d’autant moins lisibles et attractives pour les lycéens.

Cette tendance à la réduction des enseignements scientifiques n’est pas propre à la France. Lars Merkel, professeur à l’Université technique de Berlin, nous a indiqué que l’Allemagne était confrontée au même phénomène.

– manque de professeurs : le rapport des académies nationales des États-Unis note que 46 % des professeurs quittent l’enseignement dans les cinq années ayant suivi leur entrée dans la carrière. C’est ce qui a conduit le Président Obama, dans son discours sur l’Etat de l’Union du 25 janvier 2011, à inciter les jeunes à s’engager dans la carrière enseignante.

Enfin, au Royaume-Uni, on constate qu’un quart des établissements de l’enseignement secondaire ne sont pas pourvus en professeurs de physique.

– insuffisance de la qualification des enseignants, dans les sciences notamment : le rapport des académies nationales américaines constate que 69 % des élèves scolarisés dans les classes allant du 5e au 8e degré231 se voient enseigner les mathématiques par des professeurs qui ne sont pas titulaires d’un diplôme en mathématiques. C’est la raison pour laquelle les académies nationales proposent que les 250 000 professeurs concernés puissent bénéficier d’un renforcement de leurs compétences au moyen du financement d’études complémentaires, qui leur permettraient d’obtenir des masters en sciences, en mathématiques ou dans les sciences de l’ingénieur. D’autres dysfonctionnements touchent directement la BS.

En tant que secteur émergent et ne bénéficiant pas d’une reconnaissance scientifique et institutionnelle confirmée, la BS est confrontée à une certaine frilosité académique. Aux États-Unis, Pamela Silver regrette ainsi que, à la différence du MIT, la Harvard Medical School ait négligé les relations entre l’université et les industriels, ce qui n’est effectivement pas de nature à favoriser les liens entre recherche fondamentale et recherche appliquée sur lesquels repose le développement de la BS. Pamela Silver a donc mis en place un programme destiné à modifier l’enseignement dispensé aux étudiants, s’appuyant davantage sur ce lien entre recherche fondamentale et application industrielle. Elle a également regretté le soutien trop faible du NIH pour la BS, accentué par la réduction des crédits accordés à l’enseignement et à la recherche, liée au contexte de crise économique et de réduction des dépenses publiques.

On retrouve cette même frilosité en France, puisque, comme on l’a vu, peu de projets ont obtenu le concours financier du CNRS ou de l’ANR, ce qui n’incite pas les étudiants à se diriger vers ce domaine encore trop peu reconnu et structuré. Une analyse récente de l’Alliance nationale pour les sciences de la vie et de la santé (Aviesan)232 confirme ce déficit d’attractivité pour la BS.

Ce rapport souligne que la BS n’est pas très attractive pour les biologistes et constate que le cloisonnement, plus fort en France qu’ailleurs, entre les disciplines, pénalise d’autant plus un domaine aussi pluridisciplinaire que la BS.

Le rapport relève aussi les limites de la formation des biologistes. La formation aux enjeux de la BS ou, plus largement, à des biotechnologies, est pratiquement inexistante, en dehors des écoles d’ingénieurs en biotechnologie. De plus, la plupart des biologistes restent focalisés sur des problématiques telles que les modalités de fonctionnement du vivant ou ses dysfonctionnements et les moyens d’y remédier. L’utilisation du vivant ou l’imitation du vivant à d’autres fins leur est, en général, peu familière et ne les attire pas. Le rapport souligne les défauts d’interface entre les disciplines : si l’interface entre la chimie et la biologie fonctionne bien pour les chimistes, l’inverse n’est pas vrai. Une fracture comparable existe entre biologistes et chimie de synthèse. La chimie repousserait et rebuterait les biologistes. Or, rappelle le rapport, une cellule est une entité chimique exerçant un foisonnement d’activités chimiques exceptionnelles dans la nature.

La réduction croissante de l’enseignement de la biochimie en France233 ne contribue pas à renforcer l’interdisciplinarité, d’autant que, de son côté, la communauté des chimistes affiche un scepticisme ancien et bien établi envers la biocatalyse234.

Les reproches formulés à l’encontre des biologistes et des chimistes concernent également nos grandes écoles scientifiques, puisque l’on ne recense aucun chercheur en BS à l’Ecole Polytechnique, pas plus que dans les différentes écoles normales supérieures.

Au Japon, la BS suscite quelques réserves de la part des scientifiques. En effet, la définition même de la BS est sujette à de nombreux débats de la part des biologistes et bioinformaticiens.

La BS est parfois considérée comme une simple évolution de la biologie moléculaire à cause de la part prépondérante de cette dernière dans les protocoles opératoires. En outre, la recherche et le développement de nouveaux projets sont freinés par les difficultés culturelles des Japonais à mettre en œuvre une approche multidisciplinaire.235

2.– DES FACTEURS D’ORDRE ÉCONOMIQUE

Les dotations budgétaires allouées à la formation et à la recherche sont considérées par tous les acteurs rencontrés comme insuffisantes ou insatisfaisantes, du fait de leurs modalités d’allocation.

a) Des financements insuffisants

Cette première critique, formulée au niveau international, s’applique particulièrement à l’Europe, au niveau communautaire.

1° Au niveau des pays membres

En France, tout d’abord, on ne peut que relever le niveau très faible de la dotation annuelle de fonctionnement accordée à l’Institut de Biologie systémique et synthétique d’Evry, dont le montant, selon les propos de son directeur, le professeur Jean-Loup Faulon, ne serait que d’un million d’euros en moyenne par an, correspondant aux rémunérations des personnels permanents. Il est clair que cet institut, dont la création est très positive pour le développement et la visibilité de la BS, est très insuffisamment doté au regard de ses homologues britanniques ou allemands, sans parler des États-Unis ou de la Chine.

L’étude précitée de Lei Pei et al.236 indique que, si BP a été amené à investir 500 millions de dollars (soit 384 millions d’euros) dans l’Energy Bioscience Institute de l’Université de Berkeley, c’est parce que, selon les déclarations de BP, cette entreprise n’avait pu trouver en Europe aucun partenaire approprié.

Il y a lieu de relever également, en ce qui concerne la situation du secteur privé en France, que les entreprises de biotechnologie opérant dans le domaine de la BS sont peu nombreuses. D’après le rapport de l’Alliance, leur nombre serait inférieur à 10 et elles n’auraient pas la taille critique nécessaire à un développement pérenne en France et à l’international.

2° Au niveau communautaire

L’Union européenne a participé au financement de la BS pour un montant évalué, selon l’étude de Lei Pei, à 32 millions d’euros, dont un quart abondé par les Etats membres. Malgré le caractère encore émergent de la BS, l’ensemble des chercheurs rencontrés jugent ce financement trop faible au regard des investissements américains notamment. Le risque est de laisser les États-Unis et, dans un proche avenir, la Chine, jouer un rôle moteur, voire avoir un monopole, dans l’industrie de synthèse des gènes. De même, nous l’avons vu, l’Europe pourrait jouer un rôle d’impulsion dans l’organisation d’un iGEM européen, comme suggéré par Françoise Roure, permettant ainsi de constituer un registre des briques du vivant qui lui soit propre alors qu’il est aujourd’hui détenu par la BioBricks Foundation. L’initiative Horizon 2020, lancée par la Commission européenne, qui prévoit d’affecter 80 milliards d’euros à la recherche et à l’innovation, pourrait être l’opportunité de telles initiatives.

3° Au Japon

b) Un contexte global de baisse des financements

Mis à part l’Allemagne, qui a décidé d’augmenter les dépenses consacrées à la recherche, et les pays émergents qui misent sur l’innovation comme levier de croissance, le contexte global de crise économique et financière est peu favorable à l’investissement dans de nouveaux domaines de recherche comme la BS. De nombreux chercheurs nous ont fait part de leurs inquiétudes.

Au Royaume-Uni, le Higher Education Funding Council (le Conseil pour le financement de l’enseignement supérieur) a annoncé que l’enveloppe budgétaire allouée aux 254 universités et collèges pour l’année 2011-2012 serait de 6,5 milliards de livres (environ 8 milliards d’euros), soit une baisse de 58,1 % pour le financement en capital et de 33,2 % pour le financement de différents programmes spéciaux.

Aux États-Unis, les crédits du NIH sont équivalents à ceux de 2010, 30,7 milliards de dollars (soit près de 23 milliards d’euros), au lieu des 32 milliards de dollars demandés par le Président Obama. Il est difficile d’évaluer dans quelle mesure cette baisse affectera les domaines émergents comme la BS. Les chercheurs de Harvard et du MIT anticipent une baisse des crédits de recherche pour 2012 et envisagent de solliciter des crédits complémentaires à ceux, jugés insuffisants, du NIH.

De plus, la baisse des crédits affecte plus largement les laboratoires dits « juniors » consacrés à des recherches moins institutionnalisées et plus émergentes, comme la BS.

*

* *

Cette rapide évaluation de l’état de l’art international de la biologie de synthèse en matière de recherche et de formation peut se résumer ainsi :

– une avance confirmée des États-Unis, avec un partenariat étroit entre recherche, même académique, et industrie, facilitant le transfert de technologie, la valorisation de la recherche, la création de start up ou les partenariats avec les grands groupes industriels intéressés par les applications considérées comme les plus proches du marché (biocarburants notamment). Sans surprise, les centres d’excellence sont en Californie et sur la côte Est, en particulier à Boston,

– un intérêt marqué des pays émergents, en particulier la Chine, l’Inde, Singapour, qui ont fait des sciences du vivant et des biotechnologies et, spécifiquement, de la biologie de synthèse, un objectif stratégique de recherche et développement, notamment pour les applications énergétiques et la recherche de procédés de fabrication moins polluants et moins consommateurs d’énergie.

En Europe, on constate :

– une avance de l’Allemagne où les Länder comme le ministère de la Recherche financent des programmes conséquents et un exemple de transfert vers l’industrie très réussi (outil de diagnostic « Versant » réalisé par Siemens),

– une démarche similaire en Suisse alémanique,

– un engagement réel au Royaume-Uni, freiné conjoncturellement par la réduction des dépenses publiques,

– des compétences de recherche fortes en France mais encore trop diffuses, malgré la récente création de l’Institut de la Biologie systémique et synthétique et une réflexion stratégique en cours. La valorisation de la recherche et des partenariats industriels sont insuffisants. Enfin apparaît clairement une difficulté à mettre en place les formations et programmes de recherche pluridisciplinaires (y compris SHS) nécessaires à la BS, dans un pays où les champs disciplinaires sont encore trop cloisonnés et où le système de formation encourage trop peu la créativité inhérente à la BS,

– quelques niches de recherche d’excellence en Italie (notamment sur la proto-cellule) sans stratégie globale au niveau national ou régional,

– sur le plan communautaire : un ERA-Net en Biologie systémique avec un volet BS, un groupe de travail collaboratif en BS qui a donné lieu en 2011 à un ERA-Net dédié à la BS, avec une participation française active menée par François Képès, des ateliers sur la normalisation, la propriété intellectuelle, la sûreté et la sécurité qui n’ont pas encore donné lieu à une harmonisation européenne.

*

* *

Ainsi, malgré les compétences fortes identifiées en Europe, on ne peut que constater un manque de masse critique et de travail en réseau. En France, le programme des Investissements d’avenir (IA) auraient pu être l’opportunité d’un affichage volontariste du développement de la BS. Si elle est mentionnée à deux reprises dans les programmes des IA, elle est encore trop « diluée » dans les programmes des biotechnologies et seul le programme SYNTHACS, né d’un partenariat entre la société ADISSEO et l’INSA de Toulouse, est clairement identifié comme relevant de la BS. Associant la recherche, intégrant les SHS, la formation, l’innovation et le partenariat, ce programme est particulièrement exemplaire de la méthodologie préconisée pour développer la BS.

IV.– LES RECHERCHES SCIENTIFIQUES-FRONTIERES ET LEUR PARTAGE AVEC LE PUBLIC. LE CAS DE LA BIOLOGIE DE SYNTHÈSE.

Le potentiel de développement de la BS et les ruptures scientifiques, technologiques, industrielles, environnementales et sanitaires qu’elle est susceptible de générer permettent de la caractériser comme une discipline-frontière. Elle fait donc partie de cette multitude de pratiques scientifiques et techniques qui sont à la pointe et dans lesquelles des territoires nouveaux émergent d’une manière constante, posant parfois aux scientifiques eux-mêmes plus d’interrogations qu’elles ne donnent de réponses.

Ce caractère de discipline-frontière rend à la fois nécessaire et difficile la vulgarisation de la science et des avancées technologiques. L’information du public sur les avantages-risques des développements en cours ainsi qu’un échange le plus large et le plus serein possible sur les enjeux en termes de retombées positives (médicales, environnementales, énergétiques et économiques), de régulation des risques et d’appropriation des changements proposés est une pratique de longue haleine dont sont responsables à la fois les chercheurs, les élus et les médias.

Or, le grand public, et même les médiateurs (médias, chercheurs autres que biologistes, formateurs, politiques, décideurs économiques...) disposent pour l’instant de peu d’informations sur les développements réalisés et potentiels de la BS. Une réflexion sur les modalités d’information et d’échange avec le public s’impose. S’il existe un consensus sur le principe de l’organisation d’un dialogue public le plus large possible, qui s’exprime clairement en Europe et en Amérique du Nord, en revanche, les modalités selon lesquelles il pourrait se dérouler font l’objet de divergences qui parfois relèvent des différences culturelles entre les divers pays impliqués.

A. – UN CONSENSUS EN FAVEUR DU DIALOGUE PUBLIC

1. – LES SCIENTIFIQUES FACE À L’OPINION PUBLIQUE

L’opinion publique considère les scientifiques comme la source d’information la plus crédible pour expliquer les enjeux de la recherche scientifique et les questionnements que ceux-ci peuvent susciter, en leur accordant une crédibilité supérieure à celle des associations de consommateurs238, des médias, etc. Ce constat positif ne présage pourtant en rien de la difficulté de l’établissement d’un rapport de confiance sur les enjeux des disciplines-frontières.

Si la prudence s’impose sur l’effet des explications que les scientifiques sont amenés à présenter au grand public, c’est que la critique justifiée d’un certain « déficit de pédagogie » de la part des scientifiques ne permet pas à elle seule de comprendre le rejet par le public de certaines avancées technologiques telles que le nucléaire ou les OGM.

En effet, un sondage publié par le magazine La Recherche239 fait apparaître que les OGM et le nucléaire sont les domaines dans lesquels l’opinion fait le moins confiance aux scientifiques pour dire la vérité sur les résultats et les conséquences de leurs travaux. Il est important de signaler que sur ces deux thématiques, la peur s’étant installée, toutes les explications scientifiques se heurtent à des barrières psychologiques qu’il devient extrêmement difficile de déconstruire.

D’ailleurs, on peut noter que les nanotechnologies tirent, dans ce sondage, leur épingle du jeu, car malgré toute la communication de science-fiction dont elles ont fait l’objet au cours de la dernière décennie, cet ensemble de discipline ne suscite pas de rejet particulier.

SONDAGE : « FAITES-VOUS CONFIANCE AUX SCIENTIFIQUES ? »

DOMAINE

Oui

Non

Ne sait pas et sans réponse

Nanotechnologies

47 %

25 %

28 %

Nucléaire

35 %

58 %

7 %

OGM

33 %

58 %

9 %

Source : La Recherche - les Français et la science, septembre 2011

De nombreux scientifiques font néanmoins un parallèle entre la défiance qui s’exprime parfois à leur égard et le déficit d’expression des scientifiques sur ces sujets. Etienne Klein, directeur du laboratoire des Recherches sur les sciences de la matière au CEA, professeur à l’Ecole Centrale Paris, auteur de nombreux ouvrages sur la philosophie des sciences, souligne, de son côté, la responsabilité de certains chercheurs dans la sur-médiatisation du mot « nano » en s’en servant parfois abusivement pour obtenir des financements.240

De même encore, le professeur Axel Kahn, alors Président de l’Université de Paris V-René Descartes et membre du Conseil scientifique de l’OPECST, a constaté que le recours par des chercheurs au terme de « nanomonde » avait eu un impact tout à fait préjudiciable. Cette terminologie a en effet nourri le fantasme d’un monde nouveau, inconnu et terrifiant, peuplé de « nanorobots » invisibles à cause de leur taille, qui pourraient se livrer à des opérations malveillantes et préjudiciables pour l’avenir de la planète et de ses habitants.

Ainsi les scientifiques ne récusent-ils pas leur part de responsabilité dans les interprétations irrationnelles, reprises par la science-fiction et par les mouvements ouvertement anti-sciences, qui se sont développées dans les années passées.

Il convient de noter également que, souvent, les confusions entre science et science-fiction proviennent d’auteurs dont les compétences relèvent plus du domaine de l’informatique que de celui des disciplines concernées qui, contrairement à l’informatique, sont tenues de se rapporter à la réalité de la matière et aux lois de la nature (ex. Bill Joy, Ray Kurzweil, Eric Drexler, etc.).

Des exagérations analogues peuvent se produire avec la BS, suite aux déclarations d’un scientifique comme Craig Venter qui se félicite d’avoir « créé la vie », suscitant ainsi la comparaison avec Dieu et un risque de rejet pour raisons religieuses ou simplement par réaction justifiée à une mégalomanie et une exagération inacceptables d’un point de vue éthique. Naturellement, ces critiques n’enlèvent rien à la qualité scientifique et technologique des travaux de ses équipes, mais s’adressent bien à la communication organisée à cette occasion, qui a pour objectif de lever des fonds privés, sans se préoccuper de l’impact négatif sur le domaine de recherche dans son ensemble.

On peut regretter que le débat sur les nanotechnologies, confié dans notre pays à la Commission nationale du débat public, n’ait pas dévolu de mission particulière à l’OPECST, organisme pourtant représentatif, de par sa composition, du peuple français. Plus généralement, on ne peut que déplorer la méthode choisie qui – en affichant ses prétentions médiatiques, et en refusant de cadrer les questions – a donné un appel d’air aux contestations les plus extrêmes et a ainsi suscité son propre échec. Ce constat orientera nos préconisations pour la BS.

On retrouve, dans d’autres pays, certaines caractéristiques de la situation française. Ainsi, analysant les limites de l’intervention des institutions de recherche dans les échanges qui se sont déroulés au Royaume-Uni sur les nanotechnologies, un rapport241 énumère les raisons suivantes :

– manque de temps et de ressources pour engager un dialogue avec le public. De nombreuses institutions de recherche ne l’ont pas considéré comme une priorité,

– manque d’expérience, de formation et de soutien pour engager un dialogue effectif avec le public,

– manque de compréhension et d’appréciation de l’impact et des enjeux de ces échanges.

En Italie, les scientifiques semblent confrontés à un contexte particulier qui rend difficile, sinon impossible, leur intervention dans un débat public. Le professeur Guiliano d’Agnolo, directeur de l’Institut supérieur de santé d’Italie, nous a ainsi expliqué que la science bénéficiait d’une crédibilité très faible auprès de l’opinion publique. Les Italiens, à juste titre selon ce professeur, ont été marqués par l’exemple des OGM où le rôle des scientifiques a été surtout perçu comme la légitimation de choix politiques déjà faits. Par ailleurs, Luca Marimi, professeur de droit à l’Université de Rome « la Sapienza » et membre du Conseil Italien de Bioéthique, a fait observer que les débats bioéthiques sont dominés par la polarisation entre laïcs et catholiques, le poids de l’Eglise catholique et du Vatican demeurant prédominant en Italie.

L’un des éléments à prendre en compte est celui du calendrier de la communication, de l’explication et de l’échange avec le public. Ma conviction est qu’il faut engager ces actions le plus tôt possible, même lorsque le domaine est émergent, comme pour la BS, pour établir d’emblée un climat de confiance et de transparence.

2.– LES ÉCHANGES AVEC LE PUBLIC SUR LA BIOLOGIE DE SYNTHÈSE : UN COMPARATIF

a) Le Royaume-Uni

A ce jour, le Royaume-Uni est le pays qui a conduit la démarche la plus aboutie pour les échanges avec le public sur la BS. En 2007, le BBSRC (Biotechnology and Biological Sciences Research Council) a constitué un groupe de travail pour examiner les problèmes soulevés par le domaine émergent de la BS. Ce groupe a publié un rapport en juin 2008 : « Synthetic Biology : social and ethical Challenge ».

En 2009, le BBSRC et l’EPSRC (Engineering and Physical Sciences Research Council) ont institué un comité de pilotage en vue d’explorer la possibilité d’organiser un échange public sur la BS et de conseiller les Research Councils sur les conditions dans lesquelles ils pourraient intervenir dans cet échange. C’est ainsi qu’en mars 2009, le comité de pilotage a fixé le but, les objectifs et les principes qui devraient guider ces manifestations. En ce qui concerne les objectifs, il s’agissait de permettre à un cercle d’habitants résidant au Royaume-Uni d’être clairement formés, informés et consultés, afin que les politiques à venir puissent refléter leurs visions, préoccupations et aspirations.

Quant aux principes, ils devaient tendre notamment à :

– veiller au pluralisme et à la diversité des participants au débat, experts comme citoyens, en mêlant chercheurs en sciences « dures » et SHS, représentants des Resarch Councils, des ONG, des organismes de régulation, décideurs politiques, acteurs économiques, responsables de start up et d’entreprises et citoyens,

– favoriser en parallèle la diversité des approches,

– s’assurer que le contenu et le format permettent à tous les participants d’exprimer pleinement leur opinion,

– développer chez les participants une aptitude leur permettant de prendre part à d’autres échanges dans l’avenir sur des domaines ou problèmes prioritaires qui les mériteraient,

– améliorer ce qui est considéré comme de « bonnes pratiques » et fournir ainsi une base à un échange plus large et de plus long terme,

– mettre en place de nouvelles méthodologies pour la compréhension et les régulations éventuelles qui doivent accompagner le développement technologique d’un domaine émergent, comportant encore beaucoup d’inconnues.

Sur la base de ces principes, le processus conçu par le BBSRC et l’EPSRC a comporté deux phases distinctes : des échanges téléphoniques approfondis avec les acteurs-clés, qui ont précédé des ateliers ouverts au public.

• Les échanges téléphoniques étaient destinés à comprendre les approches des acteurs-clés vis-à-vis de la BS sur le plan scientifique comme éthique et à nourrir le contenu des ateliers. Quarante et un entretiens téléphoniques ont été effectués, qui ont permis d’interroger les participants sur les points suivants :

– la science et la BS,

– les considérations sociales et éthiques entourant la science,

– les domaines d’application potentiels,

– toute leçon tirée de la controverse sur les OGM dans les produits alimentaires, qui a été très vive au Royaume-Uni.

Les acteurs concernés et le nombre d’entretiens téléphoniques menés avec eux étaient répartis comme suit :

Qualité des acteurs

Nombre d’entretiens téléphoniques

Scientifiques et ingénieurs

9

Spécialistes des sciences humaines

7

Religieux

2

Gouvernement/Autorités de régulation

5

Organismes de financement

3

Industrie/Assurance [curieux mélange]

5

ONG

6

Associations de consommateurs

4

Total

41

• Pour ce qui est du public, 160 personnes ont été recrutées pour participer à trois ateliers situés à Londres, dans le nord du Pays de Galles, à Newcastle et à Edimbourg. Dans chacune de ces villes, les ateliers ont accueilli 40 personnes. 152 ont assisté au premier atelier, 137 au deuxième et 129 à l’atelier final.

Les participants ont été recrutés de façon à refléter un large échantillon de la population. Deux sous-groupes ont été constitués pour tenir compte des positions sur l’environnement et des niveaux d’engagement. Les personnes concernées ont été dédommagées au titre de leur participation. Quant à l’organisation proprement dite des ateliers, la première session s’est déroulée le soir et a duré environ 2 heures et demie. Les deuxième et troisième sessions ont duré environ 5 heures et demie et ont eu lieu toute la journée, le week-end. Les sessions consacrées aux introductions et à l’acquisition des connaissances se sont déroulées en séance plénière mais, pour les sessions consacrées aux discussions, les participants ont été répartis en trois groupes.

Le premier atelier a examiné les approches de la science et de la technologie en général et a procédé à une introduction à la BS. Le deuxième atelier a abordé les approches de la BS propres aux différents acteurs, ainsi que les conditions selon lesquelles la BS est financée et régulée. Le troisième atelier a eu trait aux applications potentielles de la BS, à savoir :

– dans le domaine environnemental, avec un focus particulier sur la bio-remédiation,

– dans le domaine de l’énergie, avec un focus particulier sur les biocarburants,

– dans le domaine de l’alimentation et des récoltes, avec un focus particulier sur l’optimisation des récoltes,

– dans le domaine médical, l’artémisinine ayant été utilisée comme un premier exemple.

Parmi les conclusions du rapport du BBSRC sur le dialogue public, votre rapporteur souhaite souligner les points suivants :

• S’agissant de l’impact de la science et de la technologie sur la vie des gens, les thèmes récurrents ont été, entre autres :

« – Qui dirigeait le domaine ?

« – Quels ont été les gagnants et les perdants ?

« – L’absence de transparence en ce qui concerne les problèmes émergents. »

• Sur la BS :

Les participants ont jugé étonnant et même inimaginable que les principes de l’ingénierie puissent être appliqués à la biologie. Ils ont posé les principales questions suivantes sur la BS :

« – Quel est son but ?

« – Pourquoi souhaitez-vous en faire ?

« – Qu’allez-vous en tirer ?

« – Qu’est-ce que la BS va produire de nouveau ?

« – Comment savez-vous que vous avez raison ? »

Le rapport de la BBSRC résume dans le tableau ci-après les espoirs et les inquiétudes des participants au dialogue public.

Espoirs

Inquiétudes

Traiter les problèmes globaux tels que le changement climatique, les besoins énergétiques, les maladies et les pénuries alimentaires

Trop grande rapidité du rythme de développement, alors que les impacts à long terme sont encore inconnus

Contribuer à la création de richesses et à la compétitivité économique

Applications orientées par le profit plutôt que par les besoins du public

La recherche serait faite de façon ouverte et transparente

Les problèmes seraient dissimulés, du fait d’un focus sur la communication relative aux bénéfices

Le public serait consulté et impliqué dans son développement

Tout avis du public serait ignoré242

La science serait traitée avec respect

La nature est violée et nous créons un monde synthétique

La science est utilisée dans des limites claires et transparentes

Les problèmes-limites sont ignorés, la technologie étant utilisée dans des organismes plus complexes et sensibles

Source : BBSRC, Synthetic Biology dialogue, p. 36

L’un des enjeux de cette consultation, qui s’est déroulée dans un climat serein, sera la prise en compte ultérieure des recommandations par le gouvernement du Royaume-Uni et ses institutions de régulation et de recherche. Les mêmes modalités d’échange ont été utilisées au Royaume-Uni pour les nanotechnologies à usage médical en 2006.

b) Les États-Unis

A la différence du Royaume-Uni, c’est une autorité politique - le Président Obama - qui, aux États-Unis, a pris l’initiative en constituant une commission indépendante, laquelle a procédé à diverses auditions publiques de juillet jusqu’à l’automne de l’année 2010.

1° La science, une ressource partagée pour le Président Obama

Dans l’exposé des motifs de sa recommandation 16 sur l’éducation des citoyens, la Commission présidentielle américaine de bioéthique déclare expressément que la science et son contrôle n’appartiennent pas de façon exclusive aux experts, aux professionnels hautement qualifiés ni aux institutions. Elle considère que la science est une ressource partagée, affectant tous les citoyens et leur appartenant : il s'agit d'un patrimoine commun. C’est dans cet esprit que la Commission a établi les principes de délibération démocratique, de justice et d’équité.

Le rapport fait état à de multiples reprises de débat avec le public. Aux États-Unis, l’idée de débat s’exprime de façon à la fois plus pédagogique, argumentée et nuancée qu’en France. En effet, une agence a été chargée, au sein de l’Office of Science and Technology Policy (OSTP) placé auprès du Président des États-Unis, de la mise en application des recommandations de la Commission présidentielle américaine de bioéthique. Cette agence, l’Emergency Technologies Interagency Policy Coordination Committee (ETPIC), a publié un mémorandum en date du 11 mars 2011, dans lequel elle précise à toutes les agences de recherche et de régulation concernées les préconisations sur la gouvernance de la recherche et de l’innovation pour les technologies émergentes comme la BS.

Parmi ces principes figure bien la participation du public, mais ses modalités de mise en œuvre sont en-deçà de ce qui est clairement préconisé par la Commission présidentielle américaine de bioéthique. Le mémorandum prévoit seulement une information, avec l’intervention des acteurs concernés, et une participation des citoyens, cette dernière permettant de promouvoir la responsabilité, d’améliorer les décisions, d’accroître la confiance et de permettre une information globale alors qu’elle est aujourd’hui dispersée.

2° Les chercheurs comme médiateurs de la science

Toutefois, comme l’illustre l’étude de deux chercheurs – Mildred Cho et David Relman243 – certains aux États-Unis ont éprouvé la nécessité d’aller plus loin dans la participation du public aux choix de politiques scientifiques.

Mildred Cho et David Relman prennent une position ouvertement critique sur la manière dont la BS est communiquée au grand public : après avoir rendu compte de l’expérience réalisée par l’équipe de Craig Venter et analysé sa portée, ils soulignent que ce travail repose sur une dynamique qui pourrait déboucher dans l’avenir sur des risques nouveaux et accrus. En outre, selon eux, le sujet souffre de l’utilisation de termes trompeurs et de concepts qui sont connotés sur le plan éthique. C’est pourquoi ils insistent sur la nécessité de la communication sur les risques et les bénéfices et une éducation du public aux enjeux de la science.

Ils estiment, en effet, que l’événement créé par l’expérience de Craig Venter offre une opportunité à la communauté scientifique de s’engager dans un échange avec le public et d’éduquer ses propres membres sur les enjeux et responsabilités liés aux partenariats entre chercheurs et industriels dans un domaine aussi évolutif et complexe que la BS.

Dans cette perspective, Mildred Cho et David Relman soulignent que les risques et les bénéfices doivent faire l’objet d’une évaluation élargie, concernant non seulement la sécurité et la sûreté, mais aussi les risques et bénéfices potentiels sur les plans environnemental, économique et social. L’identification et l’approche d’une notion élargie de risques et de bénéfices exigent une expertise allant au-delà du cercle des spécialistes de génomique et doivent inclure, par exemple, des spécialistes de l’environnement et des sciences humaines et sociales.

Comme cela a déjà été dit, ils préconisent que la terminologie utilisée évite toute emphase ou surestimation de la portée réelle des avancées accomplies en termes de recherche fondamentale, technologique et partenariale avec l'industrie. De ce point de vue, les termes « créer la vie », « programmation de la vie », « vie artificielle » ne sont pas souhaitables car ils ne correspondent pas à la réalité et suscitent tous les fantasmes, à juste titre.

En conclusion de leur étude, Mildred Cho et David Relman font valoir que c'est bien par l’échange avec le public que les scientifiques gagneront toute leur légitimité auprès de lui comme auprès des médiateurs. Pour eux, la balle est dans le camp des chercheurs qui doivent s'engager dans l’interaction avec le public de la façon la plus large, la plus diversifiée et la plus transparente possible.

On peut opposer à la lecture de Mildred Cho et David Relman le fait qu’ils surchargent peut-être la responsabilité des scientifiques dans l’image qui est donnée à leur discipline. Les chercheurs n’étant pas les seuls médiateurs de la science, il est important de ne pas oublier le rôle que peuvent jouer dans sa communication (positive ou négative) les médias, les ONG, les médiateurs culturels et, plus insidieusement, les « parties prenantes » dont les intérêts peuvent être mis à mal par cette nouvelle discipline-frontière.

c) La France

Aujourd’hui, les grandes orientations de la recherche en France sont émises, in fine, après propositions des organismes et de l’ANR, par le ministère de la Recherche et de l’enseignement supérieur, sans débat de fond avec la représentation politique et sans information sur le sens et les objectifs des orientations prises. Il serait également important d’y associer les citoyens et associations lorsque leurs avis sont pertinents et légitimes, comme pour les associations de malades ou de consommateurs.

En France, l’OPECST, par sa représentativité (même si les deux Assemblées ne reproduisent pas la diversité de la population française sur le plan du sexe – 19 % de femmes contre 51 % dans la population –, de la catégorie socio-professionnelle – sous-représentation des classes sociales modestes, du secteur privé, des scientifiques –, de l’origine culturelle – aucun représentant de la « diversité » qui fait la richesse de notre pays...), aurait un rôle particulier à jouer dans ce dialogue entre les chercheurs et le public, aux côtés des Académies (cf. le rôle de la Royal Society au Royaume-Uni) et d’organismes comme Universcience et des CCSTI (Centres de culture scientifique, technique et industrielle) en régions, dont le positionnement et l’animation régionale doivent être confortés.

d) L’Europe

Le rapport rendu par le Groupe d’éthique européen sur la BS en 2009 pousse plus loin cette démarche de participation de la société et préconise d’unifier le cadre réglementaire aujourd’hui fragmenté de la biologie de synthèse, en le complétant d’un inventaire des différentes parties prenantes et de la mention des responsabilités respectives de celles-ci.

La difficulté réside dans l’équilibre à préserver entre les différents participants, de façon à éviter des prises de pouvoir ou des sur-médiatisations de certaines parties prenantes par rapport à d’autres. Par ailleurs, si la pluralité de l’expression scientifique s’impose, ainsi que l’évaluation de son expertise scientifique, l’évaluation des ONG, SHS et éthiciens, doit également être faite avec la même rigueur.

B.– LES ÉCHANGES AVEC LE PUBLIC : DES DIFFÉRENCES DE CULTURE

L’organisation d’échanges sur la BS se met en place différemment selon les pays.

1.– LA VARIÉTÉ DES DÉMARCHES NATIONALES

Le Royaume-Uni, comme vu précédemment, a organisé de façon décentralisée et dans un climat serein une consultation des citoyens donnant lieu à des recommandations.

L’Allemagne a mandaté l’homologue de l’OPECST (à la différence toutefois de l’Office français, l’organisme allemand est constitué d’experts, avec seulement deux parlementaires à son conseil d’administration) pour faire le lien entre le Parlement (présentation de rapports annuels avec préconisations) et la société.

L’Italie a mis en place un comité de bioéthique, dans un contexte marqué par les enjeux religieux.

La France, enfin, par la voix du ministère de l’Enseignement supérieur et de la recherche, dans le rapport sur la Stratégie nationale de recherche et d’innovation (SNRI) publié en 2011 sur la BS, préconise dans ses recommandations la promotion d’un « véritable dialogue entre science et société, impliquant la société dans les choix de programmation ».

Le rapport de la SNRI utilise le terme de dialogue entre science et société au lieu de débat public. L’utilisation du mot « dialogue » se fonde sur les expériences passées, définies comme des débats et considérées comme insatisfaisantes, pour les OGM et les nanotechnologies244. Il exprime la volonté de « créer », en amont, « les conditions pour que les avancées de la BS s’opèrent résolument dans un climat de confiance citoyenne et d’innovation, manifestement responsable, en phase avec les grands enjeux sociétaux que sont la santé, le climat, la biodiversité et la qualité de vie. »

Le rapport de la Stratégie nationale de recherche et d’innovation précise également les objectifs du dialogue qu’il souhaite voir s’instaurer : informer le public et motiver ceux qu’il appelle des personnes-relais245, d’une part, organiser le dialogue et l’intégrer au processus de programmation, d’autre part.

En ce qui concerne l’information du public, le rapport de la SNRI plaide en faveur d’une transparence renforcée de la recherche, condition de la confiance citoyenne. Il préconise qu’une information validée, rigoureuse et compréhensible sur la BS soit accessible dès que possible. A la suite de ce rapport, un portail sur la BS a été mis en ligne sur le site du ministère de l’Enseignement supérieur et de la recherche. Plus original, des « ambassadeurs », en cours d’identification, auront pour mission la sensibilisation de structures intervenant auprès des étudiants et collégiens.

Pour faciliter le dialogue préconisé, les auteurs du rapport proposent de mettre en place des espaces de dialogue où les publics concernés, les ONG et les journalistes, les enseignants et les acteurs du domaine pourront échanger sur les bénéfices de la BS et leurs éventuelles inquiétudes concernant ses développements. Il demande aux agences de financement et aux Alliances d’impliquer les représentants de la société dans leur processus de programmation. Le rapport délimite toutefois le champ d’action de ce dialogue, pour éviter d’englober sous le vocable de « biologie de synthèse » les activités qui lui préexistaient.

Le rapport de la SNRI considère, comme votre rapporteur, que l’OPECST devrait jouer davantage son rôle de représentation de la société, par le canal parlementaire, et pourrait ainsi coordonner les consultations nécessaires pour orienter les priorités publiques de recherche. Cette préconisation correspond d’ailleurs à une demande des parlementaires de l’OPECST qui, par la voix de leur Premier vice-président Claude Birraux, revendiquent la confirmation et l’amplification de leur rôle d’interface entre la communauté scientifique et la société civile.

2.– LE CALENDRIER DES ÉCHANGES

Dans l’approche consensuelle sur la nécessité des échanges, reste la difficulté de savoir si, à ce stade de développement de la BS, l’idée d’organiser un dialogue avec le public ne serait pas prématurée ou si, au contraire, le caractère non « stabilisé » de ce nouveau domaine ne plaiderait pas en faveur d’un échange en amont, pour une fois, permettant d’anticiper des malentendus et des inquiétudes potentielles.

a) La tenue d’un dialogue avec le public serait prématurée

Compte tenu de la définition encore multiple, voire divergente, de la BS, de son statut, de ses objectifs et même de sa crédibilité, l’échange avec le public risque, selon certains scientifiques, chercheurs dans les sciences dures comme dans les SHS, d’être sans objet. C’est l’une des raisons pour lesquelles le sociologue Pierre Benoît-Joly, directeur de recherche à l’INRA, a estimé qu’il n’existait pas de réponse évidente à la question posée par le ministère de la Recherche sur l’opportunité d’organiser un tel échange sur la BS246.

Les partisans de ce point de vue s’appuient également sur l’expérience vécue lors de la consultation publique au Royaume-Uni. En effet, alors que les participants, compte tenu du calendrier, ne pouvaient avoir connaissance de l’expérience annoncée par Craig Venter en mai 2010247, ils ont déclaré être inquiets devant certains développements possibles de la BS. Ils ont ainsi exprimé leurs craintes sur le concept de « l’homme augmenté » et de la conception d’organismes vivants complexes de novo (recherche sur les proto-cellules notamment). Il apparaîtrait donc que dans des étapes très en amont de la recherche, les hypothèses inquiétantes ou de science-fiction risqueraient de dominer par rapport à des applications plus réalistes.

b) Le caractère émergent comme opportunité pour le dialogue

Les consultations intervenues au Royaume-Uni tendent à démontrer que des discussions sereines, décentralisées, impliquant experts et citoyens, peuvent se tenir sur un sujet sensible, très en amont. Comme le suggère, aux Etats-Unis, l’étude précitée des chercheurs américains Mildred Cho et David Relman, ce type d’échanges est de nature à restaurer la confiance des citoyens dans la science et la communauté scientifique, cette dernière, en retour, devant répondre avec les politiques aux espoirs, inquiétudes et recommandations exprimés à l’occasion et à l’issue du débat public.

En fait, que l’information du public soit faite en amont ou en aval, le critère le plus important pour que cet échange soit à la fois dépassionné et constructif est la formation préalable des citoyens qui y participent.

Plusieurs scientifiques rencontrés ont jugé nécessaire que le public ait une formation minimale, afin d’éviter que l’échange ne se transforme en une juxtaposition de postures idéologiques, sans aucun dialogue. Le caractère complexe et évolutif de la BS justifie d’autant plus cette formation de base.

1° L’exemple du Royaume-Uni

Cette préoccupation a d’ailleurs été prise en compte dans les consultations organisées au Royaume-Uni. Et, si celles-ci se sont déroulées dans un climat serein, c’est aussi parce que les participants avaient préalablement suivi des séances de formation à la science, à l’histoire des sciences, à la technologie et à la BS, qui ont contribué à une évaluation équilibrée des risques et des bénéfices. C’est aussi parce que le public a été sélectionné parmi les citoyens et que l’échange n’était pas ouvert à n’importe quelle personne qui souhaitait se montrer. (Les participants étaient dédommagés et les médias exclus des ateliers ; ce n’est donc pas du spectacle mais un réel travail que les citoyens sélectionnés prennent forcément à cœur.)

2° L’exemple de l’Allemagne

A contrario, l’absence de formation du public ne permet pas un dialogue contradictoire et constructif, et peut même être source de malentendus et d’inquiétudes qui auraient pu être évités.

Un exemple est l’expérience tentée en Allemagne par les représentants du TAB248, dans un débat sur la BS organisé à Karlsruhe. Les organisateurs avaient choisi de tenir ce débat ouvert à tous dans un lieu situé dans un centre commercial et habituellement dévolu à des manifestations artistiques. Ils voulaient de cette façon accueillir un public plus nombreux, plus diversifié et plus jeune. Les participants au débat étaient donc des étudiants de l’Institut de Technologie de Karlsruhe, des gens de théâtre et la clientèle du centre commercial. Or ce débat a exprimé, selon les organisateurs, le scepticisme répandu en Allemagne à l’égard du génie génétique, sans permettre une discussion spécifique sur la BS. Les représentants du TAB ont considéré que cet échec, du moins en était-ce un à leurs yeux, était dû à la difficulté de traiter d’un sujet mal délimité qui, mal compris du public, ouvre le champ à d’autres débats corollaires. C’est pourquoi ils ont estimé que, avant de procéder à des sondages ou à des débats analogues à celui de Karlsruhe, il était nécessaire de fournir des informations à un public ciblé, citant l’exemple de leurs collègues néerlandais qui ont organisé des réunions avec les jeunes militants des petits partis.

Conclusion

A l’occasion d’un atelier de travail sur la BS organisé à Grenoble dans le cadre de l’élaboration de ce rapport, l’ensemble des participants s’est déclaré favorable à la coordination et l’organisation d’un échange avec le public en France par une institution indépendante et représentative des citoyens, à l’image des Research Councils britanniques. Ils ont convergé sur l’OPECST, avec l’aide d’experts d’organismes de recherche et d’universités. Quant à la méthode, c’est ma conviction qu’une formation préalable minimum et contradictoire sur le sujet débattu est la condition du bon déroulement d’un échange avec le public, surtout quand il s’agit d’un sujet aussi complexe que la BS. C’est ce que confirment les exemples les plus réussis en matière de débat public.

*

* *

CONCLUSION

Science ou technologie ? Nouveau domaine ou prolongement de la génétique moléculaire, de la génomique, de la protéomique, de la biologie systémique ? Nous avons vu la diversité des points de vue, entre les ingénieurs et les biologistes, entre les biologistes eux-mêmes. Nous avons entendu les références, souvent critiques voire alarmistes, faites aux technosciences, aux convergences NBIC, au sujet de la BS et de ses évolutions pressenties, parfois proches de la science-fiction. Nous avons aussi relu les déclarations provocatrices de Craig Venter à l’occasion de son annonce en 2010 de la reconstitution d’une cellule artificielle et nous pensons qu’elles contribuent aux peurs liées au développement de domaines émergents comme la BS tout en étant surtout destinées à lever des fonds privés. Les nombreuses auditions tout comme la lecture de communications, revues, documents d’expertise m’amènent à valider l’affirmation faite par Jay Keasling, dont le mérite est d’être brève, synthétique et rassembleuse : « La biologie de synthèse est une science fondamentale centrée sur l’application ». Cette définition montre bien le lien très fort entre science et technologie qui caractérise la BS, que les Canadiens ont d’ailleurs choisi d’appeler « ingénierie de la biologie », appellation considérée comme moins sujette à controverses.

Le potentiel des applications de la BS mérite d’être considéré car il concerne tous les enjeux auquel notre planète et ses habitants sont aujourd’hui confrontés : des bio-carburants moins consommateurs d’énergie et moins émetteurs de gaz à effet de serre, de nouvelles thérapies, plus ciblées, plus efficaces et comportant moins d’effets secondaires, la lutte contre les pandémies, le développement de technologies de bio-remédiation utiles à la dépollution, et plus généralement la recherche fondamentale en biologie, la santé, l’alimentation, l’environnement, la chimie verte, les biomatériaux, l’énergie, etc. Des start up se sont déjà créées et les grands groupes pétroliers et pharmaceutiques s’intéressent de près aux applications potentielles de la BS. Malgré des différences d’appréciation notoires sur les délais d’accès au marché des recherches menées actuellement en laboratoire, l’impact de ces développements sur l’industrie et les secteurs précités n’est pas contesté. Certains évoquent même une « révolution industrielle ».

D’ores et déjà la bioéconomie (évaluée à 12 % du PIB des États-Unis en 2011 et 25 % à l’horizon 2030) est une source de créations d’applications et d’emplois tout à fait importante. L’état de maturation du transfert vers l’industrie ne nous paraît pas encore très avancé et les risques associés doivent être appréciés au regard de ce niveau d’avancement. Ce rapport s’inscrit donc en anticipation de débats à venir et souhaite contribuer à la sérénité et à l’ouverture sociale nécessaires à des domaines aussi complexes et évolutifs que la BS.

Après avoir tenté d’établir une définition de la BS et de ses applications, ce rapport dresse un état de l’art le plus exhaustif possible au niveau mondial des recherches, formations et applications en cours, qui nous a permis de constater l’avance nette des États-Unis pour la recherche et le transfert vers l’industrie, l’intérêt marqué de la Chine qui commence à s’engager et, sans surprise, une recherche européenne de qualité mais très dispersée et insuffisamment dotée financièrement, avec un déficit global de formations interdisciplinaires et d’organisation de transfert vers l’industrie, notamment en France. Pourtant notre pays a tous les atouts et expertises nécessaires à la maîtrise et au développement de la BS, que ce soit pour la recherche fondamentale ou appliquée, ou l’industrialisation.

Une analyse de l’adéquation de la politique de propriété intellectuelle et industrielle aux spécificités de la BS démontre les risques d’une politique agressive de dépôts de brevets (cf. les demandes de Craig Venter), qui risquerait, en cas de réponse positive, de porter atteinte au développement de la recherche publique et avantagerait les grands groupes au détriment des start up et des PMI-PME et ETI (Entreprises de Taille Intermédiaire) innovantes. Mais la transposition de l’open source du secteur logiciel au domaine du vivant avec l’open access biology ou le BIOS (Biological Open Source) a aussi ses limites puisqu’elle ne protège pas les développements nés des inventions et ne permet pas la création d’entreprises donc les applications et les emplois. Une voie intéressante pour la BS, comme pour le vivant en général, encore trop peu pratiquée, est celle suivie par des chercheurs ou des entreprises qui, dès 1999, se sont regroupées pour rendre publiques leurs données sur le génome humain ou, plus généralement, les données relatives aux biosciences. Cette démarche présente un double intérêt : elle évite que d’autres entreprises ne déposent des brevets à leur profit sur ces données et elle permet à la recherche de les utiliser pour poursuivre ses développements.

Pour que les avancées de la BS, qui suscitent des inquiétudes parfois légitimes, se fassent dans un climat serein, plusieurs conditions paraissent nécessaires. En premier lieu, la transparence des recherches menées doit être irréprochable, et les programmes de recherche en lien direct avec les applications industrielles devraient intégrer, en amont, une réflexion avec les SHS sur la finalité des recherches menées et sur l’impact des produits sur la santé, l’environnement et l’organisation sociale.

Pour améliorer le dialogue avec la société, et comme la SNRI le préconise, « une information validée, rigoureuse et compréhensible devra être accessible dès que possible » et diffusée très largement, en s’appuyant notamment sur les CCSTI dont le rôle en région serait renforcé, avec les moyens nécessaires à la diffusion de cette information, sans en cacher les risques potentiels, auprès du public ainsi que dans les collèges, lycées, universités.

A l’image de ce qui s’est fait au Royaume-Uni, des lieux d’échanges décentralisés sur les domaines nouveaux, comme la BS, doivent être mis en place, avec la participation de scientifiques de diverses disciplines, dont les SHS, mais aussi de journalistes, d’associations, d’enseignants, de politiques préalablement formés aux enjeux, contenus des recherches et applications en cours. Ces échanges porteront sur les avancées de la recherche, des transferts vers l’industrie ainsi que sur les éventuelles inquiétudes qu’elles peuvent susciter. L’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST), par sa représentativité, pourrait en être le coordinateur et mener ainsi les consultations susceptibles d’orienter les priorités publiques de la recherche applicative, des transferts de technologie vers l’industrie. En intervenant de cette façon, avant qu’une crise de confiance ne se fasse jour, on peut espérer retrouver le climat de confiance indispensable entre les chercheurs et la société, au service de l’intérêt général et d’une histoire commune et partagée.

Le temps ne serait-il pas venu de substituer aux techniques et méthodes de débat sociétal, une véritable culture de la démocratie participative en matière scientifique ?

L’enjeu est ambitieux, mais François Jacob l’avait anticipé quand il écrivait, en 1997, dans « La souris, la mouche et l'homme » : « Nous sommes un redoutable mélange d'acides nucléiques et de souvenirs, de désirs et de protéines. Le siècle qui se termine [le 20e] s'est beaucoup occupé d'acides nucléiques et de protéines. Le suivant [le nôtre] va se concentrer sur les souvenirs et les désirs. Saura-t-il résoudre de telles questions ? ». Les recommandations qui vont suivre n’ont pas l’ambition de répondre à des questions aussi fondamentales, mais de proposer quelques voies pour y parvenir.

PRÉAMBULE AUX RECOMMANDATIONS

Cinq idées-forces me paraissent essentielles à mettre en exergue, en préambule aux recommandations précisées ensuite et en synthèse de ce rapport qui a essayé de faire un point le plus précis possible sur l’état de l’art de la BS et les questions qu’elle suscite.

1. Son apport essentiel pour la recherche fondamentale

La BS, nous l’avons vu, mérite des investigations et investissements à la hauteur des conséquences pressenties pour ses applications industrielles, sanitaires, environnementales. Mais elle constitue aussi et certains diront surtout une approche très novatrice pour la recherche fondamentale en biologie. Elle permet d’approcher la complexité des réseaux au-delà de ce que la biologie moléculaire peut faire aujourd’hui. De ce point de vue, elle peut être considérée comme une approche de rupture pour la recherche fondamentale. Investir dans la BS est donc essentiel pour mieux comprendre le fonctionnement du vivant.

2. Le lien constant entre recherche fondamentale et appliquée

Une autre caractéristique de la BS est qu’il est impossible d’aborder ses applications sans revenir aux problèmes fondamentaux. Faire de l’artémésinine ou de l’hydrocortisone dans une levure ne peut pas se réduire à l’adjonction d’une voie de synthèse dans cette levure. Il faut aussi contrôler un ensemble de circuits internes qui détournent cette voie de synthèse.

3. L’exigence de l’interdisciplinarité

L’interdisciplinarité est souvent évoquée comme un moyen de générer des innovations aux interfaces des disciplines. Dans le cas de la BS, c’est une véritable exigence qui tient à la nécessité de modéliser, de simuler et de pratiquer un aller-retour constant entre l’ordinateur et la paillasse humide. Il s’agit d’une véritable intégration des compétences dans un même processus. La BS nécessite donc une nouvelle approche de la formation mais aussi de l’organisation de la recherche elle-même et, plus tard, de l’organisation industrielle.

Cette exigence de l’interdisciplinarité est d’autant plus forte que Mme Anne Fagot-Largeault a constaté en France de vives réticences de la part des scientifiques « durs » à faire appel aux SHS. Selon elle, ces réticences sont partiellement liées à la confusion des SHS avec des groupes, tels que les anti-OGM ou bien PMO (à Grenoble) avec lesquels il est difficile de discuter.

4. Une ambition nouvelle pour le dialogue science-société

L’émergence de la BS pourrait être l’occasion, en France, de mettre en place un certain nombre d’initiatives concrètes permettant un dialogue public apaisé et constructif, à l’image de ce qui s’est fait au Royaume-Uni. Au-delà, elle pourrait faire l’objet d’une ambition nouvelle, peut être utopique, mais qui mérite d’être tentée : celle d’une véritable culture de démocratie participative permettant à la société et à la science de « co-évoluer » et de s’enrichir mutuellement dans un processus commun.

5. Une expertise nationale à pousser, sous peine d’être distancé par les autres pays

Comparé à d’autres pays comme les États-Unis, le Canada, l’Allemagne, la Suisse, la Chine et quelques autres, le retard de la France est préoccupant, alors que nous disposons de laboratoires de biologie moléculaire exceptionnels, d’une école de mathématiques et d’informatique de très haut niveau et de physiciens toujours à la recherche de nouveaux champs de découvertes. Les programme des Investissements d’avenir et, singulièrement, le fleuron que représente Saclay, n’intègre (si l’on exclut Jouy-en-Josas) aucune véritable recherche, fondamentale comme appliquée, en biologie de synthèse. Comme l’écrivait de façon provocante le neurobiologiste et neurologue Hervé Chneiweiss récemment : « La France peut-elle manquer le train de la bioéconomie ? »249.

RECOMMANDATIONS

- Identifier les biotechnologies et, singulièrement, la biologie de synthèse, comme stratégiques pour la science - recherche fondamentale comme appliquée - la formation, la technologie, les applications industrielles et de services ;

- Prévoir des financements publics pour la formation et la recherche dans le secteur de la biologie de synthèse, en lien avec la biologie systémique, en la désignant expressément dans le programme des Investissements d’avenir comme dans les programmes ANR, des universités et organismes de recherche ;

- Concentrer les moyens et organiser des coopérations de recherche en réseau à partir de quelques plates-formes « locomotives » allant de la recherche fondamentale à la recherche appliquée, dans une démarche intégrée : Paris-Ile-de-France (Genopole d’Evry notamment), Toulouse, Bordeaux, Grenoble, Strasbourg ;

- Décloisonner les formations initiales nécessaires au développement de la biologie - systémique et de synthèse - et favoriser les formations interdisciplinaires. Connecter ces formations aux plates-formes : biologie, chimie, biochimie, mathématiques, informatique mais aussi sciences humaines et sociales pour les questions liées à la gouvernance, à l’éthique, à la propriété industrielle, au modèle économique, à l’impact sanitaire, environnemental et sociétal ;

- Favoriser, dans l’initiative de la Commission européenne « Horizon 2020 », en y intégrant explicitement la biologie de synthèse, la mise en réseau européenne et en développant les programmes Eranet ;

- Instituer un congrès annuel de la biologie de synthèse en France, à visée internationale, pour favoriser les échanges et promouvoir les bonnes pratiques, notamment sur les différents plans où se posent des questionnements éthiques.

- Accompagner la mise en place d’une véritable filière, allant de la recherche fondamentale aux applications industrielles, en passant par la formation, la recherche partenariale, la valorisation, les pépinières de start up, jusqu’à la production de lignes-pilotes pour l’industrie ;

- Anticiper et définir les secteurs d’applications à soutenir en priorité pour la santé, l’environnement, l’énergie, la chimie verte, en fonction de nos expertises spécifiques ;

- S’assurer d’un cadre juridique équilibré qui préserve l’accès public aux connaissances portant sur le vivant tout en permettant la brevetabilité des inventions créatrices d’emplois, en veillant à son harmonisation aux niveaux européen et international ; favoriser dans ce cadre les initiatives coopératives des chercheurs et/ou entreprises mettant en commun des données sur le vivant et constituant un répertoire public ouvert à tous ;

- Réexaminer, dans cet esprit, les accords ADPIC (Accords sur les aspects des droits de propriété intellectuelle qui touchent au commerce), pour réfléchir à la possibilité d’un régime spécifique, adapté aux inventions du secteur des biotechnologies ;

- Remédier aux incohérences de la directive 98/44 du 6 juillet 1998 sur le régime juridique des innovations biotechnologiques, pour prévenir les dérives liées à une pratique abusive de la brevetabilité et clarifier le régime de l’open access biology adapté de l’open source ;

- Favoriser la veille européenne et motiver les vocations scientifiques des jeunes, avec un registre européen de briques du vivant et un « iGEM » européen ; lui adjoindre une compétence en biologie systémique afin que la complexité du vivant soit mieux perçue et que les organismes ne soient pas considérés comme un simple jeu de construction.

- Introduire, dans les programmes de recherche appliquée et partenariale de la BS, des actions de recherche et de formation liées à la biotoxicité, à l’écotoxicité, à la biosécurité, à l’impact sociétal en impliquant les SHS ;

- Veiller à l’application de la réglementation existante (OGM, nanotechnologies, chimie...) pour la recherche fondamentale et appliquée et contrôler son adéquation aux avancées de la biologie de synthèse.

Dans cet esprit, intégrer les risques naturels dans le champ d’application de l’initiative de la Commission européenne « Horizon 2020 » ;

- Garantir la transparence de cette analyse des risques et du résultat des contrôles, en les mettant en ligne, en prévoyant, par exemple, la publication du rapport de la Délégation générale pour l’Armement sur les options en bio-sûreté ;

- Promouvoir la création d’un cadre international pour l’évaluation et la régulation des risques identifiés, justifié par le caractère transfrontières de la BS et adapté à sa spécificité : domaine émergent, de rupture et très évolutif ;

- Œuvrer pour la mise en place d’une instance permanente au niveau mondial, dans l’esprit du GIEC, pour réfléchir aux questions de normalisation, biosécurité et bio-sûreté, préalablement à toute mise sur le marché de produits issus de la biologie de synthèse ;

- Procéder, tous les trois ans, dans le cadre d’une mission d’évaluation de l’OPECST, à l’examen de ces mécanismes d’analyse et de maîtrise des risques, en vue éventuellement de recommander des adaptations de la réglementation. Cette mission d’évaluation récurrente de l’OPECST devrait être inscrite dans la loi pour garantir sa régularité.

- Organiser des débats publics en concertation avec l’ensemble des parties concernées (scientifiques de la BS et des SHS, politiques, instituts de recherche, Europe, ONG, entreprises, syndicats...), ainsi qu’à intervalles réguliers, des conférences des citoyens, pour tenir compte des évolutions de la BS ;

- Encourager et développer dès le plus jeune âge l’intérêt pour la science et la technologie, préalable à des échanges sereins sur des sujets aussi complexes que la biologie de synthèse, en mettant en place une pédagogie attractive et en cessant de considérer les sciences uniquement comme un vecteur de sélection ;

- Raviver la curiosité et la crédibilité de l’approche scientifique en se fondant sur l’expertise des Centres de culture scientifique, technique et industrielle (CCSTI) et d’Universcience, en généralisant les initiatives comme « La main à la pâte », « Maths à modeler », « Les p’tits débrouillards » ;

- Assurer un enseignement scientifique dès le plus jeune âge, en rétablissant les heures d’enseignement en mathématiques et en sciences, réduites dans l’enseignement primaire comme dans les collèges et lycées ;

- Impliquer les médias dans cette démarche, en prévoyant, comme le fait la Royal Society au Royaume-Uni, une formation régulière sur l’état de l’art de la recherche et les enjeux posés par le développement de la biologie de synthèse, et le développement d’émissions pluralistes sur les sciences émergentes comme la BS ;

- Définir, en tenant compte du résultat de ces consultations et débats, un plan de développement à 5, 10, 15 ans, en toute transparence, en confiant à l’OPECST, dans le cadre de la mission d’évaluation mentionnée précédemment, la charge d’apprécier les conditions de sa mise en œuvre et de recommander éventuellement certaines évolutions ;

- Généraliser ce procédé à l’ensemble des disciplines scientifiques et technologiques émergentes, où l’on peut percevoir l’ébauche d’une inquiétude du public, afin que celle-ci soit prise en compte dans la transparence et le respect des citoyens ;

- Réaliser, dans le cadre de la mission d’évaluation de l’OPECST précitée, ainsi qu’à l’occasion d’auditions publiques intermédiaires, un suivi des progrès de la sensibilisation du public aux enjeux de la BS.

EXAMEN DU RAPPORT

(8 février 2012)

Mme Geneviève Fioraso, députée, rapporteure.- À travers les 160 auditions que j’ai menées en France et à l’étranger, j’ai pu prendre la mesure de la complexité des enjeux soulevés par la biologie de synthèse (BS), domaine scientifique et technologique émergent.

Avant que les opinions ne se cristallisent, il m’apparaît important que l’OPECST s’en saisisse suffisamment en amont, d’autant que la BS est au cœur des développements de ce que l’on appelle la bio-économie, c’est-à-dire l’économie liée aux sciences du vivant. Ce secteur représente aujourd’hui 12 % du PIB des États-Unis et 25 % dans 15 ans, tandis que la chimie et l’industrie pharmaceutique sont les premiers postes des exportations françaises.

Bien que la définition de la BS ne soit toujours pas stabilisée, elle constitue une rupture dans la recherche fondamentale et appliquée, du fait de ses applications industrielles, sociétales, environnementales avérées ou pressenties.

L’acceptabilité des développements de la BS dépendra toutefois de la qualité du dialogue entre la communauté scientifique, les responsables politiques et les citoyens. Je partage le point de vue de la Commission présidentielle américaine de bioéthique, constituée en mai 2010 par le Président Obama à la suite des déclarations de Craig Venter, selon laquelle « la science est une ressource partagée appartenant à tous les citoyens et les concernant tous ». Il s’agit ainsi de prévenir les débats de posture qui ont eu lieu sur les OGM et les nanotechnologies. Pour rétablir cette confiance entre les chercheurs, les responsables, les politiques et les citoyens, je ferai quelques propositions issues du dialogue citoyen qui a été organisé sur la BS au Royaume-Uni en 2009-2010.

L’acceptabilité de la BS dépendra aussi des modèles économiques proposés, d’où l’importance que j’accorde dans le rapport aux questions de la propriété intellectuelle et industrielle.

Enfin, compte tenu des promesses de la BS, je ferai le point sur le positionnement de notre pays en termes de formation, de recherche et de transferts de technologies.

Auparavant, je vous propose d’essayer de déterminer les spécificités de la BS et de ses applications.

J’aborderai ensuite les enjeux liés à ses développements, et conclurai par quelques recommandations.

Les spécificités de la BS apparaissent à travers ses objectifs et ses méthodes.

Tout en introduisant une évolution comparable à celle que la chimie de synthèse a suscitée pour la chimie, la BS est, comme tout domaine émergent, caractérisée par des contours flous et des définitions multiples, comme le déclare notamment le Groupe européen d’éthique  : « Il n’est pas possible de trouver une définition univoque ».

Cependant, la définition la plus consensuelle semble être celle du consortium européen de recherche Synbiology : « La BS est l’ingénierie de composants et de systèmes biologiques qui n’existent pas dans la nature et la réingénierie d’éléments existants ; elle porte sur le design intentionnel de systèmes biologiques artificiels, plutôt que sur la compréhension de la biologie naturelle. »

Variant selon les chercheurs et leur discipline d’origine, les objectifs assignés à la BS partagent l’ambition commune de proposer une approche du vivant inédite par rapport à celle de la biologie moléculaire ou de la biologie des systèmes.

On distingue quatre approches de la BS :

– la démarche dite top down (du haut vers le bas), qui vise à transformer des organismes vivants, en enlevant, en remplaçant ou en ajoutant des parties spécifiques. Les recherches emblématiques sur le génome minimal entreprises par Craig Venter ont visé à réduire le génome d’une bactérie à sa taille minimale en se limitant aux gènes indispensables à sa survie (évalués à 200 environ) ;

– la démarche dite bottom up (du bas vers le haut) : elle tend à permettre aux biologistes de synthèse d’assembler, à la manière d’un lego ou d’un meccano, des bio-briques c’est-à-dire des composants non issus du vivant.

Il en est ainsi, par exemple, des cellules chimiques, appelées chells, pour « chemical cells », qui imitent le comportement des cellules vivantes.

L’approche bottom up s’est rendue célèbre par le registre du MIT, qui est un répertoire d’environ 12 000 briques, issues du concours annuel iGEM, qui rassemble des étudiants du monde entier pour réaliser des constructions nouvelles en BS à partir d’un kit.

Cette approche est très représentative du courant de la BS dirigé par les ingénieurs aux États-Unis, mais aussi en Europe.

– La troisième approche concerne les travaux sur les proto-cellules, qui sont une forme cellulaire primitive ou artificielle capable d’autoréplication. Il s’agit de reconstituer des cellules vivantes à partir d’éléments du vivant. La recherche fondamentale dans ce domaine a été initiée aux États-Unis, et la recherche finalisée concernerait le ciblage de cellules cancéreuses par exemple. Pour Jean Weissenbach, directeur du Genoscope à Evry, ceux qui prétendraient parvenir ainsi à reconstituer la vie à partir de la matière inerte font de la science-fiction.

– La quatrième approche se fonde sur l’expansion du code génétique. Steven Brenner et son équipe de l’Université de Floride sont parvenus à ajouter deux bases azotées artificielles à celles composant les nucléotides de l’ADN (A=Adénine ; G=Guanine ; C=Cytosine et T=Thymine).

De plus, en juin 2011, Philippe Marlière, généticien, a réussi, avec des chercheurs belges et allemands, à contraindre des bactéries Escherichia coli à remplacer une des bases azotée de leur ADN par une molécule toxique, le « 5-chlorure d’uracile ».

Quant aux méthodes de la BS, elles illustrent parfaitement le propos de Jay Keasling, professeur à Berkeley – selon lequel la biologie de synthèse serait « une science fondamentale centrée sur l’application ».

En effet, les biologistes de synthèse recourent à des technologies variées qui leur permettent d’exploiter dans les meilleures conditions les potentialités offertes par le vivant.

Parmi ces technologies figurent les outils utilisés par le génie génétique. Il en est ainsi du séquençage de l’ADN. Cette opération consiste à définir l’ordre d’enchaînement des nucléotides dans un brin d’ADN. Définir cet ordre permet ainsi de connaître le nombre et le type de gènes présents. Les progrès ont été constants depuis l’intervention du séquençage dans les années 70.

Ainsi, en 2003, l’Institut de Craig Venter a-t-il assemblé le génome du virus bactériophage PhiX 174 (5 386 paires de bases) en seulement deux semaines. En 2008, un collaborateur de Craig Venter, le Prix Nobel Hamilton Smith, a reconstruit un plus grand génome (480 000 paires de bases), et Craig Venter a atteint un nouveau record en 2010 (1,08 million de paires de bases).

S’agissant des applications potentielles de la BS, elles touchent à de nombreux domaines : santé (prévention, diagnostic et thérapies), énergie, chimie, environnement, agriculture, procédés industriels. C’est pourquoi les scientifiques voient dans la BS la révolution industrielle de ce siècle et un moyen d’apporter des solutions à des enjeux majeurs auxquels l’humanité est confrontée : changement climatique, crise énergétique, remédiation environnementale, lutte contre des pathologies comme le cancer, les maladies neurodégénératives, les handicaps ou le paludisme.

Un rapport de 2009 de la Royal Academy of Engineering souligne toutefois que, compte tenu du caractère émergent de la biologie de synthèse, les applications à brève échéance sont limitées à l’artémisinine et à une version synthétique de la soie.

L’artémisinine, mise au point selon des procédés de la BS par Jay Keasling, est un médicament destiné à combattre, à coût réduit, le paludisme et de fortes fièvres. La FDA pourrait autoriser cette année sa mise sur le marché.

Quant à la version synthétique de la soie, elle est obtenue à partir de la réingénierie du système de sécrétion de la bactérie Salmonella thiphimurium. Le procédé pourrait avoir de multiples applications dans les secteurs tels que l’aviation et l’industrie automobile, qui ont besoin de matériaux à la fois robustes et légers.

L’hydrocortisone, qui est une des principales hormones stéroïdiennes de l’homme, fait également partie des applications possibles à brève échéance, pouvant ainsi être commercialisée cette année. En 2002, l’équipe dirigée par Denis Pompon, directeur de recherche au CNRS, est parvenue à synthétiser l’hydrocortisone à partir de l’alcool et du sucre, grâce à un organisme unicellulaire encore appelé Saccharomyces cerevisae. La simplification du procédé de fabrication de l’hydrocortisone présente des avantages industriels, commerciaux et environnementaux. En particulier, elle doit permettre une forte réduction des coûts.

S’agissant de la faisabilité des applications de la BS, certains, comme les auteurs du rapport de la Royal Academy of Engineering, font des prévisions d’une émergence industrielle à une échéance allant de 5 à 25 ans. D’autres, plus prudents, se refusent à formuler des pronostics, invoquant même le risque – comme pour les thérapies géniques – de promesses surestimées.

L’émergence de la BS est source de débats non seulement sur le plan scientifique, comme je viens de l’exposer, mais aussi sur le plan des enjeux sociaux à identifier et des réglementations à prévoir, en particulier, sur quatre points :

- l’évaluation et la gestion des risques ;

- la propriété intellectuelle et industrielle ;

- la recherche et la formation ;

- le dialogue entre la science et la société.

L’analyse des risques suscite des réponses contrastées en ce qui concerne la biosécurité et la bio-sûreté. Dans le domaine de la biosécurité, qui touche aux mesures et pratiques visant à protéger les personnes et l’environnement, des conséquences liées à l’infection, à l’intoxication et à la dissémination de micro-organismes ou de toxines, certains, comme Philippe Marlière, estiment que, plus les micro-organismes sont modifiés génétiquement, plus ils sont vulnérables, ce qui garantirait un niveau de sûreté élevé.

D’autres analyses sont plus alarmistes. L’ONG canadienne ETC prétend ainsi que la BS, notamment parce qu’elle pousserait à l’extrême la convergence NBIC (Nano-Bio-Info-Cogno), serait de nature à renforcer les risques de guerre bactériologique et les menaces de terrorisme. Les sociologues de la London School of Economics, pour leur part, dans le rapport qu’ils ont publié en mai 2011, considèrent que trois catégories de risques s’appliquent à la BS : les risques naturels (par exemple la maladie), le risque inattendu (par exemple les découvertes effectuées par la recherche à usage dual), et la transformation délibérée des agents biologiques en armes. Quant à la Commission présidentielle américaine de bioéthique, sans nier l’existence de l’incertitude, elle fait observer – entre autres – qu’il existe des gènes dits « terminator » ou « suicide » pouvant être incorporés dans les organismes, ce qui les empêche de se reproduire ou de survivre en dehors du laboratoire.

Tout aussi importantes sont les divergences d’appréciation en matière de bio-sûreté pour ce qui concerne l’évaluation du risque d’un détournement de la BS à des fins terroristes ou des risques liés à la biologie dite « de garage ».

Le premier cas vise l’hypothèse d’une recréation de virus pathogènes connus en laboratoire, par exemple ceux de la grippe espagnole ou de la polio.

Nombreux – dont les spécialistes du FBI que j’ai rencontrés – sont ceux qui estiment que les cyanobactéries ou l’anthrax sont plus dangereux que les produits de la BS. En revanche, le professeur Pier Luigi Luisi, biologiste italien, considère que les formes de vie nouvelles créées par la BS pourraient potentiellement générer des risques supérieurs à l’anthrax.

Les risques liés à la biologie de garage – c’est-à-dire aux initiatives exploratoires d’amateurs disposant d’une expertise – sont l’objet d’appréciations contrastées. Un chercheur autrichien – Markus Schmidt – craint, par exemple, que les trafiquants de drogue ne profitent des possibilités accrues d’accès aux technologies de la BS pour concevoir des micro-organismes capables de secréter un précurseur de la cocaïne ou de l’héroïne semi-synthétique.

En revanche, ni la Commission présidentielle américaine de bioéthique, ni le FBI n’ont souhaité proposer une réglementation de cette activité de garage. Le FBI a considéré qu’une politique de partenariat avec les biologistes de garage et la communauté scientifique était plus efficace pour promouvoir une culture de la responsabilité et de biosécurité. C’est d’ailleurs à l’initiative du FBI que le concours iGEM a introduit un prix de sécurité et, plus récemment, un prix de l’éthique.

En ce qui concerne la gestion des risques, ni les commissions d’éthique américaine et européenne, ni les Etats, n’ont souhaité proposer une nouvelle réglementation ni un moratoire.

La Commission présidentielle américaine de bioéthique a décidé de se référer au principe de « vigilance prudente », qui repose sur une évaluation continue des risques et sur une démarche pragmatique. Il s’agit donc d’un principe d’action, comme le principe de précaution. A l’inverse, le Groupe européen d’éthique, s’il se réfère au principe de précaution, plaide toutefois également comme son homologue américaine pour une surveillance continue des risques, afin de s’assurer de l’adéquation des réglementations aux développements scientifiques en cours.

Aux Etats-Unis, comme en Europe, les Etats ne souhaitent pas élaborer de nouvelles réglementations plus restrictives, d’autant qu’ils soulignent la dimension stratégique de la BS dans ses applications potentielles.

Si de nouvelles réglementations ne sont pas nécessaires à ce stade de développement de la BS, j’insiste toutefois dans le rapport sur la nécessité de développer les connaissances dans la recherche fondamentale en biologie, afin de prévenir la mise en circulation précipitée de produits, dont on ne connaîtrait pas l’impact sur la santé ou l’environnement.

De plus, en raison de la dimension internationale de la recherche, une coopération internationale devrait s’instaurer, au moins pour harmoniser les procédures.

Pour ce qui est des enjeux de la propriété intellectuelle, il importe de distinguer le modèle économique et la validité des connaissances scientifiques.

Dans le domaine de la BS, qui relève des régimes applicables à l’informatique et aux biotechnologies, la question est de savoir si le cadre juridique actuel de la propriété intellectuelle est adapté à ces spécificités.

Or, les accords ADPIC (Accords sur les aspects des droits de la propriété intellectuelle qui touchent au commerce) de 1994 ont prévu d’étendre les critères de brevetabilité à tous les domaines technologiques, ce qui inclut celui des biotechnologies et donc le vivant.

En outre, les critères de brevetabilité en vigueur dans les droits américain et européen – en particulier la notion d’invention – sont trop vagues pour appréhender la notion d’information qui est au cœur de l’informatique et des biotechnologies. En particulier, aux États-Unis, Craig Venter a déposé des brevets à spectre large, tandis que des brevets ont été délivrés sur des algorithmes.

C’est pourquoi des ONG et des professeurs de droit ont proposé des alternatives au brevet, à travers l’open access biology inspiré du régime de l’open source appliqué dans l’informatique, et le copyleft, qui consiste à autoriser toute copie ou modification, pourvu qu’elle n’induise aucune limite d’utilisation.

Il existe certes des dérives, qu’il importe de prévenir, car elles peuvent ruiner la notion même de brevet, comme par exemple, le brevet sur les tests du cancer du sein.

Mais il est nécessaire d’instaurer un cadre juridique équilibré, qui permette au brevet de protéger les inventions créatrices d’emplois et les investissements nécessaires à la production de masse, tout en garantissant l’accès aux données nécessaires à l’avancement de la recherche.

S’agissant de la recherche et de la formation, la BS – présentée comme une « technologie de rupture et une révolution industrielle » – impose aux Etats de mettre en œuvre une stratégie de développement ambitieuse et rigoureuse. Par ailleurs, il faut s’assurer que les différentes disciplines sur lesquelles elle s’appuie atteignent le niveau d’excellence correspondant à sa complexité, ce qui suppose des investissements conséquents et de long terme, à la fois pour la recherche et la formation.

Sur ces points, les situations sont contrastées entre les États-Unis, qui jouissent d’une avance confirmée – sauf dans la biologie des systèmes et la biochimie – et l’Europe, mais aussi au sein de cette dernière. Ainsi, la France dispose-t-elle de compétences fortes, mais encore trop diffuses, avec un cloisonnement des disciplines trop fort dans la formation et la recherche. De fait, on peut craindre que, faute d’une politique scientifique volontariste, la France, malgré tous les atouts nécessaires au développement de la BS dont elle dispose, ne prenne en retard le train de la bio-économie, comme l’a écrit Hervé Chneiweiss dans un article récent.

Quant au dialogue entre la science et la société, s’il n’existe pas de recette miracle, il convient de suivre l’exemple du Royaume-Uni, qui a instauré un tel dialogue en 2009-2010.

En 2007, le BBSRC (Biotechnology and Biological Sciences Research Council) a constitué un groupe de travail pour examiner les problèmes soulevés par la BS et publié un rapport en juin 2008 : « Synthetic Biology : social and ethical challenge ». En 2009, le BBSRC et l’Engineering and Physical Sciences Research Council (EPSRC) ont institué un comité de pilotage chargé d’organiser un échange public sur la BS et de conseiller les Research Councils sur la façon dont ils pourraient intervenir dans cet échange. En mars 2009, le comité de pilotage a fixé le but, les objectifs et les principes de ces manifestations. Pour les objectifs, il s’agissait de permettre à un cercle d’habitants d’être clairement formés, informés et consultés, pour que les politiques à venir puissent refléter leurs visions, préoccupations et aspirations. Quant aux principes, ils devaient tendre à veiller au pluralisme et à la diversité des participants au débat, experts comme citoyens, en mêlant chercheurs en sciences dures et en sciences humaines et sociales (SHS), politiques, ONG, organismes de régulation, acteurs économiques responsables de start up et citoyens. De nouvelles méthodologies ont été élaborées pour faciliter la compréhension et les régulations éventuelles.

Cette organisation – fondée sur des débats décentralisés – a permis le déroulement d’un dialogue serein, alors que le débat sur les OGM avait été catastrophique.

Il m’apparaît que l’OPECST – institution politique jouissant de la sérénité nécessaire – pourrait jouer utilement un rôle de coordination du débat indispensable entre la science et la société.

Par la formation, le croisement indispensable des disciplines, les échanges en toute transparence, il s’agit bien, comme le souhaite le Prix Nobel de médecine Jules Hoffmann, de réenchanter la science en suscitant à nouveau l’enthousiasme des citoyens, en particulier des plus jeunes.

C’est l’orientation des recommandations que je préconise, celles-ci étant précédées d’un préambule contenant quatre principes :

- favoriser un environnement public porteur pour la BS ;

- mettre en place une filière complète et intégrée ;

- analyser et maîtriser les risques liés à la BS ;

- favoriser une discussion publique sereine sur les enjeux de la BS.

M. Bruno Sido, sénateur, président de l’OPECST.- Je remercie la rapporteure pour cette présentation très dynamique, que j’ai trouvée excellente. Vous qualifiez la BS de technologie de rupture, génératrice d’une révolution industrielle. Notre recherche est-elle suffisamment adaptée aux différents chantiers de ce domaine ?

Mme Geneviève Fioraso, députée, rapporteure.- La France dispose de toutes les compétences dans les différentes disciplines. Simplement, le croisement entre celles-ci est insuffisant, ce qui nécessite de développer davantage les formations interdisciplinaires. L’Allemagne n’est pas plus avancée que la France, mais elle est plus habituée à l’interdisciplinarité.

En France, l’interdisciplinarité commence toutefois à s’instaurer ; mais de façon encore insuffisante, à Evry, Toulouse et un peu à l’Ecole Polytechnique.

M. Claude Birraux, député, Premier Vice-Président.- Il faut remercier tous les collaborateurs de l’Office qui ont été mis à contribution et même à rude épreuve, car un travail considérable a été fait en vue de la présentation du rapport.

Les conditions techniques de réalisation de ce rapport ont soulevé la question de la mise en place d’un contexte informatique plus approprié pour un travail coordonné entre d’un côté, les services de l’OPECST, et par ailleurs, les divers collaborateurs du rapporteur.

Sur le fond, le rapport fait un point tout à fait complet sur une question qui justifie pleinement l’intérêt de l’Office. Mais il atteint un degré de détail extrêmement poussé, qui peut être difficile pour les non-initiés. Il faudrait que la synthèse du rapport soit plus simple et pédagogique pour les lecteurs curieux.

S’agissant des recommandations – et ce, en liaison avec le rapport que j’ai établi conjointement avec Jean-Yves Le Déaut, député, sur « l’innovation à l’épreuve des peurs et des risques » – je voudrais exprimer mon accord avec les points suivants :

- la mise en réseau au niveau européen ;

- le décloisonnement des formations ;

- le renforcement des liens avec les SHS. Sur ce point, il serait opportun de s’inspirer de ce qui existe à l’Ecole Polytechnique fédérale de Lausanne. Il importe d’instituer au sein des universités un département interdisciplinaire, qui puisse fournir une expertise aux ONG et être à l’écoute de la population, afin de déterminer des signaux d’alerte, permettant de déclencher des recherches et d’apporter des réponses à la population. Cela implique directement les chercheurs et les programmes de recherche, et organise l’interface entre scientifiques et société. Je constate d’ailleurs avec satisfaction que La Sorbonne a été lauréate d’un Investissement d’avenir de SHS ;

- un régime spécifique de propriété intellectuelle destiné à repenser le bien-fondé du brevet dans certains secteurs ;

- la mise en place de programmes de recherche dans le domaine de l’écotoxicité ;

- la rénovation de l’enseignement des sciences à l’école ;

- l’aide aux innovateurs pour traverser « la vallée de la mort », c’est-à-dire la phase entre la preuve du concept et la mise sur le marché.

En revanche, on peut craindre que l’instauration d’une instance permanente au niveau mondial dans l’esprit du GIEC ne s’avère compliquée, certains Etats risquant de renvoyer aux règles de l’OMC. Cette proposition gagnerait à être affinée.

S’agissant du rôle de l’OPECST auquel il est fait référence trois fois, je suggère de reformuler un peu les modalités selon lesquelles l’OPECST serait sollicité :

- en ce qui concerne la position de « contrôleur » vis-à-vis de l’application de la réglementation (dans « Analyser et maîtriser les risques »), je propose de reprendre le dispositif retenu dans le domaine de la bioéthique, à savoir l’établissement d’un rapport toutes les trois ou quatre années, ce qui permettrait à l’Office d’être la référence en BS. A cet effet, un support législatif serait non pas indispensable, mais souhaitable ;

- s’agissant du rôle de l’Office dans le pilotage d’auditions publiques et d’une conférence des citoyens, on peut imaginer que l’Office organise de temps à autre une audition publique de suivi, par exemple dans le cadre de l’étude déclenchée sur la base régulière d’évaluation évoquée précédemment. Pour des opérations à l’échelle nationale, l’OPECST peut avoir une position de conseil, notamment en formulant des recommandations au terme de son évaluation régulière, mais il ne peut avoir un rôle de pilote lui-même.

En revanche, je suis réservé à l’égard de l’idée d’une conférence de citoyens. Le précédent en 1999 de la conférence des citoyens sur les OGM, organisée par l’OPECST, n’a pas été concluant.

Mme Geneviève Fioraso, députée, rapporteure.- Je déplore que les médias soient très peu formés aux questions scientifiques, sauf de rares exceptions.

Au Royaume-Uni, les journalistes sont accueillis régulièrement par la Royal Society, pour prendre connaissance de l’état de l’art dans un champ scientifique. Il conviendrait de poser la question aux Académies pour qu’elles se tournent également vers les journalistes. On peut regretter que ceux-ci aient des a priori, car au lieu de décrire la science, ils l’interprètent.

M. Jean-Pierre Brard, député.- Les journalistes ne sont pas orientés, ils manquent de culture.

Mme Virginie Klès, sénatrice.- J’ai été confrontée, il y a plus dix ans, dans mon laboratoire, aux difficultés rencontrées par les biologistes pour entreprendre des travaux avec des mathématiciens. Du fait de l’absence d’interdisciplinarité, il fallait au moins deux mois pour parvenir à un langage commun et davantage de temps pour publier les résultats des travaux. Mais l’expérience s’est révélée fructueuse.

Des progrès sont certes intervenus mais il demeure nécessaire d’accroître l’interdisciplinarité.

M. Bruno Sido, Président.- Sous réserve des amendements présentés par le Premier vice-Président, je vous propose d’adopter les recommandations de notre excellente rapporteure, dont j’ai beaucoup apprécié le travail de fond.

A la suite de ce débat, l’OPECST a adopté à l’unanimité les recommandations du rapport, amendées par les propositions de M. Claude Birraux, dont il a également autorisé la publication.

COMPOSITION DU COMITÉ DE PILOTAGE

Mme Anne FAGOT-LARGEAULT, professeure honoraire au Collège de France, Chaire de philosophie des sciences biologiques et médicales, est membre de l’Institut (Académie des sciences), membre de l’Académie internationale de Philosophie des Sciences (AIPS) et de Academia Europaea.

Auteure de nombreuses publications, ses travaux portent sur des thèmes d'histoire et de philosophie des sciences du vivant, abordés sous l'angle théorique (épistémologie, ontologie biologique) ou pratique (éthique), développés dans trois directions principales : (1) raisonnement diagnostique, logique inductive, statistique et probabilités, procédures heuristiques ; (2) investigation des liens de causalité, preuves de causalité, explication causale, ontologie du devenir ; (3) éthique et connaissance, méthodologie de la recherche clinique, éthique de l'investigation bio-médicale, épistémologie biologique, anthropologie bio-médicale.

M. Thomas HEAMS, ingénieur de l'Institut national agronomique, docteur en biologie moléculaire, maître de conférences à AgroParisTech, administrateur des éditions Matériologiques, enseigne la génomique animale et l'épistémologie. Il effectue sa recherche dans l'unité mixte de recherche « Génétique animale et Biologie Intégrative » (INRA- AgroParisTech) à Jouy-en-Josas.

M. François KÉPÈS, référent en biologie de synthèse au plan national et international, impliqué dans plusieurs projets européens dans ce domaine, François Képès est directeur de recherche au CNRS, et professeur invité permanent à l’Imperial College, à Londres. Il est co-fondateur et directeur du Programme d'Épigénomique au Genopole. Il est aussi membre associé du Centre de Recherche en Épistémologie Appliquée de l'École Polytechnique, École dans laquelle il exerça comme professeur associé de Biologie.

Mme Marie MONTUS, docteur en génétique humaine, est directrice de projet de thérapie génique au Généthon d’Evry, Thérapie génique préclinique et clinique des projets : Dystrophie Musculaire de Duchenne, Gamma-sarcopgycanopathie, Neuropathie Optique Héréditaire de Leber.

M. Michel MORANGE, professeur à l’École normale supérieure et à l’Université de Paris VI.

Mme Magali ROUX, directrice de recherche au CNRS, est responsable du pôle Biologie au sein du groupe Agents cognitifs et apprentissage symbolique automatique (Acasa) du Laboratoire d’informatique de Paris VI - Université Pierre et Marie Curie.

LISTE DES PERSONNALITÉS RENCONTRÉES

I.– EN FRANCE

1) À l’Assemblée nationale

18 janvier 2011

M. Jean WEISSENBACH, directeur du Genoscope

M. Michel MORANGE, professeur à l’École normale supérieure et à l’Université de Paris VI

25 janvier 2011

Mme Dorothée BENOÎT-BROWAEYS, déléguée générale de Vivagora, accompagnée de M. Jean-Paul KARSENTY, docteur ès sciences économiques

1er février 2011

M. Jean-Loup FAULON, directeur de l’Institut de biologie systémique et synthétique d’Evry

Mme Isabelle DIAZ, directrice des biotechnologies et de la recherche des LEEM (Les entreprises du médicament) et Mme Sandrine KUPFER, conseillère juridique en propriété intellectuelle des LEEM

Comité de pilotage

Mme Anne FAGOT-LARGEAULT professeure honoraire au Collège de France

M. Thomas HEAMS, maître de conférences à l’AgroParisTech et chercheur à l’INRA

M. François KÉPÈS, professeur à l’Institut de biologie systémique et synthétique d’Evry et professeur invité permanent à l’Imperial College of Science, Technology and Medicine, de Londres

Mme Marie MONTUS, directrice du projet de thérapie génique au Généthon d’Evry

M. Michel MORANGE, professeur à l’École normale supérieure et à l’Université de Paris VI

Mme Magali ROUX, directrice de recherche au CNRS, responsable du pôle Biologie au sein du groupe Agents cognitifs et apprentissage symbolique automatique (Acasa) du Laboratoire d’informatique de Paris VI - Université Pierre et Marie Curie

22 février 2011

M. Hughes BERRY, directeur de recherche à l’INRIA-Lyon (entretien téléphonique)

Mme Barbara DEMENEIX, Professeure, titulaire de la chaire de physiologie, directrice du département régulations, développement et diversité moléculaire au Muséum national d’Histoire naturelle

M. Vincent SEGURA, chargé de recherche à l’INRA (entretien téléphonique)

23 février 2011

M. Fabrice CLAIREAU, directeur des Affaires juridiques et internationales de l’INPI

M. Alain GRIMFELD, professeur de médecine à l’Université Pierre et Marie Curie et président du Comité Consultatif national d’éthique

9 mars 2011

M. Pierre-Benoît JOLY, directeur de recherche à l’INRA

M. Antoine DANCHIN, professeur honoraire à la Faculté de médecine Li Ka Shing de l’Université de Hong Kong, président d’Amabiotics SAS

28 mars 2011

M. Jean-Jacques KUPIEC, chercheur à l’INSERM et à l’Ecole normale supérieure

M. Pierre TAMBOURIN, directeur du Genopole

6 avril 2011

M. Miroslav RADMAN, professeur de biologie génétique à la Faculté de médecine Necker

Mme Françoise RUSSO-MARIE, directrice de recherche au Genopole

12 avril 2011

Secrétariat général pour les Affaires européennes

M. Matthieu AUTRET, chef du secteur Industrie, énergie, environnement, télécom, recherche, espace

Mme Marina GALICKI, adjointe au chef du secteur juridique

Ministère des Affaires étrangères et européennes

M. Jean-Pierre THEBAUT, ambassadeur délégué à l’Environnement

Ministère de l’Enseignement supérieur et de la recherche

Mme Sophie CLUET, chef du service de la Stratégie de la recherche et de l’innovation 

Mme Alix de la COSTE, conseillère technique en charge du vivant au cabinet de la ministre

Mme Dominique LABORDE, chargée de mission Biotechnologies et Innovations en agriculture, à la Direction générale de la recherche et de l’innovation (DGRI)

Mme Anna ROCCA, chargée de mission au secteur Biologie-Santé, à la Direction générale de la Recherche et de l’innovation (DGRI)

Mme Françoise THIBAULT, directrice départementale de la coordination et des politiques transversales du Service de la stratégie de la recherche et de l’innovation 

Mme Anne-Claire TYSSANDIER, conseillère parlementaire

Ministère de l’Écologie, du développement durable, des transports et du logement

M. Nicolas ENCAUSSE, chargé de mission pour la Biotechnologie à la Direction générale de la prévention des risques 

M. Rémi FOUQUET, chargé de mission pour la Biotechnologie à la Direction générale de la prévention des risques

Mme Catherine MIR, directrice adjointe du département Produits chimiques, pollution diffuse et agriculture

M. Lionel MOULIN, chef de la mission pour les risques environnement et santé au Commissariat du développement durable.

12 avril 2011

M. Alfonso JARAMILLO, professeur à l’Institut de biologie systémique et synthétique d’Evry

13 avril 2011

M. Frédéric DARDEL, professeur à la Faculté de Pharmacie de l’Université de Paris V - René Descartes, directeur du laboratoire de cristallographie et RMN biologiques et de l’Institut Descartes/Diderot Médicament, Toxicologie, Chimie et Environnement

25 mai 2011

Mme Bernardette BENSAUDE-VINCENT, philosophe, professeure à l’Université de Paris I.

M. André LE BIVIC, directeur de recherche au CNRS, directeur de l’Institut de Biologie cellulaire, développement et évolution de Marseille-Lumigny

M. Denis POMPON, directeur de recherche au CNRS, accompagné de M. Gilles TRUAN, Chargé de recherche au CNRS

6 juillet 2011

M. Ariel LINDNER, professeur à l’Université de Paris V-René Descartes

7 juillet 2011

M. Michel VIVANT, professeur à l’École doctorale de droit de Sciences-Po

12 juillet 2011

M. Philippe NOIROT, directeur de recherche à l’INRA en charge du pôle de biologie systémique et synthétique

19 juillet 2011

M. Vincent SCHÄCHTER, directeur R&D des énergies nouvelles du groupe Total

29 août 2011

M. Daniel GILLET, responsable pour le CEA de la mission interministérielle sur les risques NRBC, accompagné de M. François LE FÈVRE, chercheur au Génoscope

Mme Carole LARTIGUE, chercheure à l’INRA Bordeaux, Institut de biologie végétale et moléculaire (entretien téléphonique)

M. Philippe MARTIN, chef de secteur de l’Evaluation des nouveaux risques et de la coordination de la recherche à la DG SANCO de la Commission européenne

6 septembre 2011

M. Sylvestre HUET, chroniqueur scientifique au journal Libération

M. Philippe MARLIÈRE, président-directeur général d’Isthmus

13 septembre 2011

M. Jean-Christophe PAGÈS, président du conseil scientifique du Haut-Conseil des Biotechnologies

27 septembre 2011

M. Nicolas BÉCARD, chargé de mission biologie au Secrétariat général de la défense et de la sécurité nationale

M. Julien THOUROT, architecte Fonction contre-mesures médicales à la Délégation générale pour l’Armement

12 octobre 2011

M. Joël de ROSNAY, conseiller de la Présidente d’Universcience et membre du Conseil scientifique de l’OPECST

31 janvier 2012

Comité de pilotage

M. Thomas HEAMS, maître de conférences à l’AgroParisTech et chercheur à l’INRA

Mme Marie MONTUS, directrice du projet de la thérapie génique au Généthon d’Evry

Mme Magali ROUX, directrice de recherche au CNRS, responsable du pôle Biologie au sein du groupe Agents cognitifs et apprentissage symbolique automatique (Acasa) du Laboratoire d’informatique de Paris VI- Université Pierre et Marie Curie

2) - En région

– Grenoble :

18 février 2011

M. Jérôme GARIN, directeur de l’Institut de Recherches en Technologies et Sciences pour le Vivant, M. Hans GEISELMANN, professeur à l’Université Joseph Fourier (UJF), M. Jacques JOYARD, directeur du Laboratoire de physiologie cellulaire végétale (CNRS, UJF, CEA)

M. Redouane BORSALI, directeur du Centre d’études et de recherches sur les macromolécules végétales (CERMAV), accompagné de M. Sébastien FAURE, chargé de recherche au CERMAV

Mme Eva PEBAY-PEYROULA, directrice de l’Institut de Biologie structurale

8 mars 2011

CEA 

M. Robert BAPTIST, directeur de recherche au CEA-LETI

M. Gilles BLOCH, directeur des Sciences du vivant 

M. Bruno FRÉMILLON, chef de l’Unité de communication du CEA-Grenoble

M. Dominique GRAND et Mme Nayla FAROUKI, Projet GIANT

MM. Engin MOLVA, Thierry DOUKI et Didier GASPARUTTO, Institut Nanosciences et cryogénie

M. Jean-Pierre VIGOUROUX, responsable de la cellule des affaires publiques

8 mars 2011

M. Philippe LEJEUNE, directeur du département Biosciences de l’INSA de Lyon

M. François RECHENMANN, directeur de recherche à l’INRIA.

– Toulouse :

26 septembre 2011

INSA

M. Alain BLANCHARD, vice-président du conseil scientifique de l’Université de Bordeaux Segalen, directeur de l’UMR Biologie du fruit et Pathologie

M. Jean-Marie FRANÇOIS, directeur de la recherche à l’Institut de technologie des sciences du vivant de Toulouse

M. Pierre MONSAN, membre de l’Institut Universitaire de France, membre de l’Académie des Technologies, directeur du département du Génie biochimique et alimentaire de l’INSA de Toulouse

M. Michael O’DONOHUE, directeur de recherche à l’INRA, directeur du département Caractérisation et élaboration des produits issus de l’agriculture (CEPIA)

M. Denis POMPON, directeur de recherche au CNRS, directeur de recherche au Laboratoire d’ingénierie des systèmes biologiques et des procédés de l’INSA de Toulouse.

II.– À L’ÉTRANGER

1) SUISSE 15-16 mars 2011

15 mars 2011

– Genève :

Personnalités françaises :

M. Dominique DUNON-BLUTEAU, attaché de coopération scientifique et universitaire à l’ambassade de France

Mme Geneviève CHEDEVILLE-MURRAY, conseillère pour la Santé à la Mission permanente de la France auprès des Nations-Unies.

Personnalités suissses :

M. Jesus MARTIN-GARCIA, directeur d’Eclosion-Incubateur

Organisation mondiale de la Santé (OMS) 

Dr Claudia ALFONSO, scientist, quality safety and standard team, department of immunization, vaccins and biologicals

M. Peter BEYER, Technical Officer Department, Health, Innovation, and intellectual Property

Dr Andrea REIS, Medical office, Ethics, trade and human rights

Dr Lembit RAGO, Coordinator quality assurance and Safety Medecine

Organisation mondiale de la propriété intellectuelle

Mme Tomoko MYAMOTO, Head Patent Law Section et Mme Aida DOLOTBAEVA, Legal Officer, Patent Law Section

– Lausanne :

MM. Marc AUDETAT et Lazare BEBNAROYO, professeurs à la plate-forme interdisciplinaire d’éthique (ETHOS) de l’Université de Lausanne

16 mars 2011

– Berne :

Son Exc. M. Alain CATTA, Ambassadeur de France en Suisse

Mme Daniela CERQUI, docteur, maître d’enseignement et de recherche, Laboratoire d’anthropologie culturelle et sociale à la Faculté des Sciences sociales et politiques de l’Université de Lausanne.

Mme Anna DEPLAZES ZEMP, docteur, Institut d’éthique biomédicale, Université de Zürich, spécialisée en biologie synthétique

M. Joachim FREY, professeur, Université de Berne, Institut de bactériologie vétérinaire, commission fédérale suisse de biosécurité

Office fédéral de la formation professionnelle et de la technologie 

M. Alain DIETRICH, chef du secteur « promotion de Projets et transfert de savoir et technologie TST » de la Commission pour la technologie et l’innovation

M. Sebastien FRIESS, chef du secteur « fondements de la Politique d’Innovation »

Mme Verena WEBER, responsable du secteur « Relations internationales, secteur collaboration globale et bilatérale »

– Bâle :

MM. Martin FUESSENEGGER et Sven PANKE, professeurs au Department of biosystems and engineering de l’Université de Zürich

2) ROYAUME-UNI : 21-22 mars 2011

21 mars 2011

Personnalités françaises

M. Serge PLATTARD, conseiller scientifique pour la science et la technologie, près l’ambassade de France

Mme Claire MOUCHOT, attachée scientifique

Personnalités britanniques

Dr David Mc ALLISTER strategy and policy manager Biotechnology and biological sciences Research council (BBSRC) et Dr Patrick MIDDLETON, Public engagement strategy and funding (BBSRC)

Dr Jim HASELOFF, Head of Department of Plant Sciences de l’Université de Cambridge et Dr Andrew PHILLIPS, Head of Biological computation programming biology de l’Université de Cambridge.

M. Richard KITNEY, professeur au Centre for Synthetic Biology and Innovation de l’Imperial College

M. Nick ROSE, professeur au Bios Centre de la London School of Economics et Dr Claire MARRIS, chercheure au Bios Centre

M. Nick GREEN, Head of Projects, Science Policy centre, Royal Society

M. Julian HITCHCOCK, avocat, spécialiste des sciences de la vie et des questions bioéthiques

Dr Antonis PAPACHRISTODOULOU, directeur du Department of Engineering Science de l’Université d’Oxford

M. Lincoln TSANG, avocat au cabinet Arnold Porter et conseiller de gouvernements étrangers et d’associations

3) CANADA : 20-24 avril 2011

– Ottawa :

20 avril 2011

Personnalités françaises

M. Philippe CARLEVAN, conseiller pour la science et la technologie près l’ambassade de France au Canada

M. Robert MOULIE, chargé d’affaires

Personnalités canadiennes

M. Howard ALPER, président du conseil pour la Science, la technologie et l’innovation du Canada

Mme Carmen CHARRETTE, vice-présidente du Conseil de recherches en sciences humaines du Canada (CRSH)

M. Barry DUPLANTA, directeur de recherche en biologie synthétique à l’Université de Colombie britannique (entretien téléphonique)

Dr Guy DROUIN, professeur au département de biologie de l’Université d’Ottawa

Mme Suzanne FORTIER, présidente du Conseil de Recherches en sciences naturelles et en génie du Canada (CRSNG)

Dr Mads KAERN, Canada Research Chair in Systems Biology, assistant Professor, Ottawa Institute of Systems Biology, Faculty of Medicine, University of Ottawa

M. Pat Roy MOONEY, directeur d’ETC Group et Mme Joëlle DESCHAMBAULT, Coordonnatrice des programmes d’ETC Group

M. Gilles PATRY, président-directeur général de la Fondation canadienne pour l’innovation (FCI)

M. Marc SANER, directeur de l’Institut de la recherche sur la science, la société et la politique publique

Santé Canada

M. Pierre J. CHAREST, directeur général

M. Laurent GEMAR, gestionnaire à l’unité d’intégration des politiques

Mme Carol SUTHERLAND-BROWN, conseillère principale en matière de politiques-Europe

Mme Lori ENGLER TODD, conseillère principale auprès du directeur général

M. Hans YU, directeur de la division de la bioéthique, innovation et intégration des politiques

21 avril 2011

– Montréal :

Mme Daphné ESQUIVEL, chercheure en sociologie à l’Université de Montréal

M. Richard GOLD, professeur de droit à l’Université Mac Gill

Mme Marie-Odile MARTIN, gestionnaire du marketing et du transfert technologique au Centre national de recherche

M. Jean-Paul PRADÈRE, attaché pour la science et la technologie au Consulat général du Québec

Genome Quebec

Mme Anne-Marie ALARCO, director research Development

M. Vincent MARTIN, associate professor Canada Chair biology department, Université Concordia

Mme Louise THIBAULT, chargée de projets

4) ÉTATS-UNIS : 25-27 avril 2011

– Boston :

25 avril 2011

Personnalités françaises

M. Christophe GUILHOU, Consul général de France à Boston

M. Robert JEANSOULIN, attaché pour la science et la technologie à l’ambassade de France à Washington

M. Antoine MYNARD, attaché pour la science et la technologie au Consulat général de France à Boston

Personnalités américaines

Dr Randy RETTBERG, directeur d’iGEM

Dr Pamela SILVER, professeure à la Harvard Medical School et directrice du Department of Systems Biology

Dr Ron WEISS, Associate Professor department of Biological Engineering Department of Electrical Engineering and computer Science du MIT

– Washington :

25 avril 2011

Personnalités françaises 

Son Exc. M. François DELATTRE, ambassadeur de France aux États-Unis

M. Robert JEANSOULIN, attaché pour la science et la technologie à l’ambassade de France à Washington

M. Marc MAGAUD, attaché pour la science et la technologie à l’ambassade de France à Washington

Mme Annick SUZOR-WEINER, conseillère pour la science et la technologie près l’ambassade de France

26 avril 2011

National Institutes of Health

Ms Mary E. GROESCH, senior advisor for Science Policy, Office of Biotechnology Activities

Dr Amy PATTERSON, director, Office of Policy, NIH Office of Biotechnology activities

M. Allan C. SHIPP, director of Outreach, NIH Office of Biotechnology Activities

Dr Jessica TUCKER, senior policy analyst, Office of the Assistant Secretary for preparedness and response, US Department of Health and Human Services

Craig Venter Institute

Dr Robert FRIEDMAN, director of the Policy Center and San Diego Facility

Ms Lisa A. McDONALD, Education director

National Research Council – National Academy of Sciences

Ms Valerie H. BONHAM, Executive Director, Presidential Commission for the Study of Bioethical Issues

Ms Frances E. SHARPLES, director, Board on Life Sciences, Acting Director, Institute for Laboratory Animal Research

Dr India HOOK-BARNARD, Program officer, NRC Board on Life Science

Dr Proctor P. REID, director Program Office at the National Academy of Engineering

FBI Headquarters

M. Michal E. HENSLE, Unit chief, Biological Countermeasures Unit

M. Selwyn R. JAMISON, Program manager, Bioterrorism Prevention

M. Vahid MAJIDI, assistant director

M. Christopher R. LEE, supervisory special agent

Dr Ben PERMAN, adviser to the Cooperative Threat Reduction Program

M. Sean M. JOYCE, Deputy Director of Weapons of Mass Destruction Division

27 avril 2011

Ms Kavita BERGER, associate program director, Center for Science, Technology, and Security Policy, AAAS – American Association for the Advancement of Science

M. David REJESKI, director, Science and Technology Innovation Program, Woodrow Wilson Center

Office of Science and Technology Policy

Dr Mary MAXON, director for biological Research AAAS

M. Rick WEISS, director of communications, senior policy analyst

Ms Joan ROLF, assistant director for International Relations

Department of Homeland Security

Dr Alexander GARZA, assistant Under Secretary for Health (DHS)

Congrès

M. Stephen CHAN, Démocrate, senior Professional Staff Member, Democratic Staff

Eric FLAMM, Démocrate, House Committee on Energy & Commerce

M. Clay ALSPACH, Démocrate, House Committee on Energy & Commerce

M. Ryan LONG, House Committee on Energy & Commerce

President’s Bioethics Committee

Ms Valerie BONHAM, executive director, president’s bioethics committee

Ms Hillary WICAI VIERS, communication director

Dr Carl WIEMAN, OSTP associate director for science

Dr Mary E. MAXON, assistant director for biological research

5) ALLEMAGNE 

– Berlin :

30 août 2011

Personnalités françaises

Mme Claire CÉCILLON, chargée de mission scientifique, médecine, santé

M. Gilles REQUENA, conseiller au cabinet du Président de l’Office européen des brevets (entretien téléphonique)

M. Stephane ROY, attaché pour la science et la technologie

M. Mathieu WEISS, conseiller pour la science et la technologie près l’ambassade de France

Personnalités allemandes

Dr Lars MERKEL, professeur à la Technische Universität Berlin, Fakultät II, Institut für Chemie

Dr Alfred PÜHLER, professeur émérite au « Genome Research of Industrial Microorganisms » Institute for genome Research and Systems Biology (IGS) de l’Université de Bielefeld. (entretien téléphonique)

Dr Arnold SAUTER, directeur de la mission du TAB sur la biologie de synthèse

31 août 2011

Dr Bärbel FRIEDRICH, professeure à l’Institut für Biologie, de l’Université Humboldt, présidente du groupe de travail « Biologie synthétique » mis en place par la Deutsche Forschungsgemeinschaft, Akatech et Leopoldina, présidente de la commission du Sénat de la DFG en charge des questions relatives à la recherche en génétique, vice-présidente de la Leopoldina (académie des sciences)

Ministère fédéral de l’enseignement et de la recherche

Dr Franck LAPLACE, conseiller au Lebenswissenschaftliche Grundlagenforschung

Deutsher Ethikrat (Conseil d’éthique)

Dr Joachim VETTER, secrétaire général

Wissenschaft im Dialog

M. Christian KLEINERT, directeur (Fundraising, Science Station, Wissenschaft interaktiv)

6) ITALIE : Milan- Rome 12-13 décembre 2011

– Milan :

12 décembre 2011

Personnalités françaises 

M. Joël MEYER, consul général de France à Milan

Mme Pascale GAY, vice-consul général de France à Milan

Mme Tiffany ZILLER, attachée scientifique à l’ambassade de France à Rome

Personnalités italiennes 

Mme Rita FUCCI, responsable du secteur Technico Scientifique de Assobiotec

Mme Alessia MURATORIO, chercheure en philosophie du Droit à l’Université de Padoue

M. Paolo MAGNI, bioingénieur, professeur à l’Université de Pavie

Dr Holger NEECKE, Director Business Development & Investor Relations, de la société MolMed

Mme Maria Luisa NOLLI, membre du Board de EuropaBio et du comité directeur de Assobiotec

– Rome :

13 décembre 2011

Personnalité française

M. Pierre-Bruno RUFFINI, conseiller pour la science et la technologie près l’ambassade de France

Personnalités italiennes

Pr Giuliani D’AGNOLO, directeur de recherche de l’Institut supérieur de Santé, vice-président du Comité national pour la biosécurité, les biotechnologies et les sciences de la vie

M. Pier Luigi LUISI, biologiste, professeur à l’Università di Roma 3

Mme Elisa MANACORDA, journaliste scientifique, directrice du journal scientifique on line Galileo

M. Luca MARINI, juriste, professeur à l’Università di Roma « La Sapienza », vice-président du comité national de bioéthique

Mes remerciements spéciaux à :

Dominique GRAND, Nayla FAROUKI, Jérôme GARIN, Jacques JOYARD, François KÉPÈS, Pierre TAMBOURIN, pour leur relecture attentive et leurs conseils avisés ; Delphine CHENEVIER, Delphine GUÉRINEAU, et toute l’équipe de l’OPECST, pour leur collaboration efficace.

1 En fait, le seul réel « exploit » technique de cette expérimentation est d’avoir réussi à synthétiser chimiquement, par petits morceux, la totalité du génome auquel ont été ajoutées quelques séquences de marquage, et d’avoir réussi à assembler l’ensemble de manière ordonnée. Ce génome a été placé au sein d’une cellule de même « type ». Le génome greffé a fonctionné et a éjecté le génome d’origine, tel le coucou dans le nid de son hôte.

2 Cette Commission a été désignée à la suite de l’annonce par le chercheur américain, Craig Venter, de la synthèse chimique d’un génome complet d’une bactérie. Cette Commission a été chargée d’étudier les enjeux soulevés pour une telle expérience. Cf. tome II , Annexes.

3 Rapport de la Commission présidentielle américaine de bioéthique, p.160.

4 Composition du comité de pilotage, p. 209.

5 European Group on Ethics in Science and New Technologies, « Ethics of synthetic biology », Opinion n°25, 2009, cf. tome II, Annexes. Le Groupe européen d'éthique des sciences et des nouvelles technologies (GEE) est une instance neutre, indépendante, pluraliste et pluridisciplinaire, composée de quinze experts nommés par la Commission européenne. Le GEE a pour mission d'examiner les questions éthiques liées aux sciences et aux nouvelles technologies et de soumettre des avis à la Commission européenne dans le cadre de l'élaboration de législations ou de mise en place de politiques communautaires.

6 Rapport de la Commission présidentielle américaine de bioéthique, p. 36.

7 Op.cit., p.37.

8 « Rapport sur la stratégie nationale de recherche et de l’innovation - Biologie de synthèse : développements, potentialités et défis », mars 2011.

9 Rappelons cependant que le terme de biologie synthétique a été proposé dès 1912, soit 26 ans avant celui de biologie moléculaire (1938).

10 David Berry, « What’s in a Name ? », Nature Biotechnology, décembre 2009.

11 Andrew Ellington, « What’s in a Name ? », Nature Biotechnology, décembre 2009.

12 The European group on ethics in science and new technologies to the European commission,Ethics of synthetic biology”, Bruxelles, 17 novembre 2009.

13 Sven Panke, « Synthetic Biology-Engineering in Biotechnology", rapport au nom de la Commission Bioscience de l’Académie suisse des Sciences de l’ingénieur, 2008.

14 Pierre Tambourin, « Biotechnologies », Encyclopedia Universalis, 2009.

15 Avis du Comité consultatif national d’Ethique, Avis n°96,  « Questions éthiques posées par les nanosciences, les nanotechnologies et la santé » pp.3-4, 2002.

16 « Rapport sur la stratégie nationale de recherche et d’innovation - Biologie de synthèse : développements, potentialités et défis », mars 2011.

17 ETC, Extreme Genetic Engineering, 2007.

18 Labopuce : miniaturisation, et intégration sur une puce, de systèmes analytiques complexes permettant des analyses rapides tout en consommant de faibles volumes d’échantillon.

19 La nanomédecine est l’application médicale des nanotechnologies.

20 Nanogalénique : utilisation des nanotechnologies par la pharmacie galénique, qui est l’art et la science de préparer, conserver et présenter les médicaments.

21 Groupe européen d’Ethique des sciences et des nouvelles technologies (GEE). Avis sur l’éthique de la biologie synthétique, 18 novembre 2009.

22 Maureen O’Malley, « Exploration, iterativity and kludging in synthetic biology », Comptes Rendus de l’Académie des sciences, Chimie, T 14, Fascicule 4, 2011.

23 Philippe Marlière « The farther, the safer : a manifesto for securely navigating synthetic species away from the old living world », Syst Synth Biology,3: 77-84, 2009.

24 Ernesto Andrianatoandra et al., « Synthetic biology : New engineering rules for an emerging discipline », Molecular systems biology, 2006.

25 Maureen O’Malley, op.cit.

26 Sven Panke, « Synthetic Biology-Engineering in Biotechnology », rapport au nom de la Commission Bioscience de l’Académie suisse des Sciences de l’ingénieur, 2008.

27 Evelyne Fox Keller, « What does Synthetic Biology have to do with Biology ? », Biosocieties, 2009.

28 E. coli est le modèle bactérien principal utilisé pour étudier le fonctionnement cellulaire.

29 En informatique, les portes logiques (ex : AND, OR) sont des instructions qui permettent de faire fonctionner un microprocesseur.

30 Professeur à l’Imperial College de Londres.

31 Andrew Torrance, « Synthesizing Law for Synthetic Biology », Minnesota Journal of Law, Science & Technology, 2010.

32 «Biologie systémique, standards et modèles», sous la direction de Magali Roux, Omniscience, 2007.

33 Un bactériophage est un virus spécifique des bactéries.

34 La PCR est une technique d’amplification de l’ADN.

35  http:/www.redorbit.com/news/technology/1823681/mariage_of_microfluidics_optics_could_advance_labonchip_devices/

36 Un châssis est un hôte cellulaire optimisé pour accueillir un objet biologique de synthèse (rapport de la SNRI, 2011).

37 Acronyme anglais de « chemical cells ».

38 Oscillateur qui mime un réseau cellulaire en induisant périodiquement la synthèse d’une protéine fluorescente (Elowitz et Leibler, 2000).

39 Victor de Lorenzo et al., « Synthetic biology: challenges ahead », Bioinformatics, Vol.22 n°-2, 2006.

40 Thomas Heams, maître de conférences à AgroParisTech et chercheur à l’Inra et membre du comité de pilotage.

41 François Képès, « Biologie synthétique et intégrative », Médecine/Sciences 2009, 25, p. 42.

42 Thomas Heams, « De quoi la biologie synthétique est-elle le nom ? », ouvrage collectif « Les mondes darwiniens », Syllepse, 2009, Matériologiques (réédition), 2011.

43  Membre de l’association internationale Dialogue and Conflict Management, où il est en charge du groupe de travail sur la biosécurité.

44  Markus Schmidt, « Do I understand what I can create ?», chapitre 6 de l’ouvrage collectif, «Synthetic Biology, the Technoscience and its Societal Consequences», 2009.

45  ETC, «Extreme Genetic Engineering», rapport précité, 2007.

46  Selon les chercheurs, les proto-cellules sont une forme cellulaire minimale primitive ou artificielle capable d’autoréplication.

47 Gilbert Charles, « Sommes-nous en train de réinventer la Création ? », lexpress.fr, 4 août 2010.

48 Porcar et al., « The ten grand challenges of synthetic life », Systems and Synthetic Biology, 2011.

49 Propos cités par Charles W. Schmidt, « Synthetic Biology: Environmental Health Implications of a New Field », Environmental Health Perspectives, mars 2010.

50 Heams, « De quoi la biologie synthétique est-elle le nom ? », ouvrage collectif « Les mondes darwiniens », Syllepse, 2009, Matériologiques (réédition), 2011.

51 Manuel Porcar et al., « The challenges of synthetic life », op.cit.

52 Michel Morange, « La vie expliquée », Editions Odile Jacob, 2008, p.142.

53 Victor de Lorenzo, « Synthetic Biology: Something old, something new », Cell & Molecular Biology, Volume 32, Avril 2010.

54 Aviesan, « Bases moléculaires et structurales du vivant », janvier 2011.

55 Présentée comme une sous-discipline de la BS, la xénobiologie vise à mettre au point des formes de vie étrangères, du point de vue chimique et métabolique, à celles qui sont connues sur terre.

56 Futura-Sciences, 30 juin 2011.

57 The Royal Academy of Engineering, « Synthetic Biology : scope, applications and implications », Londres, mai 2009.

58 Le rapport cite l’artémisinine, une molécule destinée à lutter contre le paludisme et la sécrétion de protéines de soie à partir de la toile d’araignée, ce dernier procédé étant issu de la réingénierie du système de sécrétion de la bactérie, Salmonella typhimurium.

59 Un communiqué de 2005 du CNRS indiquait que des chercheurs français avaient mis en évidence le mécanisme d’action de l’artémisinine. Il relevait que la capacité de production de l’artémisinine était alors de 5 à 6 tonnes par an, tandis que la quantité nécessaire pour traiter les 400 à 600 millions de cas de paludisme recensés chaque année serait de l’ordre de 300 tonnes.

60 Wilfried Weber et Martin Fussenegger,« The impact of synthetic biology on drug discovery», Drug discovery today, Vol.14, octobre 2009.

61 François Képès, « La BS : développements, potentialités et défis », Réalités industrielles, février 2010, p.11.

62 Le phage est un virus qui s’attaque à certaines bactéries.

63 Warren C. Ruder, Ting Lu, James Collins, « Synthetic Biology moving into the Clinic», Science, 2 septembre 2011.

64 Par opposition aux cellules souches embryonnaires, les cellules souches pluripotentes induites ont pour origine une cellule adulte somatique redevenue pluripotente grâce à l’action de facteurs de croissance.

65 La transfection consiste dans l’introduction d’un ADN étranger dans une cellule d’eucaryote supérieur cultivée in vitro.

66 Claudine Mulard, « L’aventure des carburants solaires », Le Monde, 9 août 2011.

67 ETC,  «The New Biomasters», 2010.

68 Le miscanthus est un genre de plantes herbacées vivaces de la famille des graminées, originaire d’Afrique et d’Asie du Sud.

69 The Royal Academy of Engineering « Synthetic Biology : scope, applications and implications », 2009.

70 Ce projet, qui a bénéficié d’un soutien financier d’OSEO à hauteur d’environ 15 millions d’euros, porte sur des souches et cultures de microalgues dites « hétérotrophes » ou « mixotrophes », c’est-à-dire ne nécessitant pas ou peu de lumière, ce qui permettrait d’obtenir des rendements de cinquante à cent fois supérieurs aux cultures traditionnelles.

71 La vectorisation des médicaments correspond au transport des molécules biologiquement actives jusqu’à leur cible biologique.

72 Aviesan, Bases moléculaires et structurales du vivant, janvier 2011.

73 BP a ainsi déboursé 680 millions de dollars pour acquérir 83 % des parts d’une société brésilienne productrice d’éthanol. Exxon a investi 600 millions de dollars dans la recherche sur les biocarburants, en partenariat avec Craig Venter.

74 Ainsi, lors d’une réunion organisée en 2009 par Vivagora, Antoine Danchin a-t-il déclaré : « Le problème est qu’actuellement, il faut faire miroiter des applications pour avoir des crédits. Cela va apporter des déconvenues importantes, car il sera impossible de satisfaire les promesses. »

75 A realistic Technology and Egineering assessment of Algae biofuel production.

76 Bulletin électronique de l’ambassade de France aux États-Unis, 8 novembre 2009.

77 Le panic érigé (Panicum virgatum) est une plante herbacée dont la répartition naturelle va de l’Amérique du Nord à l’Amérique centrale. Compte tenu de son rendement et de son potentiel énergétique, le panic érigé fait partie des graminées qui pourraient rapidement intégrer la filière de la biomasse.

78 Bulletin électronique de l’ambassade de France en Suisse, 6 avril 2011.

79 The New Biomasters, ETC Group, 2010.

80  Ce procédé est qualifié d’hybride, car il combine les avantages de la voie biochimique et de la voie thermochimique de la production d’éthanol.

81 Bulletin électronique de l’ambassade de France aux États-Unis, 17 juin 2011.

82  Charles W. Schmidt, «Synthetic Biology: Environmental Health Implications of a New Field», Environmental Health Perspectives, mars 2010.

83 Jeffrey M. Skerker, Julius B. Lucks, Adam P. Arkin, «Evolution, ecology and the engineered organism: lessons for synthetic biology», Genome Biology 2009.

84 Michel Morange, « Histoire de la biologie moléculaire», p.239.

85 Gérald Karp, « Biologie cellulaire et moléculaire», p.764.

86 Gérald Karp, « Biologie cellulaire et moléculaire», p.73.

87 Une enzyme de restriction est une protéine qui peut couper un fragment d’ADN au niveau d’une séquence de nucléotides caractéristique appelée site de restriction.

88 Michel Morange, « Histoire de la biologie moléculaire ».

89 Anne-Ruzandra Carvenis et al., « Biologie systémique », Médecine-sciences, juin-juillet, 2009.

Jiang Lian et al., «Synthetic Biology: putting synthesis into biology», Systems Biology and Medecine, janvier-février 2011.

90 L’ATP est une substance chimique qui fournit l’énergie à de nombreux processus cellulaires et qui est l’un des précurseurs de l’ARN.

91 Eric Young et Al Halper, « Synthetic Biology: Tools to Design, Build and Optimize cellular process», Journal of Biomedicine and Biotechnology, janvier 2010.

92 Petra Schwille, «Bottom up Synthetic Biology: engineering in a Tinkerer’s world», Science, 2 septembre 2011.

93 « La capacité à concevoir un système biologique qui se comporte de façon prédictible et fonctionne mieux que son équivalent naturel est le rêve des biologistes de synthèse. », Jian Liang et al., article précité.

94 Hélice alpha : une des structures secondaires possibles des polypeptides, dans laquelle la chaîne d’acides aminés prend une conformation spiralée (hélicoïdale).

95 Feuillet bêta : une des structures secondaires d’un polypeptide, dans laquelle plusieurs plages bêta sont parallèles les unes aux autres, donnant ainsi la disposition en feuille.

96 La structure tertiaire d’une protéine correspond au repliement de la chaîne polypeptidique dans l’espace. On parle plus couramment de structure tridimensionnelle ou structure 3D.

97 Tic Kode et al., « The role of predictive modelling in rationally reengineering biological systems », PubMed Central, avril 2009.

98 Caulobacter crescentus est une bactérie dont le pédicule a une grande capacité adhésive due à des polysaccharides.

99 Le chimiotactisme est le phénomène par lequel les cellules somatiques, les bactéries et autres organismes cellulaires ou pluricellulaires dirigent leurs mouvements en fonction de certains produits chimiques dans leur environnement. Pour les bactéries, il est important de trouver de la nourriture (par exemple le glucose) en nageant vers la plus forte concentration de molécules alimentaires ou pour fuir des poisons (par exemple, le phénol).

100 Gènes putatifs : encore appelés gènes hypothétiques, les gènes putatifs sont des fragments d’ADN considérés comme étant des gènes, en se fondant sur leur séquence. Mais ni leur produit, ni leur fonction ne sont connus.

101 Il s’agit de l’une des nombreuses espèces de champignons filamenteux du genre aspergillus. Il a beaucoup été utilisé comme matériel de recherche pour des études sur les eucaryotes.

102 Caenorhabditis elegans est un petit vers transparent d’un millimètre de longueur, hermaphrodite ou mâle, se reproduisant environ tous les trois jours et dont la durée de vie est d’environ trois semaines. Il a été introduit dans les laboratoires de génétique dans les années 70 pour répondre au besoin d’un modèle génétique destiné à comprendre l’élaboration d’un organisme pluricellulaire.

103 L’émergence est une des caractéristiques des systèmes vivants, qui en passant d’une échelle à l’autre, celle des molécules à celles des cellules par exemple, fait apparaître des propriétés nouvelles et inattendues, qui empêchent de manipuler un système complexe de manière prévisible.

104 Interview sur le site d’Edge – The third Culture, 2008.

105 Comme on l’a vu précédemment, cette notion reflète l’assemblage de systèmes complexes non biologiques à partir de sous-systèmes orthogonaux.

106 Drew Endy mentionne précédemment dans l'article des expériences d'insertion d'ADN conduisant la bactérie E. coli à dégager une odeur de banane ou de menthe.

107 Drew Endy, «Building a New Biology», Comptes Rendus de l’Académie des Sciences, T.14, fascicule 4, 2011, p.427.

108 Luis Serrano, «Synthetic biology: promises and challenges, Molecular systems Biology», 18 décembre 2007.

109 Thomas Heams, «De quoi la biologie synthétique est-elle le nom ?, étude précitée.

110  Priscilla Purnick et Ron Weiss, «The second wave of synthetic Biology : from modules to systems», Nature, juin 2009.

111 Henri Atlan, professeur émérite de biophysique et directeur du Centre de recherche en biologie humaine à l’hôpital universitaire Hadessah de Jérusalem.

112 Antoine Danchin, professeur honoraire à la Faculté de médecine Li Ka Shing de l’Université de Hong Kong, président d’Amabiotics SAS.

113 Henri Atlan, « Le vivant post-génomique », éd. Odile Jacob, 2011.

114 Exposé de Marie Montus, lors du «Colloque sur la biologie intégrative : une nouvelle lecture des pathologie », Les Transversales santé, 18 septembre 2007.

115 Chez les eucaryotes, les exons sont les parties transcrites des gènes qui codent les protéines.

116 Henri Atlan,  «Le vivant post-génomique », ouvrage précité.

117 Cette maladie peut toucher tous les muscles, dont le muscle cardiaque. Elle se traduit par un déficit de la dystrophine, qui permet aux muscles de résister à l’effort.

118 Exposé de Marie Montus, directrice de projet en Recherche et Développement au Généthon, Evry, « Colloque sur la biologie intégrative : une nouvelle lecture des pathologies », Les Transversales santé, 18 septembre 2007.

119 Henri Atlan, op. cit. p. 57.

120 Le National Research Council est une institution qui rassemble les académies nationales des États-Unis. Le rapport ainsi visé est Sequence Based Classification of Select Agents, qui a été publié en 2010.

121 Les gènes hypothétiques sont de deux sortes : les uns existent dans différents organismes et les autres sont propres à des lignages spécifiques.

122 Jing Liang et al., « Synthetic biology: putting synthesis into biology».

123 National Research Council, Sequence Based Classification of Select Agents.

124 Un virion désigne une particule virale mûre libérée normalement dans le milieu après l’achèvement du cycle viral et capable d’infecter une nouvelle cellule.

125 Dans ce test appelé double hybride de levure (yeast two hybrid ou Y2H), les gènes codant les deux protéines sont introduits dans la même cellule de levure. Si la levure répond positivement à une protéine rapporteuse, ce qui se traduit par une modification visible de la couleur de la cellule, cela signifie que les deux protéines ont interagi dans le noyau de la levure.

126 Raik Grüberg et Luis Serrano, «Strategies for protein synthetic biology », Nucleic Acids Research, 2010 vol. 38 n° 8.

127  Daniel Sayuat et al., «Engineering and applications of genetic circuits», Molecular Biosystems, 2007.

128 Markus Schmidt, «Do I understand What I can create?»

129 Philippe Marlière,« the Farther, the safer : a manifesto for securely navigating synthetic species away from the old living world», Syst Synth Biology, 2009, article précité.

130 Victor de Lorenzo, «Environmental biosafety in the age of synthetic Biology : Do we really need a radical new approach?», Bioessays, 2010.

131  CEA Techno(s), «Un gène suicide pour "affamer" les tumeurs », n°70, mars 2004.

132  Markus Schmidt, «Do I understand what I can create?», chapitre 6 de l’ouvrage collectif «Synthetic Biology, the Technoscience and its Societal Consequences».

133 Un bloom – on parle aussi d’inflorescence – est une croissance exponentielle de populations de microalgues ou de bactéries photosynthétiques (cyanobactéries) dans les milieux aquatiques, marins ou lacustres. Les blooms peuvent provoquer la suffocation des poissons, mais aussi représenter un danger pour l’homme lorsqu’ils produisent des toxines.

134 Jonathan Tucker, «Could terrorists exploit synthetic biology?», The New Atlantis, 2010.

135 «Report on Biosecurity and Dual use research”, A report for the Dutch Research Council, janvier 2011, p.13.

136 Jonathan Tucker et Raymond Zilinskas, «The Promise and Perils of synthetic Biology», The New Atlantis, 2006.

137 Jonathan Tucker et Raymond Zilinskas, «The Promise and Perils of synthetic Biology», the New Atlantis, 2006.

138 Michele S. Garfinkel et al., «Synthetic Genomics Options for governance», octobre 2007.

139 S. N. Maurer, K.V. Lucas et S. Terrel, «From Understanding to Action. Community-Based options for Improving Safety and Security in Synthetic Biology», Berkeley, University of California, 2006.

140 Alexander Kelle, «Synthetic biology and biosecurity : From low level of awareness to a comprehensive strategy», PubliMed, 2009.

141 Michele S. Garfinkel et al., «Synthetic genomics, Options for governance», étude précitée.

142 Jonathan Tucker, «Could terrorist exploit synthetic biology », The New Atlantis, 2010, étude précitée.

143 Jonathan Tucker et Raymond Zilinskas, «Tthe promise and perils of synthetic biology », the New Atlantis, 2006, étude précitée. La tularémie est une maladie due à une bactérie (Francisella tularensis), qui se transmet à l’homme par l’intermédiaire des lièvres. La simple manipulation d’un lièvre malade ou de son cadavre suffit pour être contaminé.

144 «A report for the Dutch Research Council», Report on Biosecurity and Dual use research, janvier 2011, rapport précité.

145 L’intéressé avait été l’auteur d’un attentat à Atlanta en 1996.

146 Markus Schmidt, « Do I understand what I can create? », 2009, article précité.

147 Antoine Danchin, « Not every truth is good », EMBO report, 15 février 2002. Dans cet article, Antoine Danchin écrit notamment que « si nous [scientifiques] devions suspecter que notre recherche pourrait faire aisément l’objet d’abus, nous devrions agir de façon appropriée – même si cela signifie la non-publication de nos découvertes ».

148 Site internet d’iGEM.

149 Le National Science Advisory Board for Biosecurity est un organisme fédéral dépendant du Département de la Santé. Il est chargé de faire des recommandations sur les questions concernant les moyens d’empêcher que la recherche publiée en biotechnologie n’aide le terrorisme, sans toutefois ralentir le progrès scientifique.

150 DIY - Do it yourself (Faites-le vous-même) : c’est le nom donné à l’une des composantes de la communauté des biologistes de garage.

151 Ainsi, le FBI a-t-il financé en partie une réunion organisée les 3-4 mai 2010 en partenariat avec la Société pour la recherche médicale sur la bio-sûreté qui a été la première conférence organisée sur ce thème.

152 ETC, «Extreme genetic engineering», p.49.

153 ETC, «Extreme Genetic Engineering, p. 25.

154 ETC, «Extreme Genetic engineering», p.50.

155 Blogs, « Exxon et Craig Venter tombent en panne d’algues », Le Monde, 22 octobre 2011.

156 Rapport de la Commission présidentielle américaine de bioéthique, op.cit. p. 126.

157 Mildred Cho et David Relman, «Synthetic "Life", Ethics, National Security, and Public Discourse», Science, juillet 2010.

158 En 1975, une réunion rassemblant des spécialistes du génie génétique s’était tenue à Asilomar en Californie. Cette conférence avait examiné les expériences réalisées grâce à la technologie de l’ADN et avait précisé la nature des risques liés à ces nouvelles expériences ainsi que les précautions qui devaient être prises.

159 La Convention internationale sur la diversité biologique, adoptée en 1992, a été ratifiée par 193 Etats – dont la France – à l’exception notable des États-Unis. Elle contient dans son préambule la première formulation internationale du « principe de précaution » par lequel en cas de menace sur la biodiversité « les parties contractantes [notent] que lorsqu’il existe une menace de réduction sensible ou de perte de la diversité biologique, l’absence de certitudes scientifiques totales ne doit pas être invoquée comme raison pour différer les mesures qui permettraient d’en prévenir le danger ou d’en atténuer les effets ».

160 Jonathan Tucker et Raymond Zilinskas, «The Promise and Perils of Synthetic Biology», The New Atlantis, 2006.

161 Andrew Torrance, «Synthesizing Law for synthetic biology», Minnesota Journal of Law, Science and Technology, 2010.

162 Arti Rai et James Boyle, « Synthetic Biology: Caught between Property Rights, the Public Domain and the Commons », Plos Biology, mars 2007.

163 Trichi Saukshmya et Archana Chugh, «Commercializing Synthetic Biology: Socio-ethical Concerns and Challenges under intellectual Property Regime», Journal of Commercial biotechnology, September 2009.

164 Cour. Cass. 4 décembre 2001, France Telecom c/ Lactel et Groupadress ; Conseil d’Etat, 29 juillet 2002, Société Cogedim ; CJCE, 29 avril 2004, IMS Health.

165 L’article 27-3 dispose que « les membres pourront aussi exclure de la brevetabilité […] b) […]  les végétaux et les animaux autres que les micro-organismes et les procédés essentiellement biologiques d'obtention de végétaux ou d'animaux autres que les procédés non biologiques et microbiologiques. Toutefois, les membres prévoiront la protection de variétés végétales par des brevets, par un système sui generis efficace ou par une combinaison de ces deux moyens. Les dispositions du présent alinéa seront réexaminées quatre ans après la date d’entrée en vigueur de l’Accord sur l’OMC. »

166 Trichi Saukshmya et Archana Chugh, «Commercializing synthetic biology: Socio-ethical concerns and challenges under intellectual property regime», Journal of Commercial biotechnology, 2010.

167 Déclarations recueillies par Paul Benkimoun, «La justice européenne interdit le brevet sur l’embryon», Le Monde, 29 octobre 2011.

168 Philippe Aghion, Gibert Cette, Elie Cohen et Mathilde Lemoine : «Crise et croissance : une stratégie pour la France», Conseil d’analyse économique, 9 septembre 2011.

169 Furhead, «Global Innovation Index», 2011.

170 Index Euro Metrics, février 2011, «Innovation Union Scoreboard 2010».

171 Joseph Stiglitz, « Dying in the name of monopoly», Business Day, 9 mars 2005.

172 L’article 54, alinéa premier, de la Convention sur le brevet européen dispose qu’une invention est considérée comme nouvelle si elle n’est pas comprise dans l’état de la technique.

173 Propos rapportés par Bernard Remiche, «Révolution technologique, mondialisation et droit des brevets», Revue internationale de droit économique, 2002, T. XVI.

174 Bernard Remiche, « Révolution technologique, mondialisation et droit des brevets », 2002, étude précitée.

175 Ibid.

176 Luigi Palombi, «Beyond Recombinant Technology: Synthetic Biology and Patentable», Subject Matter, juin 2008.

177 Ibid.

178 En informatique, les portes logiques (ex : AND, OR) sont des instructions qui permettent de faire fonctionner un microprocesseur.

179 Arti Rai et James Boyle: «Synthetic Biology :Caught between Property Rights, The Public Domain and the Common», Plos Biology, 13 mars 2007.

180 James Boyle, «Monopolists of the Genetic Code, The Public Domain», 28 mai 2010.

181 Arti Rai et James Boyle «Synthetic biology : Caught between Property Rights, The Public Domain and the Commons», Plos Biology, mars 2007.

182 Andrew W. Torrance, «Synthesizing law for synthetic biology», Minnesota Journal of law, 2010, étude précitée.

183 Bernard Remiche, «Révolution technologique, mondialisation et droit des brevets», Revue internationale de droit économique, étude précitée.

184 Arti Rai and James Boyle, «Synthetic Biology : Caught between Property Rights, the Public Domain, and the Commons», Plos Biology, 13 mars 2007.

185 Sam Auyoung et al., «Synthetic Biology & Intellectual Property», 6 décembre 2007.

186 Jay Keasling, «The promise of synthetic biology», The Bridge, hiver 2005, Vol. 35.

187 Andrew W. Torrance, «Synthesizing Law for Synthetic Biology», Minnesota Journal of law, science and technology, 2010.

188 «Fabriquer la vie», Seuil, 2011.

189 Andrew Torrance, «Synthesizing law for synthetic biology», article précité.

190 Propos de Drew Endy, tenus lors du symposium de Washington de juillet 2009, cité par F. Roure, dans son article précité, «BS : une structuration rapide du paysage technologique, scientifique et institutionnel international qui requiert un investissement public à la hauteur des enjeux.»

191 B. Bensaude-Vincent et D. Benoît-Browaeys, « Fabriquer la vie», ouvrage précité.

192 F. Roure, article précité.

193 Haplotype : terme principalement utilisé en immunologie pour désigner la totalité des différents gènes présents et génétiquement liés sur un même chromosome.

194 Arti Rai et James Boyle, «Synthetic Biology : Caught between Property Rights, The Public Domain and The Commons», Plos Biology, 13 mars 2007, article précité.

195 Andrew W. Torrance, «Synthesizing law for synthetic biology», Minnesota Journal of law, science and technology, 2010, article précité.

196 Richard Jefferson, «Science as Social Enterprise», the CAMBRIA BIOS Initiative, Innovations, automne 2006.

197 Joachim Henkel et Stephen Maurer, «The economics of synthetic biology, Molecular Systems Biology», Volume 3, 2007.

198 «Toward interoperable biosciences data», Sansonne et al., Nature Genetics, volume 44(2), February 2012, cf. tome II, Annexes.

199 «Biologie : l’ère numérique », Magali Roux (dir.) CNRS éds., Paris (2009).

200 «Biologie systémique – standards et modèles», Magali Roux (dir.) Omniscience, Paris (2007).

201 op.cit.

202 «Biologie : l’ère numérique », Magali Roux (dir.) CNRS éds., Paris (2009).

203 «Glaxo Tries a Linux Approach», The Wall Street Journal, 26 mai 2010.

204 Cf. encadré sur les principaux autres systèmes d’open source, p. 139.

205 pro.01net.com/editorial/514993/ibm-hausse-le-ton-face-a-turbohercules

206 Sam Auyoung et al., «Synthetic Biology and Intellectual Property», December 2007.

207 Joachim Henkel et Stephen Maurer, «The economics of synthetic biology, Molecular Systems Biology», volume 3, 2007, étude précitée.

208 Arti Rai et James Boyle, «Synthetic Biology: Caught between Property Rights, the Public Domain and the Commons», Plos Biology, 13 mars 2007, article précité.

209 Dianne Nicol, «Cooperative Intellectual Property in Biotechnology», Script-Ed, A Journal of Law, Technology and society, Vol.4, 2007.

210 «HTC poursuit de nouveau Apple pour trois brevets», Developpez.com, 17 août 2011.

211 Voir, par exemple, le rapport établi pour l’OPECST par Jean-Yves Le Déaut : « La place des biotechnologies en France » (AN n° 2046, 26 janvier 2005).

212 L’Energy Biosciences Institute, créé en 2007, résulte d’une initiative conjointe de l’Université de Bekerley, l’Université de l’Illinois Urbana-Champaign, le Lawrence Bekerley National Laboratory et le groupe BP.

213 Françoise Roure, «Biologie de synthèse : une structuration rapide du paysage technologique, scientifique et institutionnel international qui requiert un investissement public à la hauteur des enjeux», Réalités industrielles, février 2010, p. 15.

214 EASAC, «Realising European potential in synthetic opportunities and good governance», janvier 2011.

215 Il s’agit, en effet, de façonner le génome de la bactérie pour répondre aux besoins des industriels.

216 Lei Pei, Sibylle Gaisser et Markus Schmidt, «Synthetic biology in the view of European public funding organisations», Public understanding of Sciences, 2011.

217 Arabidopsis est une plante de la famille des brassicacées (crucifères), à laquelle appartiennent de nombreuses espèces cultivées utilisées dans l’alimentation (chou, navet, radis, moutarde, etc.). Plusieurs de ses caractéristiques en ont fait un modèle utilisé en biologie végétale et en biologie fondamentale.

218 Lei Pei, Sibylle Gaisser et Markus Schmidt, «Synthetic biology in the view of European public funding organisations», Public understanding of Sciences, 2011.

219 Un programme blanc est ouvert à toutes les thématiques et à tous les types de travaux de recherche, des projets les plus académiques jusqu’aux recherches menées dans le cadre de partenariats avec les acteurs socio-économiques.

220 Cette donnée m’a été confirmée par François Képès.

221 Le dictionnaire Robert de la langue française définit ce principe comme la qualité de ce qui concerne plusieurs sciences à la fois.

222 Natalie Kuldell, «Authentic teaching and learning through synthetic biology», Journal of biological engineering, V.1, 2007.

223 Eric Perrot, «La biologie synthétique au Japon», service pour la Science et la technologie de l’ambassade de France au Japon, 15 décembre 2011.

224 Randy Rettberg, qui est le directeur d’iGEM, a déclaré, lors d’un symposium qui s’est tenu à Washington en 2009, avoir été saisi d’une demande de participation d’une équipe d’Iran. Il n’y a toutefois pas donné suite, pour des raisons de nature diplomatique.

225 Bernadette Bensaude-Vincent et Dorothée Benoît-Browaeys comparent les participants à des footballeurs en compétition, du fait des vêtements de couleurs qu’ils arborent, «Fabriquer la vie», Seuil, 2011.

226 David Bikard et François Képès, «  Succès de la première équipe française lors de la compétition iGEM de biologie synthétique. », Médecine / Sciences 2008, 24, p. 541.

227 National Academy of Sciences, National Academy of Engineering, Institute of Medecine, « Rising above the Gathering storm revisited», 2010. Ce rapport revisite les analyses et les conclusions d’un précédent rapport de 2005 sur les causes de la perte du leadership des États-Unis dans les domaines de l’économie, de la science et de l’innovation, et les moyens d’y remédier.

228 Jean-Marie Rolland, «L’enseignement des disciplines scientifiques dans le primaire et le secondaire»

(Rapport AN n° 3061, déposé le 2 mai 2006).

229 Intervention lors de l’audition publique organisée le 12 octobre 2011 par Claude Birraux, Président de l’OPECST et par Jean-Yves Le Déaut, Vice-président de l’OPECST, « Quels outils pour une société innovante ?»

230 Intervention au colloque « Vérités scientifiques et démocratie », Assemblée nationale, 7 décembre 2011.

231 Le 5e degré correspond à la classe de CM1 et le 8e à la classe de 5e du collège.

232 Alliance Aviesan, « Bases moléculaires et structurales du vivant », rapport précité, janvier 2011.

233 Les auteurs du rapport suggèrent que cette situation est imputable au souhait de ne pas décourager les étudiants.

234 La biocatalyse peut être définie comme l’accélération d’une réaction biochimique par une substance (biocatalyseur), qui n’est pas modifiée dans sa composition et sa concentration lorsque la réaction s’achève.

235 Eric Perrot, « La biologie synthétique au Japon », service pour la Science et la technologie de l’ambassade de France au Japon, 15 décembre 2011.

236 Lei Pei et al., «Synthetic Biology in the View of European public funding Organisation», Public Understanding of Science, 2011.

237 Eric Perrot, «La biologie synthétique au Japon», service pour la Science et la technologie de l’ambassade de France au Japon, 15 décembre 2011.

238 D’après le sondage publié par le magazine La Recherche – Les Français et la science, numéro de septembre 2011 - les chercheurs se voient accorder la plus grande crédibilité : 92 % des personnes interrogées leur font confiance (7 % non et 1 % d’indécis). Les réponses concernant les associations de consommateurs sont respectivement : 43 %, 36 % et 1 %.

239 La Recherche, sondage précité sur les Français et la science, septembre 2011.

240 Propos recueillis par Aurélie Barbaux, « Pourquoi le débat sur la nanotechnologie tourne-t-il court ? » L’Usine nouvelle, 13 janvier 2010.

241 Karin Gavelin, Richard Wilson et Robert Doubleday, « The final report of the Nanotechnology Engagement Group », 2007.

242 Les participants ont exprimé la crainte que le Gouvernement ne tienne pas compte de leurs préoccupations.

243 Mildred Cho et David Relman, «Synthetic "life ", Ethics, National Security and Public Discourse», Science, juillet 2010.

244 L’affaire de l’arrachage des vignes OGM expérimentales de l’INRA de Colmar en 2010 en constitue l’une des illustrations.

245 Ces personnes-relais sont, semble-t-il, celles que le rapport appelle également « ambassadeurs », dont la fonction est, après avoir été identifiées, de sensibiliser les structures intervenant auprès des étudiants et des collégiens.

246 Intervention à l’audition publique de l’OPECST organisée par Claude Birraux et Jean-Yves Le Déaut, le 26 mai 2011, « Quelles innovations pour la société de demain ? ».

247 L’expérience a été annoncée en mai 2010, alors que le dialogue était déjà achevé.

248 Büro für Technikfolgen Abschätzung beim Deutscher Bundestag : Bureau chargé de l’appréciation des conséquences techniques du Bundestag. Ce groupe d’experts élabore un rapport sur la BS.

249 Cf. tome II, Annexes.


© Assemblée nationale