N° 3658 - Rapport de MM. Claude Birraux, Daniel Raoul et Claude Saunier, établi au nom de cet office, sur les nanotechnologies: risques potentiels, enjeux éthiques (compte rendu de l'audition publique du 7 novembre 2006)




N° 3658

___

ASSEMBLÉE NATIONALE

CONSTITUTION DU 4 OCTOBRE 1958

DouziÈme législature

__________________________________

Enregistré à la Présidence de l'Assemblée nationale

Le 05 février 2007

 

N° 208

___

SÉNAT

Session ordinaire de 2006 - 2007

________________________________

Annexe au procès-verbal

de la séance du 06 février 2007

     

OFFICE PARLEMENTAIRE D'ÉVALUATION

DES CHOIX SCIENTIFIQUES ET TECHNOLOGIQUES

________________________

COMPTE RENDU DE L'AUDITION PUBLIQUE

du 7 novembre 2006

sur

Les nanotechnologies :
risques potentiels, enjeux
Éthiques

_________

Déposé sur le Bureau
de l'Assemblée nationale

par M. Claude BIRRAUX,

Premier Vice-Président de l'Office

 

_________

Déposé sur le Bureau du Sénat

par M. Henri REVOL,

Président de l'Office

     

_______________________________________________________________________

Composition de l'Office parlementaire d'évaluation

des choix scientifiques et technologiques

Président

M. Henri REVOL

Premier Vice-Président

M. Claude BIRRAUX

Vice-Présidents

M. Claude GATIGNOL, Député M. Jean-Claude ÉTIENNE, Sénateur

M. Pierre LASBORDES, Député M. Pierre LAFFITTE, Sénateur

M. Jean-Yves LE DÉAUT, Député M. Claude SAUNIER, Sénateur

Députés

Sénateurs

M. Jean BARDET

M. Christian BATAILLE

M. Claude BIRRAUX

M. Jean-Pierre BRARD

M. Christian CABAL

M. Alain CLAEYS

M. Pierre COHEN

M. Francis DELATTRE

M. Jean-Marie DEMANGE

M. Jean DIONIS DU SÉJOUR

M. Jean-Pierre DOOR

M. Pierre-Louis FAGNIEZ

M. Claude GATIGNOL

M. Louis GUÉDON

M. Christian KERT

M. Pierre LASBORDES

M. Jean-Yves LE DÉAUT

M. Pierre-André PÉRISSOL

M. Philippe ARNAUD

M. Paul BLANC

Mme Marie-Christine BLANDIN

Mme Brigitte BOUT

M. Marcel-Pierre CLÉACH

M. Roland COURTEAU

M. Jean-Claude ÉTIENNE

M. Christian GAUDIN

M. Pierre LAFFITTE

M. Serge LAGAUCHE

M. Jean-François LE GRAND

Mme Catherine PROCACCIA

M. Daniel RAOUL

M. Ivan RENAR

M. Henri REVOL

M. Claude SAUNIER

M. Bruno SIDO

M. Alain VASSELLE

Office parlementaire d'évaluation des choix

scientifiques et technologiques

(OPECST)

______________

« Les nanotechnologies :

risques potentiels, enjeux éthiques »

_____________

Compte rendu de l'audition publique du

Mardi 7 novembre 2006

Assemblée nationale - salle 4325

Table des matières

M. Claude SAUNIER, M. Philippe MARTIN, Mme Marie-Christine BLANDIN, Sénatrice du Nord-Pas-de-Calais, M. Jean-Yves Le DÉAUT, Député de Meurthe-et-Moselle, M. Jean THERME, M. Daniel RAOUL,
M. Claude BIRRAUX

Débat 46

M. Claude BIRRAUX, Docteur Patrice MARCHE, Directeur de l'unité de recherche contrôle de la réponse immunitaire spécifique de l'INSERM, Docteur Michèle Froment-Védrine

M. Claude BIRRAUX, M. Pierre GUIMBERTIÈRE, M. Louis LAURENT, Mme Bernadette BENSAUDE-VINCENT, Mme Dominique DONNAY-KAMEL, INSERM, Mme Claudia NEUBAUER, Fondation Sciences citoyennes, M. Hubert SEILLAN, Directeur de la Revue Préventique, M. Jean THERME, M. Jean-Yves LE DÉAUT, Mme Cécile MICHAUT, Journaliste scientifique

M. Claude BIRRAUX, M. Daniel RAOUL, Docteur Patrice MARCHE, Professeur François BERGER

Les nanotechnologies :
gestion des risques et questions Éthiques

Présidence de

M. Claude BIRRAUX, Député de Haute-Savoie,
Premier Vice-Président de l'OPECST,

M. Daniel RAOUL, Sénateur du Maine-et-Loire

M. Claude SAUNIER, Sénateur des Côtes-d'Armor,
Vice-Président de l'OPECST

avec la participation de

M. Jean THERME, membre du conseil scientifique de l'OPECST

Ouverture par

M. Claude BIRRAUX, Député de Haute-Savoie,
Premier Vice-Président de l'OPECST, et
M. Claude SAUNIER, Sénateur du Maine-et-Loire

Ouverture par M. Claude BIRRAUX, Député,
et M. Claude SAUNIER, Sénateur

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Mesdames, Messieurs, chers collègues, pour ouvrir cette audition publique, organisée par l'Office parlementaire d'évaluation des choix scientifiques et technologiques sur la gestion des risques et les questions éthiques liées au développement des nanotechnologies, je souhaite tout d'abord vous remercier, et remercier l'ensemble des intervenants et participants.

Je leur sais d'autant plus gré d'avoir répondu favorablement à notre demande, qu'en raison de la multiplication, en France et à l'étranger, de colloques, conférences, rencontres, ayant pour thème les nanotechnologies, leur disponibilité n'était pas assurée. Je regrette, à cette occasion, qu'un certain nombre de personnalités contactées, en particulier dans le milieu industriel, n'aient pu se joindre aujourd'hui à ce débat.

Mon introduction sera brève. Je vais laisser chacun de vous s'exprimer sur le sujet et je vous remercie de faire des exposés concis, afin de permettre les échanges, et de rendre notre rencontre plus vivante.

J'évoquerai deux convictions.

La première concerne le rôle irremplaçable du Parlement, dans un débat tel que celui qui prend corps actuellement sur les nanotechnologies, et plus particulièrement la place qu'il convient de réserver à l'Office parlementaire dans ce débat qu'il a introduit, sans l'épuiser, avec les rapports de mes deux excellents collègues sénateurs, MM. Claude Saunier et Daniel Raoul.

J'entends et je lis de nombreuses choses sur la gestion démocratique des nanotechnologies. Les initiatives foisonnent; elles visent à créer de nouvelles structures, à organiser de nouveaux espaces de débat citoyen, en s'inspirant de modèles étrangers ou en tirant les enseignements de ce qui s'est passé en Europe pour les organismes génétiquement modifiés (OGM).

Permettez-moi deux remarques.

En ce qui concerne les modèles étrangers, j'ai pu lire dans un mensuel que la France n'est pas vraiment en pointe. Je ne le crois pas. J'ai récemment effectué plusieurs missions pour examiner les structures parlementaires, chargées, comme notre Office parlementaire, d'évaluer les conséquences des choix scientifiques et technologiques. Je peux aujourd'hui vous affirmer qu'il existe, dans ce domaine, une exception française.

Le Parlement français est l'un des seuls Parlements à s'être doté d'un outil exclusivement parlementaire, indépendant, assurant en permanence l'interface entre les experts, d'une part, et la société d'autre part. Ailleurs, le système est conçu différemment : soit l'organe parlementaire s'abstient de faire des recommandations, soit il confie à des experts qu'il rémunère, le soin d'examiner le dossier, soit il reçoit les conclusions de groupes de travail, dont l'indépendance vis-à-vis du gouvernement ou des lobbies de tous ordres, industriels, scientifiques ou militants, n'est nullement garantie.

Je ne cherche pas, en disant cela, à insinuer que le dispositif français se suffirait à lui-même, et que l'organisation de débats citoyens serait superfétatoire. Je voudrais seulement que l'on approfondisse le débat, en tenant compte des structures démocratiques qui existent et fonctionnent bien, et non en les ignorant.

En ce qui concerne le parallèle avec les OGM, thème sur lequel l'OPECST a plusieurs fois travaillé, je signale que ce même OPECST, sous la direction de M. Jean-Yves Le Déaut, a même organisé une conférence de citoyens, ce que tout le monde a oublié ou feint d'oublier, parce que les conclusions n'étaient pas conformes à ce que l'on en attendait, ou simplement parce que l'on n'y avait pas participé.

C'est aujourd'hui à la mode de réunir dans un château, pendant trois week-ends, vingt personnes choisies comme un échantillon dit représentatif de la société. Les deux premiers week-ends, vous les formez à la problématique, le troisième, ils vous donnent la solution que la société attend, et que tous les autres pauvres idiots ayant travaillé sur le sujet n'arriveront jamais à trouver, et ne comprendront jamais. C'est une conception un peu particulière du débat démocratique.

Peut-on éviter la duplication, pour les nanotechnologies, des mouvements d'opinion, des affrontements ou des mécanismes d'évaluation a priori, de traçabilité, d'étiquetage que l'on a connus pour les OGM ? Peut-on appliquer sans discernement, en oubliant le principe du cas par cas, les mêmes méthodes ne peuvent conduire qu'aux mêmes effets.

Cela m'amène à formuler ma deuxième conviction : l'importance primordiale, dans le domaine qui nous préoccupe, de la recherche en laquelle nous devons avoir confiance. La plupart des interrogations que les citoyens, les hommes politiques et les experts se posent, ne peuvent trouver de réponses que grâce à la recherche fondamentale et appliquée. C'est la recherche qui nous conférera les moyens de mieux connaître les caractéristiques, les effets, le cycle de vie des nanoparticules libres, fabriquées par les nanoindustries ou générées par d'autres processus, comme l'échappement des véhicules. C'est la recherche qui nous permettra de disposer des instruments nécessaires de mesure et de détection des nanoparticules et qui nous fournira les repères nécessaires, pour analyser rationnellement les questions éthiques que nous nous posons. Cette recherche a une dimension pluridisciplinaire, et doit intégrer les sciences humaines et sociales.

Cela suppose du temps, des financements adaptés s'appuyant sur les collaborations à l'intérieur de notre territoire, et avec des partenaires étrangers.

Cependant, s'il faut du temps, il peut aussi y avoir urgence : urgence à mieux connaître les nanoparticules, urgence à mieux en identifier les risques, avérés ou potentiels, pour mieux les prévenir et mieux informer.

Je vous remercie pour votre attention. Je vais maintenant donner la parole à mon excellent collègue et Vice-Président de l'Office parlementaire, M. Claude Saunier, qui a réalisé le rapport de l'Office parlementaire sur l'évolution du secteur des semi-conducteurs et ses liens avec les micro et nanotechnologies, et qui va nous faire part de ses réflexions en la matière.

M. Claude SAUNIER, Sénateur des Côtes-d'Armor, Vice-Président de l'OPECST, Auteur du rapport sur «l'évolution du secteur des semi-conducteurs et ses liens avec les micro et nanotechnologies» (1) : Je vous remercie Monsieur le Président. Mesdames, Messieurs, je m'associe aux propos de M Claude Birraux pour vous remercier de votre participation en si grand nombre à cette journée de travail.

Comme M. Claude Birraux l'a indiqué, nous sommes présents avant tout pour vous écouter, et mon propos sera bref. Je l'articulerai autour de trois questions. Le point de départ de ma réflexion est, en effet, le rapport que l'OPECST m'a confié en 2002-2003, à l'élaboration duquel un certain nombre d'entre vous a d'ailleurs très activement participé. Le deuxième thème de cette réflexion est précisément cette période 2002-2003, qui, me semble-t-il, a été une période de rupture. Le troisième thème sera constitué par les questions que nous souhaitons vous voir aborder au cours de la journée, et les éléments de réponse.

Le rapport de janvier 2003, et cela est significatif, m'avait été commandé par l'OPECST, sous le titre « Quelle est l'évolution et la situation des microtechnologies? ». Chemin faisant, nous avons découvert, au-delà des microtechnologies, la problématique des nanotechnologies, et orienté notre étude en conséquence. Ce rapport se situe dans l'esprit de l'époque. Avec un contenu fortement technologique et économique, il a essayé de mettre en évidence les enjeux stratégiques pour la France, pour l'Europe, et a débouché sur certaines propositions. Il se caractérise par sa technicité, par une tonalité globalement optimiste, puisqu'à cette époque là, je recevais ce type de message de ceux et celles que j'avais rencontrés, en tant qu'enquêteur parlementaire.

Je voudrais vous signaler un élément anecdotique. Au cours de cette grande enquête, j'ai eu l'occasion de participer pendant quelques heures à un symposium mondial sur les nanotechnologies à Albany. Comme j'avais peu de temps, les organisateurs de cette réunion ont bien voulu me consacrer une heure pour un échange informel, en marge du symposium. J'ai donc eu la chance de rencontrer les principaux interlocuteurs et spécialistes de la question aux États-Unis.

J'étais à la fois émerveillé et interrogatif sur les effets de ce qu'ils m'annonçaient en 2003. Je leur demandai s'ils ne craignaient pas que la société ne se pose des questions sur tel ou tel sujet qu'ils abordaient. Ces chercheurs, en toute bonne foi, découvraient qu'en effet leurs découvertes, leurs inventions, leurs apports, pouvaient avoir des effets parfois incertains sur la société. C'est donc dans cet état d'esprit que j'ai rédigé de façon très positive les conclusions de mon rapport.

De plus, comme on le sait, 2003 a été une période charnière, riche en événements. On peut la considérer globalement comme un moment de basculement car le regard sur les nouvelles technologies a quelque peu changé cette année-là. Des interrogations ont été formulées, issues en particulier des pays anglo-saxons, où certaines initiatives ont été prises, et des rapports et des articles rédigés. Cela a été relayé en France, comme l'atteste une manifestation très spectaculaire à l'occasion de l'inauguration de Minatec, où, pour la première fois dans le monde, des interrogations sur les nanotechnologies se sont exprimées.

Le changement est donc incontestable. Nous ne sommes plus dans une situation de confiance euphorique, et les membres de l'Office parlementaire craignent qu'une sorte de syndrome OGM ne s'empare des nanotechnologies. Nous souhaitons prendre les devants, et essayer de faire en sorte qu'il n'y ait pas cette rupture entre l'opinion publique et le monde scientifique sur cette question centrale.

L'objectif de cette journée n'est pas de faire le point sur les nanotechnologies : nous disposons de rapports, de publications, d'informations etc. Il serait cependant intéressant qu'un cadrage général soit fait pour que l'on perçoive mieux, dans une approche raisonnée, la situation des nanotechnologies.

Notre principale préoccupation est de percevoir clairement votre sentiment et de connaître votre opinion sur les risques classiques d'ordre toxicologique, liés à la production, à la recherche, à l'usage, immédiat à moyen ou long terme, etc. Au-delà de ce type de risques physiques ou chimiques, il en existe d'autres, liés à l'usage personnel ou collectif des nanotechnologies, qui renvoient à des questions d'éthique, au cœur de la problématique que nous voudrions aborder ce jour.

Nous souhaitons, en outre entendre de votre part, les interrogations que vous pouvez avoir, et les mesures que vous proposez. Comment éviter le blocage entre le monde scientifique et la société ? Doit-on envisager un moratoire, des normes ? Je n'entre pas dans les détails, l'objet même de cette journée est de nous éclairer en la matière.

Le débat sur les nanotechnologies me semble révélateur d'un débat plus général et plus ample sur les relations entre la science et la société aujourd'hui. C'est une véritable question, de caractère très politique. Assez paradoxalement, à l'heure où notre société est structurée, façonnée par les apports de la science, une méfiance irraisonnée envers le progrès scientifique se développe. La question renvoyée est de savoir qui décide de quoi, comment se fait l'articulation entre les citoyens, les scientifiques et les politiques. À quelques mois d'un important rendez-vous démocratique où nous aurons de grandes questions à aborder collectivement, il nous a semblé important que l'OPECST apporte sa contribution en posant sur la table la question des nanotechnologies, et en corollaire celle des relations du monde scientifique et des citoyens.

M. Claude BIRRAUX Député, Premier Vice-Président de l'OPECST : Je vous remercie, cher collègue. M. Jean-Philippe Bourgoin, vous êtes spécialiste des nanotechnologies moléculaires, chef du laboratoire d'électronique moléculaire au CEA-Saclay. Vous avez effectué un stage postdoctoral chez IBM, sous la direction du Professeur Rohrer, prix Nobel 1986. Vous avez créé et dirigé un laboratoire commun Motorola-CEA, vous êtes expert auprès de nombreuses agences internationales ou nationales, et impliqué dans des projets européens. Vous êtes Directeur du programme nanosciences du CEA. Vous allez planter le décor, avant que nous entrions dans le débat.

Présentation des nanotechnologies

M. Jean-Philippe BOURGOIN, Directeur du programme nanoscience, au CEA : Je vous remercie Monsieur le Président. Je vous présenterai un rapide panorama du domaine des nanosciences qui commencent en dessous de 100 nanomètres. Au niveau des objets naturels, cette taille est celle des protéines et aussi celle des nanoparticules de poussière émises par les volcans, premiers producteurs de nanoparticules. Au niveau des objets artificiels, c'est celle des nanotubes de carbone, des nanofils, des assemblages moléculaires et supra moléculaires, les boîtes quantiques par exemple, ainsi que celle des agrégats de semi-conducteurs. À cette échelle, d'une part, les disciplines classiques chimie, physique, biologie, électronique voient leurs frontières s'estomper et, d'autre part, les lois physiques de notre monde classique macroscopique ne s'appliquent plus telles quelles.

Depuis une vingtaine d'années (le prix Nobel sur le microscope à effet tunnel a été décerné en 1986), l'évolution des techniques a transformé en réalité quotidienne, dans les laboratoires, le travail à l'échelle du nano objet unique. Il est ainsi possible de manipuler les atomes, un par un, avec un microscope à effet tunnel, ou encore de mesurer, grâce à un dispositif dit de jonction à cassure, les propriétés de conduction électrique d'un seul atome permettant d'établir les lois de conduction de l'électricité à cette échelle.

Il est également possible de manipuler une seule molécule, par exemple une biomolécule, en utilisant la technique des pinces optiques où la pression d'une radiation lumineuse est appliquée sur une microbille, à laquelle est attachée une biomolécule, permettant de l'étirer, et de mesurer les forces qui sont utilisées pour la déplacer. C'est en utilisant une technique de ce type qu'une collaboration entre l'École Normale Supérieure et l'université de Delft a permis de comprendre comment fonctionnait un topoisomérase, enzyme jouant un rôle crucial dans la division cellulaire.

À une échelle un peu plus grande, les systèmes nano électromécaniques à base d'un seul nano objet, comme un nanotube de carbone, sont réalisables : on peut en faire de petits moteurs. Ce type de système présente un intérêt pour les capteurs de force, pour le triage moléculaire dans des systèmes de micro physique, ainsi que pour fabriquer des miroirs adaptatifs.

Le domaine des nanotechnologies est un enjeu majeur pour le siècle à venir.

Du point de vue scientifique et technologique, il s'agit d'être capable d'observer le nanomonde, de comprendre les lois qui le régissent, de synthétiser les objets dotés des propriétés souhaitées et de construire les systèmes associés.

L'enjeu économique est également important. Les nanotechnologies sont aujourd'hui essentiellement synonymes de haute technologie, et constituent un élément important de la compétitivité économique; les prévisions s'établissant autour de 1 000 milliards d'euros pour les produits finis à l'horizon de 2010. Il est un fait certain qu'en 2005, 10 milliards d'euros ont été injectés dans la recherche et le développement au niveau mondial.

Les enjeux sociétaux sont également nombreux, comme cela a été évoqué, et feront tout l'objet de cette réunion. Bien qu'ils soient extrêmement importants, je ne les développerai pas à ce stade.

Nanosciences et technologies interviennent dans de très nombreux secteurs, sur trois plans essentiellement :

Les industries traditionnelles où l'on travaille à cette échelle : la catalyse, la pharmacie, la cosmétique, le traitement de surface : les matériaux etc.

- Les industries disposant d'une feuille de route contraignante, avec l'exemple emblématique de l'électronique devenue naturellement microélectronique, puis nanoélectronique, ainsi que le stockage magnétique d'informations, les disques durs, etc.

Les innovations issues des laboratoires, avec de nouveaux objets comme les nanotubes de carbone, les boîtes quantiques, l'électronique moléculaire, la nanophotonique dont on attend qu'ils diffusent dans divers secteurs tels que l'électronique, l'éclairage, les matériaux, le domaine de la sécurité.

Par ailleurs, on s'attend à la création de nouvelles industries, ou, à terme, à des mutations significatives, voire profondes, dans les usages, ainsi que dans les matériaux et procédés de fabrication, au travers des convergences technologiques notamment. De même, la robotique pourrait fortement évoluer avec des nouveaux matériaux dits « intelligents ».

Une nouvelle relation science /technologie /marché.

Les nanotechnologies sont un secteur où l'on connaît, d'une part, une augmentation très forte du rythme d'innovations et, d'autre part, un impact grandissant de l'économie de la connaissance, ainsi qu'une réduction très significative du temps d'accès au marché. Une nouvelle relation entre sciences et technologies s'établit. Traditionnellement, de toute avancée scientifique, résultait une avancée technologique. Dans le domaine des nanotechnologies et des nanosciences, on constate un phénomène de rétroaction, les avancées technologiques deviennent indispensables aux avancées scientifiques. Il est important de maîtriser cette relation nouvelle pour tenir une place dans la compétition internationale, et y associer une indispensable réactivité.

Trois exemples peuvent illustrer mes propos :

Premier exemple, c'est l'électronique de spin.

En 1988, Albert Fert à Orsay et Peter Grünberg à Jülich, découvrent la magnéto-résistance géante : la variation des propriétés de résistance électrique avec l'application d'un champ magnétique. En 1997, cette découverte est appliquée en grand volume, pour la réalisation des têtes de lecture des disques durs, permettant le développement de l'industrie du disque dur. Deux éléments sont à retenir :

- Premièrement le délai de neuf ans est très court entre la découverte fondamentale et la mise sur le marché du point de vue du développement, comparativement à celui du laser pour lequel les travaux initiaux fondateurs de Towes, Maidman et Kastler s'échelonnent entre 1959 et 1961 et la diffusion grand public commence en 1982 avec le compact disc.

- Le même type de réduction pour les mémoires magnétiques appelle mon deuxième commentaire. Ces nouvelles technologies apportent des avantages potentiels tout à fait conséquents, en particulier du point de vue de la problématique énergétique et du développement durable. Ainsi dans la Tour Montparnasse, le parc d'ordinateurs installés utilise des mémoires classiques qui dissipent de l'énergie. Remplacées par des mémoires magnétiques non volatiles et de faible consommation, un gain de 1/2 Méga-Watt pourrait être réalisé, ce qui est loin d'être négligeable.

Le deuxième exemple, ce sont les nanomatériaux, en particulier les nanomatériaux pour l'énergie. La pile à combustible, qui utilise de l'hydrogène et de l'oxygène pour former de l'eau et de l'électricité, se sert de catalyseurs pour dissocier l'hydrogène. Ces catalyseurs permettent de former des protons, aujourd'hui à base de platine. Or, le platine est cher et peu abondant sur la terre. L'objectif majeur est donc d'obtenir du platine efficace avec une densité de moins 0,1 mg/cm2. C'est la formulation du platine sous forme de nanoparticules qui va permettre d'atteindre cet objectif, auquel travaille le laboratoire d'innovations pour les technologies des énergies (LITEN) du CEA à Grenoble.

On obtiendra ainsi une augmentation du rendement de conversion, amenant une réduction des coûts et un impact sur le développement durable. À plus long terme, c'est la compréhension du mécanisme des enzymes qui pourra donner de nouveaux catalyseurs plus performants. C'est peut-être de la compréhension des fonctionnements des suites catalytiques que proviendront les nouvelles générations de catalyseurs, car le vivant effectue, avec les hydrogenénases, des transformations très efficaces de l'hydrogène.

Le troisième exemple est issu du domaine de la santé. Les nanoparticules, dont les propriétés optiques et la couleur dépendent de la taille, peuvent être associées à des marqueurs biologiques pour aller marquer spécifiquement un processus biologique, comme un ensemble de cellules éventuellement malades. On sonde d'abord en décorant une cellule ou un objet biologique in vitro ou in vivo avec des nanoparticules de taille et de couleur données, car si les nanoparticules sont colorées c'est parce qu'elles absorbent l'énergie lumineuse qui les éclaire ; cette absorption peut être utilisée pour décomposer thermiquement des cellules malignes. On peut, par exemple, suivre la dynamique des récepteurs dans les membranes neuronales. C'est dire l'intérêt que ces propriétés représentent pour la compréhension du transport de l'influx nerveux et des maladies associées. On peut aussi, à l'aide de nanoparticules, espérer soigner. En éclairant et chauffant les nanoparticules, l'ensemble de cellules malignes qu'elles ciblaient, peut être détruit. Des traitements photo thermiques anti-tumoraux devraient donc apparaître.

Trois catégories d'enjeux me paraissent caractéristiques dans le domaine des nanosciences et des nanotechnonologies.

D'abord, au niveau international, coopération et compétition vont de pairs et la « coopétition » (mauvais néologisme) devient la norme pour mettre en commun la propriété intellectuelle, pour élargir la base de recherche par des collaborations, et pour mutualiser les coûts d'investissements qui, en raison des relations nouvelles entre sciences et technologies déjà évoquées, augmentent très fortement. Ce qui se produit dans le domaine de la micro-nanoéléctronique pour obtenir des miniaturisations est particulièrement révélateur. La poursuite de la loi de Moore, modèle économiquement rentable dans ce domaine, impose en effet des investissements colossaux.

On observe des regroupements en France, autour de Grenoble, de Crolles, entre le laboratoire d'électronique, de technologie de l'information (LETI), du CEA, l'Alliance université-entreprises de Grenoble et d'autres industriels comme la Soitec. Ces regroupements visent à mettre des moyens en commun et amortir les coûts d'investissement de la recherche.

Au niveau européen, l'ENIAC (European Nanoelectronic Initiative Advisory Council) est chargé d'organiser cette « coopétition», dans le domaine électronique.

Second enjeu, les nanotechnologies constituent un socle d'innovations dans bon nombre de secteurs clé, au coeur du développement présent et futur de plusieurs industries majeures.

Dans le domaine de l'électronique, la poursuite de la loi de Moore reste évidemment une tendance lourde, et la valeur ajoutée provient de plus en plus d'une diversification des technologies embarquées sur les puces qui font aussi largement appel aux nanotechnologies. Chacune de ces nouvelles technologies a elle-même une bonne part de composante nanotechnologique. À échéance d'une dizaine d'années, ce sont les développements qui se produisent aujourd'hui en nanosciences qui permettront à cette industrie de perdurer.

Le troisième enjeu important concerne les convergences technologiques.

Au-delà des technologies de l'information et de la communication, les nanotechnologies apparaissent vraiment comme la base d'innovation pour les technologies de l'énergie, de la santé qui constituent le troisième enjeu. Elles préparent aujourd'hui la convergence technologique de demain : nano, biologie, informatique, sciences cognitives, énergie. Demain, les recherches menées en nanosciences vont fortement accélérer ces convergences.

Il existe déjà aujourd'hui certaines convergences entre domaines, deux à deux. Entre bio et nano, se développent des biocapteurs, des biopuces ; entre bio et informatique se développent génomique et protéomique ; entre sciences cognitives et informatique, se développent les neurosciences, les premiers modèles de fonctionnement du cerveau, les neurones formels en informatique, l'architecture de calculateurs neuromorphiques.

Les nanotechnologies issues de disciplines dont les frontières s'estompent, avec un rapport sciences/technologies très intime, ont un caractère pluridisciplinaire et sont perçues comme devant accélérer fortement le mécanisme des convergences technologiques, posant autant de nouvelles questions entraînant d'autres questions.

J'illustrerai ce propos par des neurones de rat ou d'escargot déposées sur une micro puce permettant d'enregistrer l'activité neuronale mais aussi la réponse à un stimulus électrique. Ces études sont importantes pour comprendre et, à terme, soigner, l'objectif étant de développer de nouveaux types de prothèses dans le cadre de la médecine régénérative. Elles préfigurent peut-être de nouvelles générations de prothèses, posant du même coup la question de l'interface homme/machine, voire de l'homme-machine.

Pour conclure, du point de vue des nanosciences, la France se trouve assez bien placée en Europe : elle est au second rang, au niveau des investissements et des subventions obtenues de la Commission européenne. La France coordonne également le consortium européen Eranet nanoscience. De plus, elle est dotée d'un programme national cohérent autour de l'Agence nationale de la recherche (ANR), de centres de compétences nanosciences sur le tout le territoire, ainsi que de programmes bien organisés en nanotechnologies et nanosciences au sein du CNRS et CEA.

Du point de vue des nanotechnologies, il est plus difficile de donner un classement et une position. La France se trouvait très bien placée, apparemment, d'après une étude basée sur l'analyse de la propriété intellectuelle sur la période 1975-2000. Elle se trouverait en revanche en retrait à l'horizon 2012, illustrant le paradoxe européen de la relative faiblesse dans la capacité à convertir des découvertes en produits et en valeur.

Avec la capacité à observer le nanomonde, à comprendre les lois qui le régissent, à fabriquer des nanosystèmes, nous sommes entrés dans une nouvelle ère technologique dont les développements attendus sont puissants. Il est d'autant plus important d'en comprendre et maîtriser les usages et les impacts des risques qui en découlent.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie beaucoup. J'accueille maintenant mon autre excellent collègue, le Sénateur Daniel Raoul, qui a réalisé pour l'Office parlementaire un rapport sur les nanosciences et le progrès médical. Nous allons donc décliner une partie de la présentation de M. Philippe Bourgoin.

M. Daniel RAOUL, Sénateur du Maine-et-Loire, co-auteur du rapport « nanosciences et progrès médical »(2) : Je ne reviendrai pas sur la présentation qui vient d'être faite et les enjeux de la nanotechnologie. Je vais me restreindre à ce que j'ai observé, avec mon collègue Jean-Louis Lorrain, dans le domaine médical. J'ai pu, dans ce secteur particulier, voir renaître de ses cendres le mythe de l'éternelle jeunesse ou le rêve de l'homme bionique. Cela peut-il être un jour une réalité ? Cette question ne relève plus tout à fait de la science-fiction, comme nous avons pu le voir rapidement, grâce à toutes les applications présentées précédemment.

En tout état de cause, le rapport que nous avons rédigé nous a donné le vertige devant les applications et les dérives possibles, alors que mon collègue est médecin et moi-même physicien . Les côtés positifs ont été évoqués. Mais ce que je retiens de mes constatations de visu dans les laboratoires, est la différence entre l'homme réparé et l'homme augmenté. Là se posent des problèmes réellement éthiques. Jusqu'où va-t-on aller ? Quels problèmes de liberté, d'intimité génétique, si vous me permettez ce terme, vont se poser ?

Comment préserver des données personnelles, sans qu'elles ne soient exploitées ? Où sont stockées les données lesquelles peuvent certes servir à un diagnostic ou une réparation, mais aussi être exploitées à des fins différentes, comme les nanocapteurs d'identification par radio fréquence (RFID) implantés sous la peau permettant de vous localiser n'importe où ? Ils peuvent certes présenter un intérêt contre les enlèvements d'enfants, et sont déjà utilisés aux États-Unis comme au Mexique. Mais l'on perçoit immédiatement les dérives que ces systèmes pourraient engendrer pour les libertés individuelles.

De même, la poussière intelligente (smart dust), dont le principe repose sur la dissémination de capteurs, pose d'énormes problèmes de sécurité et de confidentialité. Au quotidien, sans nano, un portable en veille peut déjà être utilisé comme haut-parleur. Nous sommes aujourd'hui dans un monde où la confidentialité et la sécurité sont menacées. Indépendamment des progrès et des enjeux que vous avez évoqués, quels sont les garde-fous envisagés?

J'aimerais également insister sur l'aspect irrationnel de ces sujets qui ne m'a pas échappé lors de la préparation de mon rapport sur le téléphone mobile et la santé. Si nous continuons à refuser la transparence complète, et cela est aussi vrai pour les plantes génétiquement modifiées (PGM), grâce des comités locaux d'information et de suivi, nous en arriverons à des incidents, avec la possibilité pour certains d'exploiter l'obscurantisme comme un fonds de commerce.

Les scientifiques doivent assurer une véritable transparence : l'enjeu me semble aussi fondamental que dans le domaine économique, pour l'acceptabilité sociétale ! On ne fera pas passer pas en force les progrès scientifiques dans la société. Il faudra que les scientifiques sortent de leur tour d'ivoire et deviennent pédagogues, bien qu'il s'agisse de deux métiers différents, chercheurs et pédagogues. La culture scientifique du pays doit suivre le niveau du progrès scientifique ; à défaut d'énormes problèmes de société risquent de surgir.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie cher collègue. Le décor me semble parfaitement planté.

Les nanotechnologies : risques potentiels, enjeux éthiques ?

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vais demander au Professeur Patrick Brochard, Membre du Comité de la prévention et de la précaution (CPP), de nous exposer la nature des risques toxicologiques encourus, et des précautions à prendre. Que sait-on aujourd'hui sur la toxicité des nanoparticules et des produits qui en contiennent ? Dispose-t-on d'éléments précis ? Quels sont les résultats des évaluations effectuées ? À-t-on des éléments de comparaison ? Risque-t-on, comme Richard Virenque, de prendre des produits contenant beaucoup de nanoparticules à l'insu de notre plein gré ?

Professeur Patrick BROCHARD, Membre du Comité de la prévention et de la précaution, Toxicologue, laboratoire santé, travail, environnement de l'université Victor Segalen Bordeaux 2 : Je ne suis par sûr de pouvoir répondre à cette dernière question ! Je suis chargé de vous présenter le côté obscur de la force, si j'ose dire, puisque j'insisterai sur les aspects négatifs des nanotechnologies, à travers un exemple : la nanoparticule. Mon propos concernera exclusivement le domaine des nanoparticules, bien que la santé déborde largement ce cadre.

Je vous rappelle que les nanoparticules, inférieures à 100 nanomètres, nous environnent depuis la nuit des temps. Actuellement, leur origine naturelle est bien connue. L'origine anthropique, non intentionnelle, l'est également ; l'exemple le plus caractéristique étant la particule diesel. Des recherches sont menées sur des particules fabriquées intentionnellement ayant les caractéristiques nanométriques.

La base de nos connaissances dans le domaine de la toxicité des particules est différente de la toxicité chimique classique. Une des erreurs couramment commise depuis longtemps est d'assimiler la toxicité d'une espèce chimique à celle d'une particule composée des mêmes atomes de cette espèce. On est dans un monde complètement différent, et sur le plan de la toxicologie, beaucoup de progrès restent à accomplir. Néanmoins, on ne part pas de rien, mais de certains domaines et de modèles qui ont permis de comprendre quel était le mécanisme pathogène de certaines particules.

Je citerai pour mémoire trois exemples classiques, historiquement croissants : la silice cristalline (quartz), l'amiante, la phase particulaire de la pollution atmosphérique, notamment les particules diesel. Bien d'autres modèles (tabac, poussières de bois et d'autres particules minérales et métalliques) sont disponibles. Ces modèles nous ont permis de définir les principales caractéristiques susceptibles d'entraîner un effet pathogène sur les tissus, chez l'homme en particulier.

Le premier facteur est la taille. Il est essentiel pour plusieurs raisons. La taille détermine les règles de pénétration et de déposition dans les voies aériennes. La taille nanométrique, en particulier, va également diriger les mécanismes de l'internalisation de ces nanoparticules dans les cellules et de migration dans le cytoplasme et le noyau. Au-delà de la simple cellule, la taille va être un élément clé dans la diffusion de ces particules à travers les membranes, les membranes basales des épithéliums et des endothéliums que l'on croyait étanches : membranes alvéolocapillaires, membranes hémato-encéphaliques, membranes placentaires, toutes membranes considérées comme très à l'abri de ce problème de particules.

La surface est une deuxième caractéristique. L'état de surface de ces particules est défini, pour nous, sur un plan toxicologique, par le rapport entre les atomes en surface de la particule et le nombre total d'atomes de cette particule. Or, dans le domaine des particules nanométriques, on accroît considérablement l'extériorisation des atomes de surface par rapport aux nombres totaux de particules. On augmente donc considérablement la réactivité de ces particules, ce qui en fait tout l'intérêt sur le plan technologique, mais représente un impact négatif sur le plan biologique et augmente la réactivité de surface.

Par ailleurs, tous les atomes n'ont pas les mêmes propriétés, comme en chimie classique. La chimie intrinsèque conserve des règles, modifiant l'effet potentiel de telle ou telle espèce chimique. Ces particules ont enfin la propriété de pouvoir adsorber, à la surface, des molécules étrangères de l'environnement pouvant être elles-mêmes toxiques : dans ces conditions, ce n'est plus la toxicité de la particule elle-même qui doit être prise en compte, mais celle véhiculée par la particule (effet chimique extrinsèque).

Une autre caractéristique très importante, en particulier dans les nanotechnologies et nanoparticules, est la forme. L'on sait très bien que les particules très fines, de l'ordre de quelques dizaines de nanomètres, et très allongées, de l'ordre de quelques dizaines de microns, ne sont plus gérées par les cellules. Un exemple malheureusement extrêmement clair est celui de l'amiante, qui entraîne des anomalies de la gestion de ces particules par les cellules : une phagocytose inefficace (défenses non spécifiques), avec des conséquences biologiques bien connues : libération de composants toxiques du phagolyzozome dans le milieu extra cellulaire, perturbation de la division cellulaire. À ce titre, je vous rappelle que certaines nanoparticules ont des caractéristiques de formes qui rappellent beaucoup celles de fibres naturelles ou de fibres artificielles connues. Il y a donc un effet fibre.

Enfin, la persistance des particules dans les tissus sans modification est vraisemblablement la clé de la toxicité potentielle de ces particules : c'est ce que l'on nomme la biopersistance. Malgré tous les mécanismes de défense de l'organisme, la particule va persister, intacte, dans les tissus, à l'endroit où elle s'est déposée ou a éventuellement migré. Cet effet de biopersistance a été bien établi depuis les années quatre vingt dix, et constitue d'ailleurs, en toxicité des particules, l'une des bases de la réglementation actuelle des particules dans l'Union européenne.

Cet ensemble - effet taille, effet surface, effet chimique, effet fibre, effet biopersistance - peut entraîner, au niveau des cellules, des modifications constatées sur des modèles in vitro : une réponse de type perte de fonction, une réponse de type hyperactivité cellulaire, une réponse de type perturbation du cycle cellulaire. Au-delà de la cellule, au niveau des tissus, ces réponses cellulaires anormales peuvent entraîner une réaction beaucoup plus complexe, tout à fait normale dans l'organisme : la réaction inflammatoire. On sait très bien aujourd'hui que la réaction inflammatoire est certes un mécanisme de défense très important, efficace contre les agressions infectieuses et mécaniques. En revanche, lorsque cette inflammation persiste et s'auto entretient, elle est susceptible de déboucher sur les pathologies non spécifiques, bien connues malheureusement que sont la fibrose et le cancer, avec une expression clinique dépendant, évidemment, des organes concernés.

En ce qui concerne les nanoparticules, et en particulier celles qui sont fabriquées intentionnellement, entre cent et trois cents publications existent dans la littérature, utilisables dans le domaine du risque toxicologique, et établies, pour l'essentiel, sur deux modèles intéressants : les modèles carbone, particules de graphite (noir de carbone), nanotubes de carbone et les modèles oxyde métallique, en particulier le dioxyde de titane.

En quoi sont-ils intéressants ? Le carbone et le dioxyde de titane sont des espèces chimiques réputées inertes. Jusqu'à présent, tout le monde considérait que les carbones ne posaient aucun problème de santé, de même que le dioxyde de titane lorsqu'il était sous forme micronique. Les études publiées, dont je viens de vous parler, ont été essentiellement réalisées sur des modèles cellulaires (études in vitro), un peu moins sur des modèles animaux (études in vivo) ; et pratiquement aucune étude intéressante portant sur des modèles humains n'a été réalisée.

La synthèse de nos bases de connaissances actuelles concernant les nanoparticules, et en particulier les carbones et les dioxydes de titane, appelle plusieurs constats.

- On observe d'abord une forte pénétration, loin dans l'appareil respiratoire. Sur ce cliché, on peut voir que le poumon humain est aujourd'hui rempli de ces petites particules provenant, dans ce cas particulier, très vraisemblablement de la pollution atmosphérique.

- Un autre constat peut être établi, à partir de la représentation d'une cellule macrophagique dans une alvéole gérant correctement des particules de la dimension micronique. Lorsque l'on place dans la même alvéole la même espèce chimique, mais sous forme de particules nanométriques, on peut constater que les macrophages alvéolaires ne gèrent plus ces particules, lesquelles vont, de surcroît, traverser les membranes, provoquant l'enclenchement d'une réaction d'inflammation au niveau de l'appareil respiratoire. Nous connaissons maintenant assez bien les principaux mécanismes sollicités au niveau de la cellule par ces particules, aboutissant à ce phénomène crucial qu'est l'inflammation.

La faculté des nanoparticules de passer les membranes a été également mise en évidence chez l'animal, et elle reste à démontrer chez l'homme. Pour les particules de carbone ou de dioxyde de titane en particulier, il a été démontré qu'elles arrivaient à pénétrer dans les axones des nerfs olfactifs et migrer, via les axones, jusque dans les noyaux centraux du système nerveux central, court-circuitant complètement la barrière hémato-encéphalique.

Les éléments dont on dispose aujourd'hui en laboratoire, montrent donc que les nanoparticules testées possèdent les caractéristiques prédictibles d'un effet pathogène : la taille, la surface, la forme, la biopersistance, du moins pour les carbones et les dioxydes de titane. Des réponses cellulaires et tissulaires ont été mises en évidence, compatibles avec des effets à long terme sur la santé, dans les études disponibles sur les nanoparticules. Il faut néanmoins noter - et il faut garder cet élément en tête - que les doses utilisées ou couramment utilisées, pour faire ces expériences sont colossales par rapport aux doses auxquelles l'homme pourrait s'attendre à être exposé dans des conditions normales. L'extrapolation des données de laboratoire, in vitro ou in vivo, ainsi que celle d'une espèce animale différente sont toujours discutables : certaines précautions doivent donc être prises avant d'en déduire des conclusions.

Le Comité de la Prévention et de la Précaution a, dans un rapport rendu en mai 2006, pris en compte cet ensemble de faits. Il a proposé des recommandations que je cite pour mémoire, sans entrer dans les détails, puisque vous disposez de la documentation concernant ce rapport. Le constat est le suivant : il existe un danger lié à la réactivité biologique des nanoparticules et à leur capacité de diffusion dans les tissus, mais il n'est pas possible actuellement de procéder à une évaluation des risques satisfaisante chez l'homme. Ce constat de base conduit à faire plusieurs recommandations en application du principe de précaution :

La traçabilité. Recenser les nanoparticules issues des nanotechnologies et des filières de production, avec une normalisation de la nomenclature, qui est actuellement une véritable « jungle », et assurer la transparence de la production et des usages.

Produire de nouvelles connaissances. Les quelques centaines de publications restent insuffisantes par rapport aux questions posées aussi bien dans l'identification des populations, que dans le développement de la métrologie, la connaissance des dangers et surtout l'évaluation des risques. Nous avons insisté dans notre rapport sur la nécessité de stimuler, mais aussi de coordonner l'effort de recherche avec les moyens disponibles.

Adopter des mesures de précaution. Il est aujourd'hui raisonnable, sans attendre de nouvelles données, de proposer ces mesures de dans le monde du travail pour les populations directement en contact avec la production des nanoparticules, avec leur utilisation ou avec leur désintégration à la fin de la vie des matériaux.

Protéger la population en général et mener une réflexion sur les écosystèmes. Les crèmes barrières solaires par exemple, faites de dioxyde de titane, vont dans les égouts, sous forme de nanoparticules, et se retrouvent dans les écosystèmes.

Mener une réflexion réglementaire au niveau européen pour prendre en compte la spécificité particulaire de ces matériaux, et non pas la spécificité chimique, car le dispositif REACH actuel ne permet pas, à notre avis, une bonne prise en compte de cette spécificité là.

Prendre en compte dès maintenant les aspects sociétaux, comme cela a déjà été rappelé.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Après cette présentation qui nous laisse rêveurs et légèrement effrayés, je vais demander au Docteur. Éric Gaffet, Président du groupe de travail de l'Agence française de sécurité sanitaire de l'environnement et du travail (AFSSET) sur les nanomatériaux, de nous présenter les réalisations, les conclusions et les recommandations de ces travaux.

Docteur Éric GAFFET, Directeur de recherche au CNRS, Président du groupe de travail sur les nano matériaux de l'AFSSET : Un groupe d'experts a été constitué dans le cadre de l'AFSSET afin de répondre à une saisine datant de septembre 2005. Il nous a été demandé, dans un premier temps, d'établir un état des lieux des connaissances scientifiques et techniques concernant l'utilisation de ces nanomatériaux, leur production, leur mesure, les données d'exposition, pour identifier des pistes prioritaires dans les domaines de la métrologie, la toxicologie, l'épidémiologie. Je vais essayer de compléter les informations déjà fournies pour préciser concrètement les vrais changements physiques induits par l'échelle nanométrique.

Dans l'exemple de l'oxyde de titane, 1 gramme de particules millimétriques comporte 50 particules. En descendant à l'échelle nanométrique, la même quantité de matière comporte 10 millions de milliards de particules. Cet effet de nombre est donc très important, comme dans le cas de l'inflammation du système immunitaire mentionné précédemment.

La surface spécifique, c'est-à-dire la surface exposée de ces nanoparticules doit être également prise en compte. Aux particules de quelques millimètres correspond une surface de quelques centimètres carrés exposée à l'atmosphère. En revanche, à l'échelle des nanoparticules, la surface spécifique, c'est-à-dire la surface d'exposition des particules à l'environnement, est augmentée de 100 à 1 000 m2/g. Le facteur de modification de ce comportement est très important.

Quant au champ des applications déjà évoqué avec la microélectronique, il existe déjà 700 produits de la vie quotidienne utilisant des nanoparticules : les cosmétiques, les bétons de revêtement de certains bâtiments avec des particules d'oxyde de titane (cas de l'église du jubilée à Rome ou de la cité de la musique à Chambéry), des vélos, des voitures, des réfrigérateurs (avec des nanoparticules d'argent), etc.

Par rapport aux 5 particules ou aux 2 modèles clairement identifiés sur lesquels les tests de santé ont été réalisés, 1 400 types de nanoparticules sont aujourd'hui commercialisés à des quantités non négligeables  dans le monde. Au niveau mondial on produit :

- 10 millions de tonnes de noir de carbone en 2005; il est le principal constituant des pneumatiques ;

- 300 000 tonnes par an de silice utilisées comme constituant des pneus verts (dont 150.000 tonnes par an par Rhodia, pour les 2/3 à l'usine de Collonges) ;

- 3,5 millions de tonnes de particules et 3.800 tonnes de nanoparticules d'oxyde de titane par an (Dupont, Millenium) ;

- 100 tonnes par an pour l'aluminium.

Les nanotubes de carbone sont l'un des secteurs en plein développement, or les données sont difficiles à obtenir de façon objective dans ce domaine. La production mondiale s'élevait officiellement à quelques tonnes, il y a quelques années ; mais un constructeur d'automobiles français en consommait déjà, à lui tout seul, plusieurs dizaines de tonnes par an pour ses propres applications. Une incertitude existe donc dans certains secteurs stratégiques, sur les données fournies ou issues de rapports.

S'agissant de la toxicité, à partir de 2002-2003, nous constatons l'intérêt grandissant, au travers de nombreuses publications, pour l'étude de la toxicité des nanoparticules. Ces connaissances ne sont pas stabilisées, comme cela a déjà été mentionné. Les modèles animaux, objets des tests, sont difficilement transférables, ou avec de fortes incertitudes, sur l'homme.

Pour définir une nanoparticule, il faut définir l'ensemble de ses paramètres. Les informations que donne la littérature sont insuffisantes. La dimension de la particule testée est à peine mentionnée, le producteur est parfois indiqué ; on ne dispose donc d'aucune information physique ou chimique sur la particule testée. Ce manque d'information conduit à des incertitudes et à des difficultés d'interprétation ou de corrélation entre les publications. Les résultats peuvent être totalement opposés.

En ce qui concerne l'exposition, nous avons essayé de déterminer si, au niveau industriel ou dans les laboratoires, des données existaient. L'Angleterre est le seul pays qui semble disposer de données. 2 000 personnes environ seraient susceptibles d'être exposées dans les universités et les start-up, 100 000 par la manipulation des nanoparticules au cours de différents process, et jusqu'à 1 million de personnes en intégrant d'autres procédés industriels, qui de façon incidentelle, produisent des nanoparticules. Ces données sont issues des travaux de Mölhman publiés en 2004 et repris par la Commission européenne. D'autres procédés industriels produisent des nanoparticules en nombre non négligeable, comme la soudure qui multiplie par 1 000 le taux de particules présentes dans l'atmosphère.

Ces observations et constats nous ont induit à définir des pistes prioritaires. Voici les principales.

- Assurer une réelle coordination des recherches transdisciplinaires. Introduire une nanoparticule dans un test de toxicité ne donne aucune réponse. Jusqu'en 2002, les particules sur lesquelles les tests ont été réalisés ont été très mal définies : il est donc indispensable que des physiciens et des chimistes des nanomatériaux connaissant bien le sujet, travaillent en collaboration avec des toxicologues, pour faire progresser de façon coordonnée les connaissances, à partir de différentes cultures et différentes approches, ce qui n'est pas évident.

- Créer une base de données exhaustive pour identifier clairement les produits existants et définir les composants nanométriques de ces particules - nanofibres, nanotubes, particules isolées éventuellement réparties dans la masse ou en surface, etc.

- Développer la métrologie pour pouvoir disposer d'instruments capables de mesurer les nanoparticules. Le coût des appareillages de mesure des laboratoires peut s'élever jusqu'à 300 K€ ; on ne peut donc les utiliser sur les sites de production industrielle. Le projet Nanosafe vise d'ailleurs, entre autres objectifs, à développer des appareils à des coûts raisonnables pour être industrialisés.

- Caractériser les nanoparticules en coordonnant les recherches, dans les domaines de la toxicologie, de l'épidémiologie, de la caractérisation des expositions, de l'évaluation des risques. En toxicologie, lors des tests de pénétration transcutanée des nanoparticules, les résultats varient selon la méthode de test. Si l'on sollicite la peau, le niveau de pénétration des nanoparticules atteint parfois le derme ; en revanche, si l'on ne la sollicite pas, il peut ne pas y avoir pénétration. Les résultats peuvent donc être très divergents. Il faut en conséquence reconsidérer les tests eux-mêmes pour les adapter à l'exposition que l'on veut déterminer. Avec l'existence de 1400 types de particules, il faut également développer de nouveaux tests, et passer à des criblages de toxicologie à haut débit, à l'exemple de la chimie combinatoire développée il y a une dizaine d'années.

- Développer des moyens de protection individuels et collectifs, des guides de bonnes pratiques est insuffisant. Actuellement, les moyens de protection sont en cours de qualification; mais aucune norme ne certifie que tel appareil ou dispositif est efficace.

- Dans la structure de coordination décisionnelle, la notion d'aide et de mise en place de bonnes pratiques doit être intégrée pour apporter des réponses concernant la protection des opérateurs, au sein des laboratoires, start-up ou grands groupes.

- La normalisation et la réglementation n'existent pas en ce qui concerne les nanomatériaux. Peuvent s'appeler nanomatériaux tout et n'importe quoi, ce qui conduit à la mise sur le marché de produits sans nanoparticules, mais vendus comme en contenant pour des raisons commerciales. En cas de problèmes, comme ce fut le cas du produit Magic Nano, des inquiétudes sont induites et perturbent le système des agences de surveillance, alors que le produit ne contient pas de nanoparticule.

En ce qui concerne la réglementation au niveau international, deux approches concrètes ont été proposées et discutées  une autorégulation dans laquelle les notions d'assurance et de coût jouent très fortement, et une réglementation complétant le dispositif européen d'enregistrement, d'évaluation et d'autorisation des produits chimiques REACH (Registration, Evaluation and Autorisation of Chemicals) lequel ne prend pas en compte la modification des propriétés physiques des nanoparticules en fonction de leur taille, tout au long de leur cycle de vie, notamment leur faculté de dispersion et d'agrégation.

Pour assurer l'information et la formation du public, il faut mettre en place une veille technologique et scientifique sur les nanotechnologies pour répondre aux questions, en expliquer les enjeux et l'intérêt qu'elles peuvent représenter pour la société. Par exemple, les nanoparticules dans un pneumatique font économiser 4 % de la consommation d'essence, contribuant ainsi efficacement à la réduction de l'effet de serre ; de même les additifs de carburant améliorent le rendement d'un moteur et limitent l'émission de suie. Il ne s'agit donc pas uniquement d'informer par une mise en lignes d'articles sur Internet, mais surtout d'expliquer et de former.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie beaucoup Docteur Gaffet. Vous avez en quelque sorte « tendu la perche » à M. Philippe Martin en évoquant de la réglementation européenne REACH. M. Philippe Martin est administrateur principal à la Direction santé et protection du consommateur à la Commission européenne. Il présentera les différentes initiatives européennes, et notamment le plan d'action européen pour les nanosciences et nanotechnologies.

M. Philippe MARTIN, Administrateur principal à la Direction santé et protection du consommateur de la Commission européenne : Ma présentation répond à la question « Que fait l'Europe ? » et confirme une convergence d'avis et de messages. Sans aucune concertation entre les intervenants, bon nombre de messages réapparaissent. J'évoquerai, très rapidement, les attentes face aux nanotechnologies, les promesses dont elles sont porteuses. Je consacrerai l'essentiel de cette présentation au plan d'action européen, et surtout à l'évaluation des risques pour la santé et l'environnement grâce à deux comités scientifiques gérés par la Commission européenne : le Comité scientifique pour les risques émergents et nouvellement identifiés (SCENIHR, Scientific Committee for Emerging and Newly Identified Health Risks), et le Comité scientifique pour les produits de consommation (SCCP, Scientific Committee for Consumer Products). J'évoquerai aussi le Groupement européen d'Éthique dont je mentionnerai seulement les travaux, puisqu'ils ne sont pas encore publiés, et enfin, je passerai en revue quelques considérations qui, je l'espère, seront reprises lors des débats.

Les attentes sont grandes dans les domaines de la médecine et de la santé (médicaments ciblés), des technologies de l'information (disques durs), de la capture, de la production et du stockage de l'énergie (l'hydrogène avec l'International Thermonuclear Experimental Reactor ITER et la pile à combustible).

Plusieurs goulots d'étranglement pourraient être débloqués par les nanotechnologies :

- la science des matériaux, qui va bien au-delà de la production des raquettes de tennis,

- l'agroalimentaire, tant en ce qui concerne la qualité des aliments, que leur traçabilité, leur emballage, voire la production de nouvelles saveurs ou d'hybrides mêlant aliments et produits médicamenteux,

- la purification de l'eau, l'environnement, les méthodes d'assainissement, etc...

- les instruments de mesure, déjà évoqués.

Le plan d'action, dont la devise est «sécurité, intégration et responsabilité », est motivé par ces attentes. À l'origine, c'était un plan de recherche en nanotechnologies. Il reprend maintenant les politiques européennes les plus pertinentes, pour combiner prospérité économique, adéquation sociétale et respect de l'environnement.

Les chapitres clés, dont nous pourrons discuter en détail dans les débats, sont les suivants :

- La recherche, puisque le 7ème Programme cadre de recherche et de développement en cours d'adoption, devrait financer les nanotechnologies à concurrence de 3,5 milliards d'euros, ce qui est, certes, élevé mais reste en dessous des niveaux de financement américains ou japonais. Ce financement communautaire doit être complété par des financements nationaux, bien évidemment.

- Le plan d'action prend également en compte la dimension entreprise/industrie, la sécurité des travailleurs, des citoyens, des consommateurs, et l'environnement. Il repose sur les valeurs européennes. Les implications des nanotechnologies soulignent nos différences sur ce plan d'avec nos partenaires.

- Ce plan aborde aussi la question internationale, enjeu majeur dans la mesure où les États-Unis, par exemple, ont choisi les nanos comme technologie porteuse pour asseoir leur leadership mondial au cours des vingt prochaines années. Un marché gigantesque de 1 à 3 milliers de milliards de dollars a été évoqué d'ici 2020. De nombreux chiffres sont avancés, plus ou moins crédibles, mais les attentes sont énormes en termes économiques et stratégiques.

La Commission européenne gère directement trois comités, non agro-alimentaires, d'experts scientifiques indépendants en provenance de tous les États membres. Ces comités examinent les questions relatives aux produits, en particulier aux substances relâchées dans l'environnement, et aux risques émergents, par l'intermédiaire du SCENIHR, du SCCP qui a émis une opinion scientifique, et du Comité scientifique des risques sanitaires et environnementaux (SCHER Scientific committee on health and environmental risks).

Avant de résumer leurs conclusions, il convient de mentionner, cela est très important, l'existence d'autres comités au niveau européen, l'un s'occupe de l'autorisation des médicaments, l'Agence européenne d'évaluation des médicaments : (l'European Agency for the Evaluation of Medicinal Product l'EMEA) à Londres, et l'autre de l'agroalimentaire : l'Autorité européenne de sécurité des aliments (l'European food safety authority EFSA) à Parme.

Lors d'une réunion récente, ces comités ont été saisis de la question des nanotechnologies ; il sont conscients des problèmes qu'elles peuvent poser, et travaillent à répondre aux questions relevant des domaines de leurs compétences.

Les travaux du SCENIHR et du SCCP portent sur :

- la méthodologie d'évaluation des risques des nanomatériaux, sujet sur lequel une première opinion scientifique a été émise en septembre 2005,

- les nanomatériaux dans les produits cosmétiques, avec la question de la pénétration des nanoparticules qui reste non résolue, thème sur lequel une opinion scientifique est en cours,

- les documents de mise en œuvre de la réglementation, sur lesquels les travaux se poursuivent également.

Trois critères de caractérisation des nanoparticules émergent, et je reprendrai des thèmes déjà abordés, en adoptant un point de vue toxicologique.

Elles sont petites d'un point de vue absolu et relatif : « petit », dans ce contexte, signifie différent et, la plupart du temps, imprévisible.

Pour donner une perception physique de la taille minuscule des nanoparticules, j'ai représenté à droite une particule qui ferait 10 microns, soit 10 000 nanomètres, et à l'extrême gauche, une particule de 10 nanomètres. La résolution de l'écran ne vous permet probablement pas de la voir : c'est dire qu'elle est vraiment petite !

D'un point de vue relatif, les nanoparticules sont petites par rapport aux défenses, aux barrières naturelles de l'organisme. Les globules, qui font environ 1 200 nanomètres de diamètre, sont perméables à des nanoparticules inférieures ou égales à 60 nanomètres de diamètre. Le franchissement de la barrière entre le sang et le cerveau a déjà été évoqué, en particulier par le nerf olfactif, pour des particules de moins de 4 nanomètres de diamètre. On ne peut ignorer les interactions possibles avec notre patrimoine génétique, comme le suggère la représentation d'un brin d'ADN d'environ 2 nanomètres de diamètre sur une longueur de 2 mètres. Ces nanoparticules sont particulières : leur revêtement, leur charge, leur forme vont évidemment avoir une importance capitale

Petit signifie différent. Pour ramener cette question de surface spécifique au quotidien, on sait tous qu'il est plus facile de dissoudre de la poudre de cacao qu'un morceau de chocolat. Le rapport surface/volume élevé est une propriété très intéressante. Par ailleurs, des effets quantiques sont constatés à partir de la zone 100 nanomètres, voire 1 300 nanomètres. Cette zone, dans laquelle la physique classique et la physique quantique interagissent, obéit à des règles encore mal connues.

Petit signifie également imprévisible. Les propriétés des nanoparticules sont difficiles à prévoir. Prenons l'exemple d'une alliance plaquée or. L'or est jaune, inerte, et fond à 1 200°. Une nanoparticule d'or de 1 nanomètre est bleue, peu réactive et fond vers 200°. Une nanoparticule d'or de 3 nanomètres est rouge, et l'or, normalement inerte et passif, devient alors un catalyseur.

Le SCENHIR a émis une opinion scientifique sur la méthodologie d'évaluation des risques.

- Les méthodologies d'évaluation des risques peuvent nécessiter des modifications. La conclusion générale appelle à opérer au cas par cas, et à réexaminer les hypothèses et méthodes habituellement utilisées. En effet, les tests habituels ne requièrent pas d'études systémiques de l'absorption, du mouvement et de l'accumulation des nanoparticules dans le corps. Il faudrait les ajouter. La dose à l'exposition est le plus souvent exprimée en termes de masse, alors que la surface, la réactivité, la charge, la forme sont des données extrêmement pertinentes pour les nanoobjets.

- L'adaptation des méthodes nécessite de nouveaux équipements pour les relevés ponctuels et de routine.

- Les lacunes dans les connaissances concernent en particulier la caractérisation, les mécanismes et la toxicocinétique, ainsi que les questions d'exposition, les effets sur la santé et sur l'environnement. Les études en la matière ont une valeur anecdotique; ce qui ne permet pas de les utiliser pour développer des politiques.

S'agissant des questions éthiques, le Groupement européen d'Éthique est en train de produire une opinion sur les nanomédecines, qui devrait être publiée en décembre. Cette problématique éthique, qui peut paraître très abstraite, impalpable, est en fait un enjeu commercial international. Le cadre général législatif européen semble approprié, mais un travail reste à mener dans chaque État membre. Des lacunes existent, auxquelles il semble possible de remédier dans la plupart des cas. La mise en œuvre de la réglementation existante constitue en revanche la question la plus importante, avant d'imaginer de nouvelles réglementations car, d'un point de vue opérationnel, mettre en place une nouvelle réglementation requiert du temps, et nous n'en disposons pas.

En matière de coopération internationale, je tiens à souligner l'importance des travaux à l'OCDE, de l'Organisation internationale de normalisation (International organization for standardization, ISO) et du Comité européen de normalisation (CEN). À cet égard une première réunion, très importante, du groupe de travail sur la sécurité des nanomatériaux s'est tenue il y a dix jours, à l'OCDE.

Sur la responsabilité de l'innovation, je préfère ne pas faire le choix entre deux approches : l'une basée sur les actions volontaires, et l'autre sur la coercition. Dans ce contexte en mutation permanente, les entreprises doivent assumer la responsabilité de leurs innovations, et elles nous donnent d'ores et déjà des signaux encourageants en la matière.

Quant à la perception des nanotechnologies par le public, il me semble également important de l'examiner car elle varie selon les pays. Deux sondages différents posant des questions différentes ont été effectués. La question suivante a été posée aux Européens : pensez-vous que les nanotechnologies vont augmenter la qualité de votre vie au cours des vingt prochaines années ? On demandait aux Américains : pensez-vous que les bénéfices sont supérieurs aux risques, ou inversement ? Il est intéressant de constater qu'aux États-Unis, près de la moitié (49%) des Américains pensent que les risques sont supérieurs aux bénéfices, 26% ont une opinion positive et 7% seulement ne savent pas, alors qu'en Europe, 42 % de sondés admettent modestement ne pas savoir, 40% émettent une opinion positive et 5% seulement une opinion négative.

Il est donc très important non seulement de communiquer, mais aussi d'engager un dialogue sur le risque. C'est en particulier ce que la présidence finlandaise de l'Union européenne a tenté de faire avec un certain succès à Otaniemi en Finlande les 14-15 septembre dernier, par l'organisation de la Conférence Nanotechnologies : « safety for success », la sécurité pour le succès.

Les promesses sont crédibles dans bien des domaines mais les risques restent encore très difficiles à évaluer, comme les intervenants précédents l'ont déjà souligné. Ces risques sont d'autant plus importants que, précisément, nous ne sommes pas en mesure de leur donner un ordre de grandeur. De plus, la question de la coopération est absolument cruciale au niveau de l'Union européenne pour que l'Europe tienne une place forte dans ce monde globalisé, en particulier pour faire avancer la science, pour combler les lacunes, pour générer les données fiables manquant aujourd'hui, et pour établir la sécurité comme standard international.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie, M. Philippe Martin. Je me permettrai un petit commentaire sur votre présentation. Vous avez dit que les risques étaient difficiles à évaluer par manque de connaissances. Ne faudrait-il pas plutôt dire que les risques sont difficiles à quantifier parce que les connaissances ne sont pas encore suffisantes ?

M. Philippe MARTIN, Administrateur principal de la Direction santé et protection du consommateur, Commission européenne : Je suis d'accord avec cette formulation.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Elle me paraît en effet plus optimale. Je remercie les intervenants pour leurs présentations très pédagogiques. J'ouvre le débat, qui souhaite intervenir ou poser des questions ?

Débat

M. Claude SAUNIER, Sénateur, Vice-Président de l'OPECST : Les nanotechnologies ouvrent des perspectives technologiques, scientifiques très positives et intéressantes : chacun les apprécie. Néanmoins, il ressort des exposés, des risques théoriques ou réels par rapport aux cellules, au vivant. On ne peut pas continuer à ignorer la réalité de ces risques. Les chercheurs et ceux en charge de ces dossiers émettent le souhait de prendre certaines initiatives fortes de caractère réglementaire et normatif. Le principe de précaution ne peut pas être uniquement inscrit dans la Constitution, mais doit aussi être vecteur d'initiatives très pertinentes.

Je me permettrai une interrogation adressée à M. Philippe Martin qui a conclu son intervention en laissant entendre que ce domaine est si complexe qu'il revient aux entreprises d'assumer leurs responsabilités en matière d'encadrement et de précautions. Si les responsabilités des entreprises ne peuvent pas, en effet, être négligées, il me semble néanmoins que la responsabilité des pouvoirs publics est de définir des règles qu'il appartient aux entreprises d'appliquer.Tel est le débat que les pouvoir publics doivent engager.

M. Philippe MARTIN, Administrateur principal à la Direction santé et protection du consommateur, Commission européenne : Je vous remercie de votre remarque. Je n'avais pas l'intention de désengager les pouvoirs publics, qui ont, aux niveaux européen et national, un rôle essentiel. Je faisais une considération pragmatique. La vitesse d'évolution des connaissances et la mise sur le marché de nouveaux produits requièrent un changement d'attitude des entreprises : telle est notre conclusion. Un bon nombre d'entreprises jouent le jeu. Les entreprises sont, par exemple, très frileuses quant à l'échange de données, c'est un problème sur lequel il faut travailler. Dans la production des opinions scientifiques, l'apport des données des entreprises est essentiel, et nous les remercions de leur collaboration.

M. Claude SAUNIER, Sénateur, Vice-Président de l'OPECST : Il reste à les convaincre ! Nous avons contacté l'entreprise qui utilise le plus de nanoparticules au monde, L'OREAL. Il y a quelques années, sa publicité se faisait sur la vertu des nanoparticules, mais aujourd'hui la discrétion est de mise. Nous pensions qu'il était indispensable que L'OREAL ait sa place dans la consultation que nous menons aujourd'hui. C'est la deuxième fois que, dans un autre cadre, nous essayons vainement d'entrer en contact, ce qui est regrettable. La quasi-totalité des interventions a souligné la nécessité du dialogue avec les citoyens, l'explication, la transparence sous peine de graves difficultés.

Mme Marie-Christine BLANDIN, Sénatrice du Nord-Pas-de-Calais : Après avoir participé à l'élaboration du rapport du Sénat sur l'amiante, je souhaiterais souligner des convergences et des similitudes. Les substances sont sur le marché avant la précaution : les doses et leur manipulation pèseront lourd dans l'expertise, en faveur ou contre.

Souvenez-vous du rôle du fameux « seuil» en matière de contamination par l'amiante, longtemps nié. De plus, la persistance de l'effet inflammatoire et les phénomènes de cumul ne sont pas suffisamment étudiés. En outre, les limites de la métrologie peuvent servir, soit à favoriser la recherche, soit de paravent. Telles sont les quelques similitudes.

La différence réside dans l'espoir, parce que nous sommes présents aujourd'hui pour en débattre, parce que les personnes réunies sont très diverses et que l'initiative de l'Office parlementaire marque une volonté partagée de lutter contre l'obscurantisme et de faire toute la clarté sur ce sujet.

M. Jean-Yves LE DÉAUT, Député de Meurthe-et-Moselle, Vice-Président de l'OPECST : J'ai été marqué par ce qu'a expliqué M. Brochard à la fin de son intervention. Les problèmes sont effectivement identiques dans d'autres domaines. Pour l'inflammation, les effets mesurés ont été obtenus avec des doses colossales par rapport aux doses d'exposition. Peut-on extrapoler, lorsque les doses ne sont pas du tout les mêmes, comme les faibles doses en radioactivité, en alcool, en métaux lourds ? Dans une situation aussi incertaine, peut-on déjà réglementer ?

Pour revenir à l'amiante, et pour avoir moi aussi participé au rapport de l'Office en 1997, la situation n'est pas identique. On savait que l'amiante était dangereux, mais les intérêts économiques convergeaient pour continuer à l'utiliser. Aujourd'hui, pour des doses importantes de nanoparticules, des effets de surface, de réactivité, de forme sont constatés. C'est la particularité des nanotechnologies. Pour autant, à faibles doses, personne n'a dit qu'il y avait danger, mais incertitude.

M. Jean THERME, Membre du Conseil scientifique de l'OPECST : Sous le mot nanotechnologie, un grand nombre de domaines techniques sont concernés.

Nous avons abordé l'un d'entre eux, celui des nanomatériaux, et donc des nanoparticules, d'objets de dimension nanométrique et par là même on aborde les problèmes de toxicité.

Le deuxième domaine est celui de la nanoélectronique, les nanodispositifs avec des objets nanométriques attachés sur une plaque de Silicium ou autre, lesquels ne présentent pas les mêmes dangers : le risque associé à l'atteinte aux libertés, et aux impacts de ce que l'on appelle l'Ubiquitous Information Society.

Le troisième domaine est celui de la nanobiotechnologie, la rencontre entre deux mondes, le vivant et l'inerte, ou la transgression entre le monde du vivant et le monde de l'inerte, selon que l'on y soit favorable ou défavorable.

Un quatrième domaine, qui s'applique aux trois premiers, est la convergence des technologies. La miniaturisation extrême permet de traiter un grand nombre d'objets, de rendre compte d'une grande complexité ; la rencontre avec le monde vivant est la convergence NBIC (nanotechnologie, biotechnologie, informatique, sciences cognitives).

Quatre grands domaines sont donc couverts par la nanotechnologie. Ils recèlent de dangers et de risques différents les uns des autres, divers et complexes. Le monde des nanotechnologies ne peut être considéré uniquement au travers des nanoparticules, qui en sont un des aspects un peu réducteur.

Quant à l'accélération du processus d'innovation, au sens large, auquel on assiste, l'invention du noir de carbone dans les pneus date de la fin du XIXème siècle. On met par hasard du noir de carbone dans les pneus pour augmenter leur durée de vie. Il faut attendre 1996, soit cent ans après environ, pour constater que la dureté des pneus est liée à des agrégats de nanoparticules à des distances données ; et on ne comprend toujours pas en 2006 quelles sont les interactions de ces agrégats à des distances données dans un polymère. Il a donc fallu une centaine d'années pour comprendre que l'on utilisait des nanoparticules couramment et que l'on vivait dans un monde dans lequel elles ont toujours été présentes.

La capacité à observer et manipuler les atomes permet de fabriquer de nouveaux objets dont la diversité est extrême. Deux nanotubes de carbone ne se ressemblent pas plus que deux individus. Suivant la méthode de fabrication utilisée, leur fonctionnalisation ou leur combinaison, il y aura autant de nanotubes de carbone que d'hommes ou de femmes sur cette planète ! On ne peut donc pas trouver une solution de prévention dans le contact entre les nanotubes de carbone et les individus, et il est très difficile de mener une étude couvrant le champ d'utilisation des nanotubes de carbone. Tous ces agrégats atomiques, ces constructions nouvelles, seront divers, certains seront dangereux, d'autres pas. Tous les animaux de cette planète ne sont pas venimeux ou agressifs vis-à-vis de l'homme ; beaucoup présentent d'énormes atouts. Il faudra être capable de différencier, dans cette grande diversité, ce qui pose problème, de ce qui n'en pose pas. C'est en soi très important.

Le processus d'évolution est très rapide. 1400 produits contenant des nanoparticules sont aujourd'hui disponibles sur la planète. L'évolution des peintures, qui a fait l'objet d'un très bon article dans L'Usine Nouvelle, en est un exemple. La présence de nanoparticules améliore les fonctionnalités, la résistance à la corrosion, à l'usure, au frottement, et accroît la capacité de produire des couleurs différentes. Les nanoparticules entrent extrêmement rapidement dans la composition d'objets de la vie courante. Elles y entreront de moins en moins par des pays comme la France. N'ayez aucune crainte ! Nous représentons moins de 1 % du PIB mondial. Je ne partage pas l'analyse faite sur une position puissante de la France, nous en sommes loin. Les pays asiatiques progressent très rapidement et ont une approche différente de la nôtre vis-à-vis des nanotechnologies. Nos sociétés sont arrivées à un degré de maturité, et témoignent d'une certaine peur dans ce domaine. À Taïwan, les produits étiquetés « Nano inside » se vendent très bien ; la réaction serait différente chez nous.

La notion de diversité des objets, des lieux de fabrication, et d'approche culturelle doit rester présente à l'esprit, tout comme l'accélération extrêmement forte des innovations. L'ensemble de ces facteurs doit être pris en compte pour aborder ce sujet de manière correcte. Je pense qu'il serait réducteur d'étudier l'impact du nanotube de carbone sur la santé humaine : cela concerne un champ bien plus large.

Il me semble important de souligner la complexité du sujet, d'autant que les problèmes d'un objet précis ne peuvent être généralisés à l'ensemble des objets à dimension nanométrique. Laissez-moi vous rappeler que vous êtes nanométriques ! Sans molécules et biomolécules de taille nanométrique, vous n'existeriez pas dans le monde du vivant. Vous n'êtes qu'une machine moléculaire nanométrique : c'est la vérité. Les experts du monde du vivant pourront vous l'expliquer mieux que moi ! C'est une réalité ! Malheureusement... ou heureusement !

M. Daniel RAOUL, Sénateur du Maine-et-Loire : Je remercie M. Jean Therme d'avoir distingué quatre secteurs essentiels dans le domaine des nanosciences. Les nanoparticules ont été notre principale préoccupation jusqu'à maintenant, ainsi que les problèmes de toxicité qui y sont liés.

D'autres applications existent pour lesquelles les risques sont de nature éthique, plutôt que physiologique. Je suis aussi sensible à cet aspect qu'au risque toxicologique. J'aimerais que nous abordions ce sujet, car il me semble que l'aspect toxicologique pourrait être maîtrisé et quantifié, comme cela a été fait dans d'autres domaines. En revanche, les aspects éthiques, d'intimité génétique, de liberté, ne sont pas complètement quantifiables, et sont incommensurables. Jusqu'où peut-on aller dans ce domaine ?

En outre, dans le processus bottom-up, quand l'Homme se prend pour le Créateur, jusqu'où va-t-on dans la création d'un nouveau monde? La manipulation atome par atome, avec des effets quantiques qui amènent à la création de nouvelles molécules qui n'existent pas naturellement, est le cœur du problème que je me pose.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Le Docteur Michèle Froment-Védrine, Directrice générale de l'Agence française de sécurité sanitaire et environnementale du travail (l'AFSSET), exposera l'action de cet organisme dans le domaine qui nous intéresse aujourd'hui avant d'aborder les questions éthiques.

Docteur Michèle FROMENT-VÉDRINE, Directrice générale de l'Agence française de sécurité sanitaire et environnementale du travail (AFSSET) : Je vous remercie Monsieur le Président. Vous avez lors de ce début de réunion tout appris de ce que l'on ne sait pas sur les nanomatériaux, et pouvez mieux évaluer l'immensité du champ devant lequel se trouve l'AFSSET.

Cet établissement public a comme particularité de ne pas avoir d'importantes forces d'expertise en interne, mais se qualifie comme un établissement de coordination de l'expertise. Cette expertise se trouve dans d'autres établissements, dans un réseau de 21 partenaires désignés par décret, comme l'Institut national de l'environnement industriel et des risques (INERIS), des établissements de recherche comme l'INSERM, le CEA, le CNRS etc, avec lesquels l'agence doit établir une convention.

Au-delà de ce réseau, l'ensemble des partenaires possibles est concerné, au niveau associatif voire privé, tant en France qu'en Europe, où nous devons tisser un réseau. Ce partenariat concerne non seulement les connaissances, mais contribue également à rattraper l'important retard que la France a accumulé, depuis de très nombreuses années, sur les thèmes santé - environnement et santé - travail : certains dossiers très importants ont ainsi été confiés à certains établissements, par des initiatives parlementaires ou associatives, à l'étranger. Cette agence est donc une interface.

Dans le dossier des nanomatériaux, on remarque un nombre important d'intervenants, au même moment. Plusieurs rapports ont été produits à des niveaux divers, avec des degrés d'indépendance variés par rapport aux producteurs : des industriels, des interfaces industriels-associations, des parlementaires, des groupes d'étude liés à des ministères, et l'agence sanitaire qu'est l'AFSSET.

L'AFSSET a été saisie par les ministres, ses principaux pourvoyeurs de travaux, sur le sujet des nanomatériaux, dont il a fallu défricher les connaissances déjà acquises : quel en est l'usage? Où en fabrique-t-on? Quelle en est la destination? Ce premier rapport a été confié à un groupe de travail, rattaché à nos comités d'experts, et présidé par le Docteur Éric Gaffet.

Nous sommes parvenus à des orientations de travaux qui ne divergent d'ailleurs pas des travaux d'autres structures ou de ceux menés à l'étranger. Comme il nous l'a été demandé, nous commençons d'approfondir le thème des nanomatériaux dans le domaine de la sécurité des travailleurs, domaine pour sur lequel le risque paraît a priori plus important. Ce travail en cours est long. L'idée étant d'appliquer, si nécessaire, le principe de précaution - qui ne se résume pas à la liberté ou l'interdiction totales -, en le graduant pour apporter des éléments concernant la protection des travailleurs, et au delà de la population.

La principale difficulté dans ce dossier provient du passif de l'amiante. Ce n'est l'intérêt d'aucun industriel, d'aucun politique, d'aucune agence, d'aucun expert de devoir faire face à ce genre de situation. Je rencontre souvent de très grandes entreprises, peut-être absentes aujourd'hui, très attentives aux problèmes posés par les nanomatériaux, et sensibles à l'aspect juridique des problèmes. L'idée d'être poursuivis dans trente ans est intégrée par les industriels qui sont prêts à collaborer pour éviter cela.

Cependant, l'expertise, qui sous-tend les décisions éventuellement prises, est un problème majeur pour l'AFSSET. En effet, pendant très longtemps, l'expertise, le dire d'expert a été, comme dans d'autres domaines, le fait d'un homme compétent. Or, en matière scientifique, dans des domaines aussi complexes, le dire d'un seul expert aussi compétent soit-il, ne peut répondre durablement aux questions posées : y a-t-il un risque, quel est-il, à quel niveau, pendant combien de temps, quelle est la part de risque d'exposition ?

L'AFSSET est dotée, dans ses textes, de comités d'experts spécialisés intuitu personae qui doivent être les plus indépendants possible, nommés jusqu'à présent par arrêté interministériel. Que signifie le plus indépendant possible ? Tout d'abord, il faut que ces experts soient compétents et que leurs compétences soient reconnues par leurs pairs, ce qui implique un haut niveau de connaissance scientifique et des exigences en matière de publications. D'autres questions se posent. Un expert lié au niveau industriel est-il indépendant ? Un expert, également expert pour le ministère de la Santé, de l'Écologie, de l'Équipement est-il indépendant ? Un expert pour les assurances est-il indépendant ? Ces problèmes sont extrêmement importants, car le réservoir d'experts est très faible sur des sujets aussi novateurs que les nanomatériaux. On ne s'improvise pas expert dans ces domaines

En outre, la recherche, en France comme ailleurs, est, d'une part, souvent liée au milieu industriel, qui a intérêt à faire expertiser ses travaux par des personnes compétentes, et d'autre part, financée par des subventions d'industriels pour la moitié. À moins qu'ils n'aient des débouchés commerciaux, une très large majorité des grands laboratoires de l'INSERM, du CNRS etc, reçoivent des subventions privées. Doit-on, pour autant, considérer qu'ils ne sont pas indépendants ? Ce débat est extrêmement important, et nous l'avons déjà rencontré dans la téléphonie mobile, sujet encore trop polémique, bien qu'il jouisse de l'apport de nombreuses connaissances. L'AFSSET a eu recours dans ce domaine à des comités d'experts, donc à l'expertise collective, pluridisciplinaire, transparente, d'experts compétents, travaillant dans des laboratoires financés. Certains affirment que ce type expertise est biaisé. Pour caricaturer, je demande s'il faut faire expertiser la téléphonie mobile par des gynécologues, et les nanomatériaux par des spécialistes de la téléphonie mobile !

La base juridique n'existant pas : nous ne savons pas ce qu'est un expert indépendant, un comité d'experts indépendants. Certains établissements « fabriquent » leur comité d'experts comme ils veulent, sans forcément faire appel à candidature. L'AFSSET, pour sa part, fait des appels à candidature, et publie les déclarations d'intérêt des experts. Nous sommes transparents, mais plus nous sommes transparents, plus nous sommes attaqués. Y a-t-il un intérêt à attaquer la science, les experts compétents ? Peut-être ! Il faut se poser la question. En tout état de cause, les enjeux sont éthiques, commerciaux et de santé publique.

Les problèmes de l'expertise, du faible réservoir d'experts, notamment les toxicologues, quasi introuvables en France, et ceux de la responsabilité des experts et des structures qui les emploient face au code pénal, sont considérables et ne peuvent pas être indépendants du débat d'aujourd'hui. L'on sait, en effet, très peu de choses sur les nanotechnologies, l'on sait ce à quoi elles peuvent servir, mais l'on ignore comment les mesurer, quels en seront les enjeux de santé dans un futur plus ou moins proche, positivement ou négativement. L'acquisition des connaissances repose donc sur l'organisation de l'expertise.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie d'avoir souligné la difficulté de l'expertise dite indépendante. J'ai pour ma part une définition : moins un expert connaît le sujet, plus il est indépendant. Il est d'autant plus indépendant qu'il est d'accord avec vous, quand vous êtes contre quoi que ce soit. Celui qui dit non, même s'il ne connaît rien au sujet, est sûrement un expert indépendant.

La question est difficile, et nous essayons, à l'Office parlementaire, par le biais des experts travaillant avec les rapporteurs - notre Conseil scientifique -, par la transparence, le croisement des informations, les auditions publiques dont le compte rendu est publié, d'y apporter notre contribution.

Docteur Patrice MARCHE, Directeur de l'unité de recherche contrôle de la réponse immunitaire spécifique de l'INSERM : Il y a deux niveaux d'indépendance : l'indépendance individuelle de l'expert en tant que tel, difficile à maîtriser, et l'indépendance collective d'un comité qui peut être constitué d'experts plus ou moins indépendants. C'est à travers la pluralité des comités qu'une évaluation indépendante sera assurée; elle ne devrait pas être individuelle.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Nous vous rejoignons tout à fait.

Docteur Michèle FROMENT-VÉDRINE : Je suis tout à fait d'accord. C'est la raison pour laquelle nous avons, dans la loi, des comités d'experts spécialisés pluridisciplinaires, en nombre suffisant et dont les liens sont connus. Certains liens s'annulent : tout le monde ne tire pas la charrue dans le même sens, et c'est ainsi que nous pouvons obtenir une information de qualité. En excluant les experts individuellement, le débat s'en trouve biaisé. L'expertise collective est un très grand progrès par rapport à l'expertise antérieure.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie Madame.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Nous en arrivons à la seconde partie de l'audition publique : les enjeux éthiques. Les nanotechnologies posent des questions éthiques qui leur sont spécifiques et sont liées, en partie, à leur auto reproductibilité ou leur autoréplication. L'homme aurait créé une technique qu'il ne pourrait plus maîtriser. Il aurait généré une nouvelle science avec de nouveaux matériaux hybrides, comme cela nous a été présenté. Le Professeur Didier Sicard, Président du Comité consultatif national d'éthique pour les sciences de la vie et la santé (CCNE), nous exposera comment ce comité perçoit les enjeux des nanotechnologies. Comment réagit-il sur les bénéfices thérapeutiques, la transparence sur les protocoles de recherche, et sur les consentements à d'éventuels essais, même si le CCNE ne s'est pas encore prononcé sur les nanotechnologies? Un groupe de travail du CCNE est en train d'élaborer un avis.

Professeur Didier SICARD, Président du Comité national consultatif d'éthique pour les sciences de la vie et de la santé (CCNE) : Le Comité national d'éthique est un comité indépendant. Il n'est pas un comité d'experts. Dans une situation d'ignorance, que demander à l'éthique ? On peut lui demander un questionnement opératoire ou un débat intellectuel.

Le questionnement opératoire se situe dans un environnement de concurrence internationale et de propriété industrielle qui rend la réflexion éthique coûteuse. Il ne s'agit pas simplement d'un débat passionnant de café du commerce sur l'homme-machine ou d'une sorte de discussion pour philosophes, ce à quoi l'éthique pourrait être réduite. L'éthique, dans ce domaine, n'est pas une analyse d'experts sur les bénéfices/risques. Ce que nous avons entendu nous apprend beaucoup de choses, mais nous n'avons aucune compétence pour séparer en deux colonnes ce que seraient les bénéfices de ce que seraient les risques. L'éthique n'est pas normative. Or comme nous l'avons remarqué, la Commission européenne demande à l'éthique d'exercer ces deux fonctions. L'éthique n'est pas non plus une frilosité devant l'avenir, pour rester attaché au passé, ou une interrogation sur nature et culture, la spiritualité, les valeurs.

J'ai le sentiment que notre travail se situe plutôt dans deux directions. La première est le questionnement opératoire, au centre même de la recherche, et la deuxième, moins importante, porte sur l'interrogation sur les bioprothèses.

Tout d'abord, sur le plan opératoire, dans le domaine de la fabrication des nanomatériaux, et éventuellement de la fabrication moléculaire d'auto assemblage, l'éthique, comme cela a déjà été rappelé, est facile à évoquer de façon incantatoire, mais difficile à mettre en œuvre. L'éthique c'est la transparence. Les nanotechnologies sont, répète-t-on, pour la première fois à la convergence de la chimie, de la biochimie, de l'informatique, de la communication, des neurosciences, comme si le monde commençait à mettre en commun ces données.

En fait, comme le philosophe Denis Vernant le soulignait il y a quelques jours, nous sommes dans une situation de divergence : divergence d'intérêts majeurs, entre propriété industrielle et recherche fondamentale avec, en outre, une accélération du passage de la recherche fondamentale à l'utilisation industrielle et économique déjà évoquée. Cette accélération, cette course, cette précipitation, à coups de centaines de milliards de dollars, ne peut qu'être assez angoissante, au regard d'une transparence sans cesse balayée par une concurrence de plus en plus sauvage.

Le deuxième point est la traçabilité qui peut également avoir un effet positif ou négatif. Il est essentiel que l'usager ou le travailleur sache s'il est exposé ou non à telle nanoparticule. Cependant, des nanomatériaux traçables rendraient l'homme lui-même traçable, avec toutes les conséquences possibles. Cette obsession commerciale, au détriment de la recherche fondamentale, me paraît être actuellement un des enjeux éthiques majeurs. J'en veux pour preuve le silence commercial d'une grande entreprise, après une annonce, il y a quelques années d'un progrès extraordinaire - vous citiez L'OREAL, mais nous n'avons pas à fustiger telle ou telle entreprise-. Nous vivons dans une période où les nanomatériaux sont présents dans notre vie quotidienne : pare-brise, vitres, peintures, goudrons, routes qui ne retiennent pas l'eau. Cela est vécu uniquement comme un progrès matériel, et non comme une interrogation sur le prix à payer pour ce progrès.

L'éthique de la recherche ne se pose pas au dernier moment la question du sens, mais elle est au contraire à la base, fondatrice. On peut être triste de s'apercevoir que l'éthique arrive « au dessert » : avec ce que nous savons maintenant, avez-vous des questions pertinentes à poser sur le rapport entre le matériau et l'être humain ? » Ces débats à un tel moment sont non seulement vains, mais aussi un peu ridicules par rapport à l'importance des enjeux.

Le rapport au respect des libertés est à mon sens moins prégnant, parce qu'il a moins d'incidence commerciale. Les conséquences, sur les plans diagnostique et thérapeutique, d'un nanomédicament, les hypothèses de dopage cérébral sont des notions effrayantes qui permettent, à bon prix, de se passer des questions essentielles. Il est vrai que, depuis vingt ou trente ans, l'être humain est de plus en plus réduit à des marqueurs, à des paramètres, des images, des chiffres, à tel ou tel élément. La nanométrologie médicale ne fera qu'amplifier ce dépistage. On peut donc se demander s'il n'y aura pas un espace de plus en plus grand entre ce que les nanodiagnostics diront de l'homme et les possibilités thérapeutiques. Le diagnostic et le dépistage l'emporteront probablement toujours sur la thérapeutique, qui est toujours apparue comme un alibi pour permettre une intrusion diagnostique (neuro-implants).

L'usage militaire des nanomatériaux, par essence, ne peut être transparent. Les États-Unis sont beaucoup plus mobilisés par l'usage militaire des nanomatériaux que par leur usage médical et quotidien civil. Savoir quel cyborg (cybernetic organism) nous désirons me paraît une question seconde par rapport à la nécessité d'une transparence qui devient très pénalisante sur le plan commercial.

L'éthique n'a pas pour objectif d'empêcher le progrès scientifique, mais celui de reposer sans cesse des questions sur le sens.

Enfin, le débat sur le nanogap entre Nord et Sud risque de rejoindre celui que nous connaissons sur les plantes génétiquement modifiées (PGM) censées réduire la famine du monde. Cet argument m'apparaît un peu facile et demande à être prouvé ultérieurement.

Il convient de poser des gardes fous et de revenir à des fondamentaux. Faire de l'éthique sur de l'ignorance a quelque chose d'hasardeux, voire de dangereux : nos recommandations ne peuvent donc qu'être timides, voire être presque des lieux communs. La recherche fondamentale à visée commerciale extrêmement rapide devrait être beaucoup plus encouragée dans sa responsabilité, dans sa vigilance éthique en amont et non en aval.

Le partage des connaissances, au moins à l'échelon européen, est une évidence éthique. L'Europe est de ce point de vue importante, pour éviter de retomber dans les problèmes de l'amiante, sur lequel les informations anglo-saxonnes, très inquiétantes, ont été prises en compte en France avec beaucoup de retard. La recherche doit rassembler les conceptions des nanomatériaux et immédiatement leurs effets, on ne devrait pas confier à deux instances différentes l'étude des effets négatifs ou positifs, et la fabrication.

La transparence des bonnes pratiques est essentielle avec la question de savoir comment entrer dans le concret. Doit-on, par exemple, intégrer les innovations nanomédicales aux lois de bioéthiques ? J'y serai personnellement assez favorable. Ces lois ont permis d'organiser l'assistance médicale à la procréation, en France peut-être mieux qu'ailleurs, avec certaines interdictions que l'on peut regretter. On pourrait imaginer que les interdictions, les usages, les obligations, les garde-fous, même généraux, soient inscrits dans la loi. De ce point de vue, l'Office parlementaire a un rôle essentiel à jouer.

Réfléchir sur l'homme machine, ou à la gelée grise me paraît être dérisoire, eu égard à l'importance fondamentale d'une éthique qui s'interroge, au creux même de l'entreprise industrielle, sur ce qu'une information porteuse de vérité peut apporter à une société. Il ne faut pas retomber dans les débats sur les OGM. Je me souviens, avec M. Jean-Yves Le Déaut, d'une expérience un peu triste sur ce sujet. Il y a trois ou quatre ans, le débat n'existait plus, parce que certains étaient des scientistes purs et durs, et d'autres refusaient la science; cela aboutissait à une impasse totale. Pour ne pas renouveler ce conflit qui confine à l'absurde, il faut que cette exigence de transparence soit au cœur même du débat et non pas seconde.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie Professeur Sicard. Le Professeur Jean-Claude Ameisen, intervient ici au titre de l'INSERM. Il est également membre du Comité consultatif national d'éthique. Pourriez-vous nous préciser comment vous percevez les questions éthiques soulevées par les nanotechnologies, à la lumière des réflexions menées sur les biotechnologies ? Quelles seraient les bonnes pratiques en la matière ? Comment informer le public ? Peut-on s'inspirer des autres pratiques dans le monde ?

Professeur Jean-Claude AMEISEN, Président du Comité d'éthique de l'INSERM, membre du CCNE : Je vais poursuivre les réflexions du Professeur Sicard en commençant par poser cette question : les nanosciences et les nanotechnologies posent-elles de nouveaux problèmes éthiques ou ces problèmes éthiques sont-ils anciens, mais posés dans un nouveau contexte ?

Les nanosciences et nanotechnologies, tel que je le comprends, sont considérées comme une révolution scientifique. De quelle révolution s'agit-il ? Est-ce une nouvelle représentation du monde, une nouvelle grille de lecture de la réalité, comme l'ont été la théorie de l'évolution du vivant, la génétique, la mécanique quantique, la théorie de la relativité ? Je ne le pense pas. Le seul Prix Nobel dans le domaine, à ma connaissance, décerné il y a 20 ans, concerne l'invention d'un instrument. À titre de comparaison, c'est comme si, depuis 20 ans, le seul prix Nobel en biologie avait été décerné pour la découverte du microscope électronique.

S'agit-il, grâce à l'utilisation de nouveaux instruments -microscope à force atomique, etc - de la découverte d'éléments cachés de la réalité ? Au milieu du XIXème siècle, les microscopes optiques ont permis de découvrir la composition cellulaire du vivant, et ont changé notre représentation de la nature. Il y a une cinquantaine d'années, le séquençage de l'ADN a changé notre conception du vivant. Je considère que tel n'est pas le cas pour les nanotechnologies. Il s'agit de la possibilité de manipuler à une échelle connue, l'échelle atomique, les éléments constitutifs de la matière.

La convergence NBIC (nanotechnologie, biotechnologie, sciences de l'information et sciences cognitives) a été rappelée. Si la manipulation au niveau du nanomètre ou de la centaine de nanomètres permet d'augmenter cette convergence, celle-ci existe et préexistait aux nanosciences et aux nanotechnologies.

Quand on évoque l'exemple de la biologie synthétique, et donc la possibilité de fabriquer de novo quelque chose qui ressemblerait au vivant, le virus de la poliomyélite et celui de la pandémie grippale de 1918 ont été fabriqués eux aussi sans faire appel aux nanotechnologies. Depuis 50 ans, l'ADN a été manipulé alors qu'il a quelques nanomètres de largeur avec une très grande précision sans ces techniques. Cela s'accélère mais ne change pas.

L'interface homme /machine et la convergence information/ cognition existent. La manipulation de bras artificiels par la pensée et la manipulation d'ordinateurs par le fonctionnement cérébral existent. Il est certain que cela transformera ce domaine, mais à partir de l'existant. Autrement dit, cette convergence, BIC (biologie, sciences de l'information et sciences cognitives) dans la partie NBIC existe, indépendamment du préfixe N (nano), même si ce préfixe va la bouleverser.

Est-ce qu'il ne s'agit pas essentiellement, comme on l'a déjà expliqué, d'une révolution technologique qui, soit s'inscrit dans des révolutions scientifiques existantes, soit est dans l'attente d'une révolution scientifique spécifique ? Dès lors, les problèmes éthiques qui se posent sont pour nombre d'entre eux les mêmes que ceux qui se posent vis-à-vis de n'importe quelle approche technologique nouvelle. Ont donc été mentionnés, la traçabilité, les effets des biotechnologies, la biodégrabilité, la recherche sur les risques. À cet égard, à ma connaissance, 10 milliards de dollars ont été dépensés en 2005 pour la recherche développement, et 40 millions de dollars pour la recherche sur les risques, c'est-à-dire 0,5 %. Il est certain que la proportion qui est donnée au développement de la recherche sur les risques est pour l'instant très minime.

La question des bénéfices/risques est tout à fait théorique. Il me semble qu'on constate peut-être, comme à un certain moment pour d'autres développements des technologies tels les OGM, qu'existe un risque de dissociation entre le discours et la pratique. Certes, on entend parler de traitement contre le cancer, de maladies rares, de diagnostics nouveaux, mais la majorité des applications commerciales portent pour l'instant sur les cosmétiques, les revêtements de route, les disques durs etc. Il ne faut pas que dans la société se produise un clivage entre ce dont on parle parce qu'on l'attend, qu'on l'espère, et ce qui est actuellement réellement produit et vendu.

Le secret, le partage des connaissances et les conflits d'intérêts, problématiques mentionnées par le Professeur Didier Sicard, sont essentiels. On sent très bien une tension entre d'une part, la volonté de débat social qui par définition exige une information et, d'autre part, les intérêts économiques, la protection intellectuelle, les brevets qui demandent au contraire peu de communication. Aussi savoir comment gérer le dynamisme d'un investissement privé en conciliant la diffusion et le partage des connaissances avec la protection des intérêts économiques me paraît central pour le développement de toute technologie, surtout quand il est extrêmement rapide, ce qui caractérise les nanotechnologies.

En particulier au niveau des publications, tel que je le perçois, on peut se demander pourquoi le nombre de publications en recherche fondamentale sur les nanotechnologies est relativement faible. Peut- être, l'est-il parce que la plupart des revues demandent, lorsqu'il y a publication, un partage des outils et des objets qui sont produits. Comment reproduire ce qui se fait dans d'autres domaines, à savoir pouvoir échanger et partager les produits, tout en protégeant la propriété intellectuelle, sans que le secret ne soit le seul moyen d'y parvenir.

Les autres questions, implants cérébraux, interface homme /machine, rentrent dans des problèmes éthiques qui sont posés dans le cadre des neurosciences, sous une forme nouvelle. S'agissant de l'information et des libertés publiques, les nanotechnologies confèrent une coloration technologique nouvelle à une manière habituelle de poser les problèmes éthiques.

Les nanotechnologies nous interrogent de la manière suivante. Devons-nous produire des innovations et les diffuser, avant de les comprendre ou devons-nous essayer de les comprendre et les analyser, avant de les diffuser et d'opérer des choix ? Sommes-nous prisonniers de tout ce que nous produisons, quitte à voir ultérieurement ce qui est utile ou néfaste , ou bien peut-on conduire, en amont et en parallèle, un processus de réflexion ?

Si l'on s'en réfère au développement de la biologie moléculaire : il y a 30 ans, la Conférence d'Asilomar a été non seulement l'occasion d'un moratoire, mais surtout l'occasion d'instituer de bonnes pratiques qui ont dissocié, d'une certaine façon, le laboratoire et la fabrication, la diffusion et l'utilisation. Les évolutions sont beaucoup plus rapides; c'est la raison pour laquelle les questions doivent être posées encore davantage en amont.

Dans le domaine de la médecine, une série de problèmes se posent (modification de l'homme, interface machine/cerveau, notamment). L'utilisation de puces ADN à protéines ARN sur une cellule d'embryon avant l'implantation dans l'utérus, permet de détecter une série d'événements dont la médecine est incapable, aujourd'hui, d'interpréter la signification. La recherche est là encore nécessaire pour ne pas disposer de résultats dont on ne sait que faire, d'un point de vue prédictif, préventif ou thérapeutique. La connaissance est donc le pré-requis à l'exercice de la responsabilité. Indépendamment des débats sur la démocratie participative, il s'agit de savoir sur quelle information portent ces débats.

Un soutien important donné au développement des recherches fondamentales est peut-être l'élément essentiel qui manque dans la perception de l'avancée actuelle des nanosciences et des nanotechnologies. C'est le fondement même du consentement libre et informé ; ainsi le degré d'information dépend des progrès de la connaissance dans ces domaines.

La réflexion éthique, telle que nous la menons en particulier au CCNE, ne vise pas du tout à freiner le progrès de la science, mais au contraire à exiger plus de science, plus de recherche, plus de partage des connaissances, plus de diffusion, et moins de certitudes a priori, moins de débats sur ces certitudes a priori portant sur des effets éventuels extraordinaires et bénéfiques ou des effets éventuels désastreux.

La société doit pouvoir comprendre, à condition que l'information se diffuse. Comme le disait le physicien Richard Feynman, « ce qui n'est pas entouré d'incertitude ne peut pas être la vérité », autrement dit la recherche enlève l'ignorance d'hier, mais n'apporte pas la certitude ; elle dégage de nouveaux environnements et de nouveaux horizons.

Si la technique sans conscience est comme un corps sans âme, la technique sans science et sans connaissance est un corps sans esprit. Pousser, développer la recherche fondamentale et interdisciplinaire, en particulier en biologie, en médecine, en impliquant la physique, l'informatique, la biologie et la médecine est donc très important, si l'on veut pouvoir maîtriser les utilisations des applications qui sont produites.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie beaucoup Professeur Ameisen d'avoir présenté, en un temps si court, un exposé aussi dense et aussi évocateur dans les termes que vous avez choisis.

Je donne maintenant la parole à Mme Bernadette Bensaude-Vincent, Membre du Comité d'éthique du CNRS, et de l'Académie des technologies, Professeur d'histoire et de philosophie des sciences à l'université Paris X, Directrice du Centre d'histoire et de philosophie des sciences. Vous allez nous commenter brièvement l'avis du Comité d'éthique du CNRS qui insiste particulièrement sur l'information et la participation du public. Avec vous, nous entrons déjà dans la pluridisciplinarité. En temps qu'historienne et philosophe des sciences, comment percevez-vous les enjeux et débats sur les nanotechnologies ? Comment la communauté scientifique réagit-elle à la demande d'information émanant de la société civile ?

Mme Bernadette BENSAUDE-VINCENT, Membre du Comité d'éthique pour les sciences du CNRS (COMETS), Professeur d'histoire et de philosophie des sciences à l'université Paris X : Je vous remercie beaucoup, Monsieur le Président. Le COMEST du CNRS s'est autosaisi sur la question des nanosciences et des nanotechnologies, car il lui a semblé que ce secteur appelait, plus qu'aucun autre, une vigilance éthique. Pourquoi ?

La recherche en nanosciences et nanotechnologies se signale à nos yeux par deux traits majeurs.

- Premièrement, par l'impossibilité de dissocier recherche fondamentale et recherche technologique. À cet égard, on ne peut guère séparer une recherche à caractère cognitif, d'une recherche à finalité pratique.

- Deuxièmement, par la présence d'une tension permanente entre deux aspirations, en apparence contradictoires, chez les chercheurs et dans les discours des promoteurs des nanosciences et nanotechnologies : un espoir de contrôle fondé sur l'accès aux briques élémentaires et un désir d'émergence fondé sur les nouvelles propriétés des éléments traités à l'échelle nano d'une part, et, sur les espoirs de produire des synergies avec la convergence nano-bio-info-cogno (NBIC), en en jouant d'autre part.

Cette ambivalence trouve un écho dans les discours des promoteurs qui exaltent une révolution technologique susceptible de bouleverser tous les secteurs. En effet, il s'agit d'une technologie générique, qui, en même temps répond aux angoisses qu'elle suscite dans le public, en sachant que les nanos ne font que continuer les problèmes liés à la micro, aux technologies de l'information et de la communication, aux biotechnologies. On nous promet une révolution tout en prétendant qu'il n'y a rien de nouveau sous le soleil. Tel est le point de départ de notre alerte, car un effet d'alerte s'est manifesté.

L'objet des recommandations sur lesquelles nous avons travaillées n'est pas du tout de freiner, ni même de réguler la recherche, mais d'encourager avant tout la réflexion sur les valeurs et les fins de la recherche en nanosciences et nanotechnologies. Quatre facettes de l'éthique sont prises en compte dans cet avis.

1 - La déontologie des chercheurs. Il importe de redéfinir, comme cela a déjà été souligné, ce que sont les bonnes pratiques dans un contexte de compétition internationale exacerbé, dans lequel les enjeux industriels, militaires, et sanitaires sont considérables. Une gestion raisonnée des éventuels conflits d'intérêts s'impose, car les chercheurs engagés dans une aventure industrielle ou commerciale sont susceptibles d'avoir un jugement scientifique ou éthique un peu biaisé.

2 - La prévention des risques, et plus, encore de la précaution face aux incertitudes. Il convient tout d'abord de prendre des mesures pour la sécurité des travailleurs. Cependant, la gestion des risques n'est pas limitée aux nanoparticules. Elle concerne les impacts possibles des produits de la recherche sur les individus (leur vie quotidienne, mais aussi leur perception d'eux-mêmes), et sur l'organisation sociale (emploi, sécurité) à court et long terme.

3 - L'interrogation sur les valeurs qu'est avant tout l'éthique. Or, à lire les rapports qui accompagnent les nanoinitiatives dans tous les pays, il serait difficile de prétendre que la recherche en nanoscience et en nanotechnologie est neutre ou indifférente aux valeurs, ou que leur valorisation proviendra des usages que l'on en fera. Les nanotechnologies se déploient sur fond d'une transgression des valeurs culturelles fondamentales, et surtout la transgression de la frontière entre nature et artifice, dans la production, par exemple, d'artefacts hybrides utilisant les pièces de la machine biologique, comme des outils d'auto assemblage pour d'autres fonctionnalités.

Les métaphores de la machine ne sont pas neutres ; elles ne sont jamais neutres. Le problème n'est pas de comparer le corps à une machine, cela s'est toujours fait depuis Descartes, mais de savoir à quelle machine on se réfère. Se réfère-t-on à une machine cartésienne, précisément, qui renvoie à un créateur tout puissant, ou bien se réfère-t-on à un automate reproducteur qui relaie le fantasme de la gelée grise ? Dans tous les cas, on utilise une technologie qui détient le pouvoir de maîtriser et d'asservir la nature à des fins techniques, ou bien, au contraire d'être subordonnée à des fins techniques. Ces concepts de machines sont tout à fait hors de propos lorsqu'il s'agit de nanotechnologies.

Cette transgression de la frontière entre nature et artifice se double d'une transgression de la frontière entre nature et culture, dans l'affirmation maintes fois réitérée que l'avènement des nanotechnologies relève d'un processus naturel qui s'inscrirait dans la continuité de l'évolution biologique. Qu'on le veuille ou non, l'ère des nanos adviendrait, et la société humaine n'aurait qu'à s'adapter, y compris à se soumettre à l'avènement de transhumains, si on écoute les porte-parole de ce projet. Dans tous les cas, quand on naturalise les techniques, il n'y a plus de place pour l'éthique : il n'y a qu'à se soumettre.

4 - L'interrogation sur le sens du nanomonde qui se construit dans les laboratoires, sur les fins de la recherche et sur la légitimité des investissements consentis. Ces questions de sens sont, pour la plupart, des questions de bon sens, que doit se poser  tout citoyen et tout chercheur. Pourquoi cette recherche, pourquoi celle-ci plutôt qu'une autre ? À quel besoin répond-elle ? À qui profitera-t-elle ? Justifie-t-elle les investissements consentis ? Qui en assumera la responsabilité en cas de problème ?

S'agissant des recommandations figurant dans l'avis élaboré par le COMETS, je vais en signaler quatre qui me paraissent essentielles.

1 - La transparence des résultats et des sources qui a été largement évoquée pour le repérage et l'arbitrage des conflits d'intérêts dans les relations entre recherche et industrie.

2 - La création dans les laboratoires d'espaces éthiques qui soient des lieux de discussions, de débats, où les chercheurs, ingénieurs et techniciens auront la liberté et la possibilité d'exprimer leurs doutes ou leurs questionnements, en même temps qu'ils s'exerceront à la prise de parole, qui fait souvent problème chez les scientifiques aujourd'hui. Ceci requiert à nos yeux la présence de spécialistes en sciences humaines et sociales, au sein des programmes en nanosciences et nanotechnologies, pour animer les débats et élaborer des petits guides éthiques sur chacune des applications.

3 - Assurer un contact permanent avec le public. Nous considérons que ce contact ne doit plus se faire avec des scientifiques pédagogues qui iraient enseigner au public ce qu'est la vérité, mais avec des scientifiques qui seraient à l'écoute des peurs, des attentes, des demandes de la société civile, et agiraient en conséquence.

L'exigence d'une concertation pour la définition et le suivi des programmes de recherche, avec les représentants des parties intéressées : industriels, associations de consommateurs, associations de malades, ONG ... Cette recommandation me semble la plus importante. Les conseils et avis de ces acteurs sont indispensables pour éclairer les instances décisionnelles sur les attentes du corps social. Une articulation adéquate devrait être trouvée à ce niveau avec l'Office parlementaire d'évaluation des choix scientifiques et technologiques qui doit devenir une instance nationale.

Telles sont les remarques et préconisations proposées ; elles visent à favoriser non pas une recherche éthiquement correcte, mais une recherche responsable. La liberté justement revendiquée par les chercheurs doit en effet se payer au prix de leur responsabilité. La responsabilité traditionnelle du chercheur et la responsabilité scientifique vis-à-vis de ses pairs doivent maintenant être doublées d'une responsabilité sociale vis-à-vis du corps citoyen présent et futur.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie infiniment, Madame, pour cette communication extrêmement précise et très intéressante, qui trace déjà des perspectives, y compris pour l'OPECST. C'est bien de penser à nous, et bien d'en penser en bien, ce qui n'est pas le cas de tout le monde ! Nous vous en remercions doublement.

Je vais donner la parole à Mme Simone SCHOLZE, spécialiste du programme « Éthique des sciences et des technologies » de l'UNESCO, qui est juriste, a été conseiller du ministre des sciences et de la technologie du Brésil sur les problèmes éthiques et juridiques posés par la science. Vous étudiez à l'UNESCO ces questions depuis 2003, et avez largement participé à l'élaboration du rapport sur les aspects éthiques et politiques des nanotechnologies.

Pourriez-vous nous préciser le contexte international des débats, vous prononcer sur les initiatives européennes en la matière, expliquer comment l'UNESCO a abordé le sujet des nanotechnologies, ainsi que les positions de ses divers membres? À titre personnel, ayant eu dans une vie antérieure à travailler avec l'UNESCO, je considère que de remarquables travaux y sont réalisés. Cependant, une lacune reste à combler. L'UNESCO est une institution intergouvernementale avec laquelle il serait intéressant d'organiser une interface avec les parlements. L'OPECST serait disposé à entretenir des relations plus étroites avec l'UNESCO.

Mme Simone SCHOLZE, Spécialiste du programme « Éthique des sciences et des technologies », Direction des sciences sociales et humaines de l'UNESCO : Je vous remercie Monsieur le Président, et remercie également l'OPECST d'avoir invité l'UNESCO pour partager quelques informations sur nos activités dans ces domaines. C'est une « rétro alimentation » car l'UNESCO se nourrit du débat national en France, tout en restant à l'écoute des positions, des idées, des réflexions des autres États membres de l'organisation.

Présentation de la Commission mondiale de l'éthique de la connaissance scientifique et technologique (COMEST).

La division « Éthique des sciences et des technologies » constitue le secrétariat de la COMEST. Créée en 1998 par l'UNESCO, la COMEST est un organe consultatif et un forum de réflexion composé de 18 experts indépendants de différentes disciplines : juristes, scientifiques, philosophes, experts dans les domaines de la religion et de la politique. Elle respecte la couverture géographique des États membres. Ces experts ne sont pas nommés par les gouvernements, mais recommandés par les académies des sciences, et choisis par le Directeur général de l'UNESCO pour leurs compétences individuelles.

La COMEST est le conseiller de l'UNESCO sur l'orientation de son programme d'éthique des sciences et des technologies. C'est un forum intellectuel, un lieu d'échanges d'idées et d'expériences. Il décèle les signes précurseurs des situations de risque. Il joue un rôle de conseiller auprès des décideurs politiques des États membres, et promeut le dialogue entre la communauté scientifique, les décideurs politiques et le grand public.

Elle travaille aujourd'hui sur le renforcement des capacités concernant l'éthique de l'environnement, l'éthique de l'espace extra atmosphérique, l'éthique scientifique des codes de conduite à l'attention des scientifiques.

Plusieurs programmes sont en cours : « l'éthique autour du monde », Observatoire mondial de l'éthique, Programme d'éducation à l'éthique, Prix Avicenne d'éthique scientifique. Un programme de recherche sur les nouvelles technologies émergentes est en cours; il aborde les problèmes et enjeux éthiques les concernant. Les nanotechnologies font partie de ce programme, et nous développons actuellement des études prospectives relatives à l'impact social et éthique des nanotechnologies et à leurs implications, la COMEST ayant commencé à travailler sur le thème des nanos en décembre 2003, à l'occasion de sa 3ème réunion ordinaire. De plus amples informations figurent sur le site web de l'UNESCO à ce sujet.

La méthodologie de travail est organisée selon trois phases :

Première phase : l'identification des dimensions morales qui pourraient être mises en danger par les nanotechnologies.

L'UNESCO a établi un groupe ad hoc début 2005 qui aide la COMEST. Ce groupe d'experts qui viennent du monde entier, de pays développés ou en développement, est multidisciplinaire en sciences dures, ainsi qu'en sciences humaines et sociales. Il s'est réuni à Paris en juillet et décembre 2005, a établi une proposition de politique ; les rapports des deux réunions sont disponibles sur le site web de la division d'éthique des sciences et des technologies. En outre, sur la base des articles soumis par les experts, un livre sera publié: « Nanotechnologies : questions scientifiques, éthiques et politiques » dans la série « Éthique des sciences et des technologies » de l'UNESCO ; il sera traduit dans ses six langues officielles (anglais, arabe, chinois, espagnol, français et russe) et soumis à la COMEST en décembre prochain, à l'occasion de la prochaine réunion ordinaire à Dakar.

Deuxième phase : éprouver la pertinence des actions internationales potentielles.

Des représentants des différentes sciences impliquées dans le développement et les applications des nanotechnologies ont pour charge d'examiner les stratégies et les options proposées. Ils répertorient les dimensions éthiques des nanotechnologies dans une perspective mondiale. En outre, ils explorent les implications respectives des États membres, et identifient les opportunités d'actions internationales à entreprendre par l'UNESCO. Le projet de conseil d'orientation, une fois qu'il sera devenu un document de la COMEST, sera diffusé dans les secteurs pertinents et auprès des partenaires concernés de l'UNESCO.

Troisième phase : optimiser la faisabilité des actions potentielles.

Les parties prenantes principales seront consultées et impliquées dans le processus concernant la faisabilité politique des actions potentielles identifiées lors des deux phases précédentes. Sur la base de ce processus de consultation préliminaire, un projet de document sera préparé pour la Conférence générale de l'UNESCO (octobre 2007). Il sera ensuite ouvert aux consultations publiques dans le cadre de réunions dans différents pays, dont la première est prévue à Paris les 16 et 17 novembre 2007, pour finaliser le projet d'orientation politique. L'optimisation de la faisabilité des actions potentielles s'établira enfin sur la base de ce processus de consultation préliminaire, après approbation par la Conférence générale de l'UNESCO

Le document du conseil d'orientation politique est structuré autour de la caractérisation des nanotechnologies, par une approche interdisciplinaire et des propositions d'actions basées sur la sensibilisation, l'éducation, les politiques de recherche.

Le document relatif aux caractéristiques essentielles des nanotechnologies prend en considération les dimensions interdisciplinaires et transdisciplinaires. Les nanotechnologies représentent des opportunités. Il souligne la nécessité d'une sensibilisation, non seulement du public, mais aussi des scientifiques et des responsables politiques sur les spécificités des nanotechnologies. Comme le Professeur Ameisen, nous nous sommes aussi demandé si les nanotechnologies posaient de nouvelles questions éthiques, ou si celles-ci restaient les mêmes dans un nouveau contexte.

Le groupe a estimé qu'il fallait écarter la fiction scientifique, les scénarios apocalyptiques et utopiques, les promesses non fondées sur les connaissances scientifiques actuelles. Il a ainsi écarté deux questions non pertinentes pour les États membres, à l'heure actuelle - la gelée grise et le post humanisme ou l'Homme machine -, faux débats qui dissimulent les vraies questions éthiques plus importantes pour l'UNESCO.

Le document a retenu l'impact sur l'environnement et les questions de santé avec la nanomédecine. Le document du conseil d'orientation inclut également la vie privée, la confidentialité, la surveillance publique, ainsi que les questions de propriété intellectuelle.

Les aspects environnementaux, la toxicité ainsi que les applications militaires, les recherches secrètes sont également traités par le groupe. Nous savons que des budgets énormes sont investis aujourd'hui dans les recherches militaires et posent des problèmes éthiques ; il en va de même de la surveillance des ordinateurs. L'économie peut également prendre une dimension éthique qui n'a pas encore été mentionnée. En effet, les nanotechnologies seront aussi utilisées pour remplacer des matériaux naturels et des ressources minérales qui se trouvent essentiellement dans les pays en développement. L'impact économique à moyen et long terme sera considérable, aussi bien pour les pays consommateurs que pour les pays producteurs.

Trois niveaux de recommandations sont déjà identifiés dans ce document : des recommandations générales pour tous les États membres, des recommandations plus spécifiques aux nanotechnologies, ainsi que des recommandations particulières pour les pays en développement.

Deux principes figurent notamment parmi les recommandations générales.

La nécessité de l'éducation à l'éthique, incluant également la nanotechnologie. La proposition d'un principe directeur éthique volontaire pour les scientifiques a été formulée. Nous mettons à la disposition du public des publications et des brochures d'information très simples. La brochure exposée est en cours de traduction en français ainsi que dans les cinq langues officielles de l'UNESCO et sera éditée en fin d'année. La publication d'un livre réunissant les contributions du groupe d'experts est prévue pour janvier 2007. Le document du projet d'orientation est d'ores et déjà disponible sur Internet et sera diffusé auprès des États membres à l'occasion de la Conférence générale de l'UNESCO en octobre 2007.

La nécessité d'une politique de recherche et développement, avec en corollaire, l'institutionnalisation du débat éthique évident en France mais absent dans la plupart des pays membres, a été particulièrement soulignée.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie beaucoup. Je vais maintenant donner la parole à Mme Dorothée Benoit-Browaeys, journaliste scientifique, déléguée générale de VivAgora, association pour le débat public sur les sciences et société. Vous êtes journaliste scientifique depuis vingt ans, spécialisée dans les sciences du vivant, et vous vous intéressez particulièrement aux enjeux sociaux des développements scientifiques.

Vous allez nous entretenir des craintes exprimées par les citoyens, et la façon dont leur sont présentées les nanotechnologies, ainsi que du rôle de Vivagora. Vous allez également nous expliquer comment les différents acteurs : chercheurs, industriels, autorités locales et nationales interagissent. Quelles sont les craintes ? Qui y répond ? Comment le débat sur les nanotechnologies s'est-il instauré ou peut-il s'instaurer ? Que peut-on en attendre ?

Mme Dorothée BENOIT-BROWAEYS, Déléguée générale de VivAgora, journaliste scientifique : Je vous remercie Monsieur le Président de me donner la parole. Je suis particulièrement émue et impressionnée par la responsabilité qui me revient de représenter la seule association dans ce tour de table.

Je vais vous présenter la modeste contribution de VivAgora, à cet effort pour la transparence, la concertation et la participation du public aux choix scientifiques et techniques. Avec d'autres journalistes, je suis à l'origine de VivAgora, association fondée il y a 4 ans. VivAgora a organisé cette année, en 2006, 12 débats délibératifs sur les nanotechnologies, 6 à Paris qui ont donné lieu à 17 préconisations que vous pouvez consulter sur le site de l'association depuis septembre dernier. Un nouveau cycle de débats se déroule actuellement à Grenoble, sous le titre « Nanoviv ». Nous organisons ce soir notre 4e rencontre avec la population de Grenoble, dans un espace avide de discussion, dans la mesure où la violence est déjà très présente.

Le processus cyclique de débats mis en place par VivAgora est conçu comme un outil de révélation des accords et des désaccords, de construction collective des arguments et des priorités, et d'interpellation des acteurs, puisque les préconisations élaborées seront le support du colloque « Nanos et société » que nous avons prévu de tenir avec l'ensemble des acteurs en juin 2007.

VivAgora n'est pas une association militante défendant un avis sur les nanos. Elle ne défend qu'une seule chose : la démocratie technique. Elle a donc travaillé à cet effet en lien avec la revue électronique vivantinfo.com, qui dispose d'un espace nanomonde fondé en même temps que VivAgora : articulation entre information, transparence, entre analyse des questions sociétales, des enjeux scientifiques et techniques, et débat public. En effet, il nous semble très important d'associer les deux efforts. Le débat public n'est pas une fin en soi; il ne fait que permettre d'identifier des solutions collectives pour améliorer ou changer nos pratiques, sans se focaliser sur les seules préconisations.

J'articulerai ma présentation en trois points : le contexte international des débats publics sur les nanotechnologies ; comment la société civile s'empare-t-elle du sujet des nanotechnologies ? Comment pouvons-nous nous organiser pour construire des priorités collectives, en identifiant les critères pour bâtir une réelle démocratie technique ?

Le contexte international des débats publics sur les nanotechnologies : Vus de notre hexagone, les débats publics en sont à leurs balbutiements, or ce n'est pas le cas. VivAgora a répertorié 50 débats publics dans le monde depuis 2003, dont je tiens la liste à votre disposition. Il est important de voir comment les pays se sont mobilisés sur la question, et quelles ont été les parties prenantes à l'origine de ce mouvement.

On dénombre 17 manifestations aux États-Unis, 11 chez nos voisins britanniques. Certaines manifestations sont des Cafés scientifiques, comme en Australie, à Singapour, en Israël, ou en Estonie. D'autres sont au contraire institutionnelles, portées par les gouvernements, comme la Conférence de consensus danoise tenue dès juin 2004, le Nano jury en Grande-Bretagne en 2005, sur lequel s'est construit le processus de dialogue « Nanotechnology Engagement Group », financé par l'État britannique, ou bien enfin, la conférence du citoyen de Madison en avril 2005 aux États-Unis, qui a été définie par la loi « Recherche et Développement en nanotechnologie pour le XXIème siècle » stipulant l'intégration de la participation du public au fonctionnement des programmes de recherche.

En France, du point de vue de l'initiative gouvernementale, ou des pouvoirs publics, rien de ce genre n'existe pour l'instant. Les 4 opérations identifiées relèvent d'initiatives associatives.

Depuis peu cependant, d'autres acteurs apparaissent : les industriels, réunis au sein de l'association « Entreprises pour l'environnement », viennent de réaliser une consultation sur les risques, et le Conseil régional d'Île-de-France a amorcé un processus de conférences de citoyens qui s'achèvera en janvier 2007. Nous n'avons pas pris les devants en France, alors même que des voix hostiles se sont élevées, notamment à Grenoble, dès 2002. Déjà, s'amorcent toutes les postures caricaturales du débat sur les OGM, avec l'éternelle opposition des technophiles face aux technophobes, des diables industriels face aux obscurantistes. Je poserai une question grave : sommes-nous condamnés à la violence? Voulons-nous une société éclatée, sans dialogue, où les arguments des uns sont incapables de féconder les arguments des autres ? Le risque est bien de voir monter une vague de personnes totalement sceptiques, qui ne croient plus à aucun ressort de la vie politique, ni à la puissance du dialogue. Ce risque-là est bien présent, et je l'observe très précisément de la place que nous occupons à VivAgora. Cet enlisement risque de nous coûter très cher, car au lieu d'être en mesure de piloter les innovations, on s'achemine vers des coups de boutoir intempestifs.

Comment pouvons-nous en effet rester serein, quand on sait que des dizaines de produits nano sont sur le marché, comme on l'a déjà expliqué, que la fabrication des nanotubes de carbone à raison de dizaines de tonnes par an, est en route pour 2007 en Europe, sans que l'on connaisse l'ampleur des risques sanitaires pour les travailleurs, les consommateurs ou les personnes exposées ? Comment rester serein, lorsque l'on sait que les normes encadrant la caractérisation et les obligations en matière toxicologique ne seront disponibles que dans 3 ans ? « Nous sommes en train de fabriquer une catastrophe », a prédit M. William Dab, ancien Directeur général de la santé, en juin dernier. Les consommateurs vont être manifestement difficiles à rassurer. Je ne cite pas cela pour faire peur, mais parce que nous sommes collectivement responsables de cette mobilisation car les réassureurs ont annoncé qu'ils n'assumeraient pas ces risques impossibles à délimiter, selon les termes du rapport de la Swiss-Re, publié en 2004, et ce alors que le problème de sécurité sanitaire n'est pas le plus compliqué.

Comment effectivement la société civile s'empare-t-elle des nanotechnologies ?

Peu d'associations se sont aujourd'hui mobilisées sur les nanotechnologies. La Fondation « Sciences citoyennes » a publié un avis cet été, le collectif ASSECO (Association études et consommation) qui rassemble 60 associations environnementales et de développement durable a aussi pris position en septembre dernier. Seuls des groupes associatifs aux préoccupations transversales, comme le groupe canadien ETC (« Erosion, Technology et Concentration »), ou Greenpeace Angleterre, ont investi ce domaine précocement, dès 2002. Le groupe ETC a d'ailleurs demandé un moratoire et surtout un système international d'évaluation des nouvelles technologies sous l'égide des Nations Unies. Cette demande nous semble particulièrement intéressante pour la mise en place d'un système de veille et d'évaluation des nouvelles technologies.

On s'aperçoit que les militants sont déconcertés par un domaine aussi multiforme, qui touche aussi bien l'environnement, la santé, l'agriculture, le monde des consommateurs et de la protection des libertés personnelles.

Cette dispersion des effets potentiels des nanotechnologies est due au phénomène de convergence, qui connecte les supports élémentaires de la matière, du vivant, de l'électronique, et du cerveau. C'est la potentialisation des innovations les unes par les autres qui engendrera des émergences sur lesquelles il faut réfléchir collectivement. Ainsi, les nanos arrivent dans la société par une multiplicité d'applications immédiates déjà évoquées. L'invisibilité et l'intrusion dans les corps inquiètent, et les usages multiples génèrent une posture généraliste : la technologie est interrogée en tant que telle, comme processus transformateur des modes de vie et de la vie elle-même. Le pouvoir paraît considérable, et la légitimité d'une consultation semble évidente. « L'homme est devenu trop puissant pour se permettre de jouer avec le mal, l'excès de sa force le condamne à la vertu » estimait Jean Rostand.

Ces technologies lilliputiennes sont propices à récapituler une série de critiques de la technique, développées par des penseurs comme Martin Heidegger, Hans Jonas, Hannah Arendt, Ivan Ilitch ou Jacques Ellul. Elles reprennent une série d'alertes déjà vécues avec les technologies de l'information et de la communication (protection de la personne), et surtout, avec les biotechnologies (modification du vivant, instrumentalisation et appropriation des corps et de leurs éléments). Du fait de cette récapitulation, de nombreuses craintes peuvent aussi être recyclées et se concentrer sur les nanotechnologies. Les postures de rejet radical, comme à Grenoble, questionnent bien davantage les capacités d'évaluation et de contrôle que la technique elle-même. Le souci semble légitime, si l'on considère un passé tout récent ne témoignant pas d'une forte protection des consommateurs dans les dossiers de l'amiante, de Tchernobyl ou du sang contaminé.

Ce ne sont pas seulement les militants qui craignent l'absence de maîtrise, qui exigent une responsabilité, comme on a pu l'entendre lors de certains de nos débats à VivAgora à Paris. Si nous n'arrivons pas à évaluer les technologies et leurs effets avant leur mise sur le marché, mieux vaut tout arrêter a déclaré le 9 mars M. Yves Le Bars, ancien président de l'Agence nationale pour la gestion des déchets radioactifs (ANDRA). De même, M. Alain De Neve, expert belge en études stratégiques pour la défense, a reconnu l'existence d'une part, d'un risque d'effondrement du principe de dissuasion militaire, avec des nanoarmes indétectables et invulnérables, et d'autre part d'un risque de déléguer aux machines des décisions offensives.

On le comprend donc, le débat social se complique. Il n'est plus seulement question d'encadrer un développement technique en minimisant les risques induits; il s'agit de choisir dans quelle société nous voulons vivre demain.

Comment pouvons-nous nous organiser pour construire des priorités collectives, en identifiant les critères pour bâtir une réelle démocratie technique ?

On peut énumérer 5 séries de questions clés qui reviennent en leitmotiv dans les débats menés par VivAgora ou d'autres instances à Paris ou Grenoble.

1 - Sommes-nous en mesure d'éviter la mise sur le marché de nanomatériaux dont on suspecte les effets sanitaires néfastes, selon le principe de précaution ?

2 - Les bénéfices annoncés sont-ils prioritaires pour la société ? Quelles sont les capacités d'intervention des citoyens pour favoriser les applications jugées utiles ? Que voulons-nous développer comme lien social, comme capacité de dialogue, face aux masses d'informations circulant et face aux objets communicants qui peuvent nous servir, comme nous asservir ?

3 - A qui pouvons-nous faire confiance ? Ce point est majeur à Grenoble. Sommes-nous capables de contrôler les nanoobjets que nous fabriquons, alors même qu'ils sont invisibles, et que l'ambition explicite des chercheurs est de faire émerger dans la matière des capacités d'auto assemblage et de réplication, jusqu'ici propres au vivant ? Comment pourrons-nous assumer nos responsabilités vis-à-vis d'artefacts conçus comme incontrôlables ?

4 - Améliorer l'humain en transcendant la biologie est-il un horizon voulu par tous ? Certains affichent l'idée que la technique doit prendre le relais de la révolution darwinienne pour fabriquer une post humanité avec le projet de sortir de la condition humaine. Quelle solidarité est-il possible de maintenir entre les hommes ?

5 - Existe-t-il une fatalité technique, comme Mme Bernadette Bensaude-Vincent vient de l'évoquer ? Les technologies convergentes sont présentées par leurs promoteurs comme un processus naturel, une suite logique de l'évolution biologique. Sommes-nous face à un déferlement inéluctable, dépossédé de tout pilotage ? Quels sont les instruments, et notamment la démocratie technique, que nous voulons soutenir ?

De telles questions ne peuvent pas être abordées à la marge, sans méthode ni moyens politiques et financiers. Il s'agit donc de nous organiser pour garantir une capacité collective d'agir, selon la vertu obligatoire dont parlait Edmond Rostand. Cela n'est pas donné ! Il faut la construire. Il est évident que l'on ne pourra pas élaborer des critères collectifs de choix, sans y intégrer des ressources philosophiques, morales et discursives, et mobiliser l'expertise sociale sur les usages, les priorités et les valeurs. Or, aucun gouvernement n'a encore posé les bases suffisantes pour prendre acte des graves tensions qui nous menacent, décider d'instances dédiées à la compréhension collective des problèmes et des conflits d'intérêts, et à la recherche de solutions pour enrichir la démocratie représentative par des pratiques et des délibérations.

Tant que le débat public n'est pas, en France, normal, régulier et structuré, nous discuterons toujours à côté de l'essentiel. Faut-il ou non un débat ? Est-il trop tôt ou trop tard ? Nous demeurerons incapables d'intégrer les enjeux sociaux dans l'innovation. Il me semble aujourd'hui que le débat et l'information des citoyens sont nécessaires et particulièrement urgents. Cette nécessité est déjà inscrite dans certains instruments juridiques notamment: la Convention d'Aarhus, l'article 28 de la Convention pour la protection des droits de l'homme et la biomédecine du Conseil de l'Europe ou même l'article 57 de la loi organique relative aux lois de finances (LOLF) portant obligation de transparence etc. Aujourd'hui, nous ne sommes plus au stade des constats, des déclarations d'intention ! L'urgence écologique rejoint l'urgence démocratique, dans une refondation profonde de nos liens sociaux et biologiques : cela exige d'inscrire la pratique de la concertation publique dans la vie politique, non pour la menacer, mais pour l'enrichir.

Dans ce contexte, je demande notamment à l'OPECST d'ouvrir un chantier pour trouver une solution, afin que la pratique des débats publics, vécue par ses homologues européens comme le Rathenau Institute des Pays-Bas, le Danish Board of Technology, le Parliamentary Office of Science and Technology (POST) britannique, tous reliés à des pratiques de débats publics, devienne régulière. L'OPECST n'a pas dans ses missions le débat public. Il me semble qu'une réflexion collective, en lien avec la Commission nationale du débat public dont la mission est aujourd'hui strictement cantonnée au domaine environnemental, est prioritaire afin d'inscrire durablement dans la société française la pratique du débat public.

Je demande à l'OPECST de se faire l'écho des travaux des réseaux européens comme l'European Parliamentary Technology Assessment (l'EPTA) ou le Scientific and Technological Options Assessment), le STOA dont nous sommes ici peu nombreux à connaître le travail original, a publié récemment un rapport « Évaluation des technologies convergentes », réalisé par les structures belge et hollandaise.

Je demande à l'OPECST de s'impliquer dans les programmes d'analyse des impacts du débat public. Le programme Technology Assessment between Methods and Impacts (TAMI) est un programme européen d'évaluation de l'impact des débats publics auquel la France se devrait de participer alors qu'elle en a été jusqu'ici absente, ce qui est problématique. Il est important que le Conseil économique et social, troisième chambre parlementaire de France, observe l'exemple du Parlement européen qui développe actuellement une agora citoyenne sous l'impulsion de son Vice-Président, M. Gérard Onesta.

Pour conclure je plaiderai, à la suite du rapport de Mme Françoise Roure et M. Jean-Pierre Dupuy sur «  nanotechnologies : éthique et prospective industrielle », et de la 4e préconisation du rapport du Comité de la précaution et de la prévention, pour la mise en place d'un observatoire sociétal européen des technologies convergentes, dont la France peut se faire l'artisan. Il s'agit de traiter le continuum des technologies convergentes, ce qui englobe nano-bio-info-cognosciences, de fonder une activité d'information interactive, de débats publics méthodiques et de délibérations collectives. VivAgora s'emploie modestement à cette tâche. Nous serions heureux de voir les pouvoirs publics s'engager sur ce chantier hautement stratégique, si nous voulons assurer un développement responsable des nanotechnologies au service des priorités humaines.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie Mme Benoit-Browaeys. Je voudrais apporter quelques précisions à vos propos. Vous avez oublié, dans les instruments juridiques, la Charte de l'Environnement, qui est pourtant importante. Vous dites qu'il n'y a jamais eu de débat. Mon collègue sénateur, Daniel Raoul, dans le cadre de son rapport, a organisé le 6 février 2004 à l'Office parlementaire, un débat sur « Nanosciences et médecine du XXIe siècle » : le Parlement s'était donc déjà saisi, sur un aspect certes particulier, de ces sujets. Nous ne sommes donc pas complètement absents ! Mon collègue sénateur, Claude Saunier, de la même manière, en 2003, s'était déjà penché sur ces questions.

Aujourd'hui, l'OPECST a encore pris une nouvelle initiative. Compte tenu des échéances électorales 2007, il sera difficile d'engager un travail plus en profondeur. C'est très certainement une de tâches qui nous attend, lorsque l'Office sera reconstitué après les élections législatives. Comme je l'ai rappelé dans mon propos introductif, mon collègue député Jean-Yves Le Déaut, avait organisé la première conférence de citoyens en France sur les OGM. Personne ne s'en souvient plus, ou ne veut plus s'en souvenir, selon que les conclusions vont dans le sens des opinions des uns ou des autres.

Par ailleurs, nous sommes, je le rappelle, un organisme parlementaire. Certes des parlementaires siègent au Comité de direction du STOA, mais à l'exception des workshops, je ne suis pas sûr que les parlementaires soient impliqués d'une quelconque manière dans les études réalisées, puisqu'un appel d'offres est lancé pour sélectionner des consultants très onéreux. De ce point de vue, le budget du STOA et celui de l'OPECST sont sans commune mesure, tout comme le rapport coût/efficacité de notre Office, largement en notre faveur.

Les workshops sont très intéressants. Pour ce qui concerne les rapports du STOA, je suis très réticent car pour l'avoir appris de son ancien directeur, certains éléments me conduisent à penser que les rapports ne sont pas tous très sérieux : je pourrai vous donner, hors séance, un exemple très précis et vérifiable.

Nous sommes dans un processus parlementaire. L'avantage de ce statut qui caractérise l'OPECST, est de faire travailler ses membres ensemble, quelles que soient leurs opinions politiques, pour progresser ensemble. Le Président, quel qu'il soit et quelle que soit sa couleur politique, a toujours cherché à faire progresser nos méthodes de travail, tout comme le fera, j'en suis sûr, le prochain Président à partir de 2007. Cependant, il ne faut pas mélanger les genres : la Commission du débat public est administrativement indépendante. Nous devons trouver des articulations entre les différentes institutions, mais la pire des choses serait la confusion des genres.

Nous en venons maintenant à l'exposé de M. Louis Laurent, Chef du Département Matière et Information de l'Agence Nationale de la Recherche (ANR) qui pourra faire un début de synthèse de la matinée, nous expliquer comment l'ANR envisage les programmes concernant les nanotechnologies, et nous indiquer si les risques et problèmes éthiques sont pris en considération dans les travaux de l'ANR.

M. Louis LAURENT, Chef du Département Matière et Information de l'Agence nationale de la recherche (ANR) : Tout ou presque a été expliqué, avec des intensités différentes ! Les nanosciences ne sont pas une discipline à part entière, mais plutôt un point de focalisation autour d'une échelle de longueur et de différents sujets du ressort de la biologie, de la médecine ou d'éthique.

On distingue cinq grands thèmes de débats.

1 - Toxicité des nanoparticules qui a été largement abordée. Ce sujet doit faire l'objet d'efforts de recherche importants devant déboucher sur des normes et des réglementations. Cette illustration montre un travailleur d'une société française travaillant sur des nanotubes. J'ai cru comprendre que dans d'autres entreprises en Europe, le même travail se faisait en T-shirt. Les normes européennes n'existent pas pour ce genre de manipulation.

2 - Les technologies de l'information et leur impact sur la vie privée en général. La régulation est complexe. Le marché est un sujet qui n'a pas été abordé, or c'est un levier de régulation. Les consommateurs doivent trouver un bénéfice dans les produits qu'ils achètent. Mais cela ne suffit pas, il faut une réglementation au niveau international, les informations traversant les frontières très rapidement, L'implémentation est difficile, comme l'affaire des droits d'auteurs l'a récemment prouvé. Les grands principes juridiques ne suffisent pas, il faut aussi les mettre en œuvre, avec un mélange de technique et de droit. Ces problèmes se reproduiront d'ailleurs assez souvent.

La perception des risques par le public a été évoquée. On me demande assez fréquemment, dans des interviews ou des débats publics, si l'on sera un jour obligé d'avoir une puce implantée sous la peau. Les idées reçues sur les perceptions des risques sont parfois difficiles à imaginer dans des débats rationnels. Ainsi certains ont été jusqu'à se demander si la carte d'identité numérique serait injectable !

3 - La mécanisation de l'humain. La mécanisation de l'humain en termes de diagnostic, de données personnelles de santé, ou l'augmentation de l'humain est un problème de réglementation, parfois d'anticipation posant de réelles questions d'éthique qui donnent lieu à débat. Cela n'est pas spécifique aux nanos, mais est lié à la convergence. J'ai découvert le concept du fossé entre le diagnostic et la thérapie qui peut engendrer de nouvelles questions, si l'on explique que l'on ne peut rien faire aux personnes informées qu'elles sont malades.

4 - L'accident, l'usage militaire, le terrorisme. Ces points ont été peu abordés, ou du moins le seront à plus long terme. Ils sont considérés comme polluant le débat. Avec des allusions à la Conférence d'Asilomar, les questions portant sur la gelée grise ou les systèmes auto répliquant, à la limite de la biologie et de la nanotechnologie, ont été évoquées. Les problèmes liés aux armements seront abordés dans la deuxième partie de la réunion.

La politisation du débat a été principalement mentionnée par Mme Benoit-Browaeys. Indépendamment des débats rationnels, la question est fortement politisée. La relation science, industrie, profit, application militaire, impact sur les matières premières, sur le dialogue nord-sud ont conduit à mentionner Ilitch et Ellul. Certains s'interrogent sur l'utilité pour le citoyen de telles techniques.

À ces cinq thèmes correspondent des traitements différents qui relèvent de la recherche, de la législation, du débat, et du domaine de la politique. Pour reprendre l'article de M. Chris Toumey dans le journal Nature, ces questions sont d'autant plus complexes que nous nous trouvons à la convergence de quatre facteurs.

1 - Le public reçoit une idée diffuse, parfois merveilleuse et dangereuse des nanotechnologies par la science-fiction, le « hype », par les laboratoires eux-mêmes, comme le Oak Ridge National Laboratory (ORNL). Les livres de science-fiction évoquent les merveilles possibles (Drexler, etc.). En tapant sur Google le mot «nano» plus le mot «révolution», vous trouvez 8 millions d'occurrences. J'ai entendu la représentante de l'UNESCO expliquer qu'il fallait chasser l'idée de révolution dans l'esprit du public : force est de constater que le travail reste immense. Certes, avec le mot « bio », on trouve 15 ou 16 millions d'occurrences ! Dans la révolution, les bios sont en avance sur les nanos ! Plus facilement médiatisés que les études scientifiques, ces thèmes sont mis en perspective avec les risques et conduisent le public à s'interroger. Le discours du type « c'est déjà là, c'est irréversible, c'est mondialisé, on n'y peut rien » est une perception réelle, ainsi qu'une réalité au niveau mondial.

2 - Les budgets colossaux consacrés à la nanotechnologie, 5 euros par habitant sont une réalité. Les budgets pour les technologies de l'information seront, globalement, de 10 à 20 fois supérieurs.

3 - L'évolution des relations science société. Les thèmes de la participation de la société, de démocratie participative, de méfiance envers la science ont été largement évoqués.

4 - Les questions objectives déjà mentionnées.

Les besoins évoqués peuvent être synthétisés en trois thèmes :

1 - Pour les programmes de recherche, les réflexions portent sur :

- La mutualisation et la coordination de la recherche au niveau européen, la neutralité des experts et des chercheurs, tout en maintenant la diversité pour garantir l'indépendance des résultats. Il faut redonner confiance dans les résultats, après les dossiers concernant l'amiante, le tabac. La recherche doit être partagée.

- Le droit a été abordé avec des éclairages divers. Pour certains, les grands principes existent déjà, pour d'autres, il faut encore y réfléchir. Dans tous les cas, l'implémentation est importante.

- L'organisation de la recherche, qui doit être crédible et réfléchir sur elle-même.

2 - L'évolution de la réglementation  sur les matériaux et les systèmes d'information, ainsi que sur les armements, ou certains types de recherche sera peut-être débattue. La Conférence d'Asilomar a été mentionnée ; des questions du même type peuvent se reproduire à l'avenir.

3 - La nécessité des débats publics au sens large : information, réflexion, prospective, débats, est apparue à maintes reprises.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie M. Laurent.

________

Débat

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Nous allons ouvrir une phase de discussion et de questions. Avez-vous des questions sur les enjeux éthiques ?

M. Pierre GUIMBRETIÈRE : Nous vivons dans un monde dans lequel les nanoparticules naturelles existent. Les connaît-on, les a-t-on recensées ? Par ailleurs, existerait-il un parallèle entre les risques liés aux deux catégories, naturelles et artificielles ?

M. Louis LAURENT, Chef du Département Matière et Information de l'Agence nationale de la recherche (ANR) : Les sources naturelles de production de nanoparticules sont les émissions des volcans qui en relâchent de très grandes quantités, les embruns de la mer avec le sel, le sable du désert, avec l'érosion des grains par frottement (particules de silice). Les particules artificielles regroupent les particules non intentionnelles (naturelles pour un citadin) comme les particules diesel, ou issues de l'industrie des processus de soudure, par exemple).

Mme Bernadette BENSAUDE-VINCENT, Membre du Comité d'éthique pour les sciences du CNRS (COMETS), Professeur d'histoire et de philosophie des sciences à l'université Paris X : Il y a des nanoparticules naturelles, mais elles ne sont pas pour autant bénéfiques. La tendance à utiliser la référence à la nature comme un caractère positif et d'innocenter la fabrication de nanoparticules parce qu'il en existe dans la nature, serait une erreur.

Mme Dominique DONNAY-KAMEL, INSERM : Je voulais signaler à l'auditoire l'existence d'un consortium européen, le CIPAST (citizen participating in science and technology,) dont la vocation est de favoriser la participation des citoyens sur les questions scientifiques et technologiques. Ce consortium vise à former des décideurs aux différentes méthodes de participation. Le prochain congrès de formation aura lieu à Naples en 2007. Vous pouvez consulter son site web.

Mme Claudia NEUBAUER, Fondation Sciences citoyennes : Plus qu'une question, je souhaiterais faire un commentaire, sachant que la Fondation Sciences citoyennes a écrit un rapport sur les nanotechnologies.

Un intervenant hors micro.

Il est remarquable, tout à fait remarquable !

Mme Claudia NEUBAUER, Fondation Sciences citoyennes : Je vous remercie ! Nous sommes une association de la société civile qui n'est malheureusement pas très présente aujourd'hui.

Nous nous interrogeons sur la place des technologies dans la société. La question ne se pose pas en termes « technophile ou technophobe », mais de savoir ce qu'on fait des technologies. Dans quelle direction la société va-t-elle se développer en en utilisant certaines ? Cette interrogation porte particulièrement sur les nanotechnologies, même si elle existe aussi pour d'autres technologies, et doit être au centre des débats les concernant. Je souhaiterais revenir sur quelques termes utilisés aujourd'hui lors de cette audition. On a entendu « faire avancer la science avec les nanotechnologies », « sens de la recherche », « ouvrir des perspectives ».

La recherche dépend aujourd'hui de décisions politiques. Les financements importants consacrés aux nanotechnologies impliquent que d'autres recherches ne soient pas financées, par le secteur public ou le secteur privé. Il est intéressant de connaître les domaines de recherche fortement financés, et ceux que l'on peut considérer comme orphelins. Il y a un décalage car les recherches menant à des applications de haute technologie nous placent dans une perspective de société où l'on croit que les technologies les plus performantes vont donner des solutions pour résoudre des problèmes de justice sociale, d'ordre social, environnemental ou écologique. Or, la question devrait être : quelles sont les technologies vraiment adaptées à un certain cadre social ? C'est donc à partir d'un questionnement social que l'on peut s'interroger sur l'utilité sociale de certaines technologies.

Par ailleurs, il faudrait aussi s'interroger sur les valeurs démocratiques que portent les nanotechnologies, ou plus exactement quelles sont les valeurs les plus soutenues par un développement technologique. Les nanotechnologies, comme toutes les autres, sont-elles porteuses de valeurs démocratiques qui vont renforcer la démocratie dans nos sociétés, alors que, et c'est une banalité de le souligner, nous sommes, déjà et de plus en plus, dans une société de surveillance, de contrôle, de relations sociales autoritaires ? Quelle est la place des nanotechnologies par rapport à ce développement sociétal, dans la mesure où nous sommes tous très attachés à la démocratie ?

Quant à la déontologie des chercheurs et experts, et aux conflits d'intérêts, je rappelle qu'en octobre, Nature a publié l'article d'une association britannique, « GeneWatch », qui suit le développement technologique en génétique. Cette étude porte sur les conflits d'intérêts des scientifiques publiant dans les journaux scientifiques de haute gamme. Les scientifiques sont normalement obligés de faire une déclaration sur leurs contrats et leurs liens. On constate que de plus en plus de scientifiques ne déclarent pas leurs relations avec l'industrie. Ceci confirme un article de Nature de 2004, dans lequel un tiers des chercheurs aux États-Unis, admettaient avoir déjà publié des résultats biaisés. Avec les nanotechnologies, l'on se situe dans un certain développement global, mondial, caractérisé par les différents ponts auxquels je fais référence.

Le risque d'absence de dialogue a été évoqué. Nous sommes tous d'accord pour que la communication unilatérale de la science vers le public ne prévale plus. Il faut néanmoins s'interroger sur la crédibilité de ce dialogue. Pour quoi l'organiser et à quel moment ? Les organisations de la société civile, qui ont acquis un statut d'experts dans beaucoup de domaines, sont-elles souvent liées par un esprit de méfiance envers la science ? Je formulerai cela différemment. Une méfiance existe envers certaines recherches, et il est important de définir celles qui sont concernées. Néanmoins on constate également une forte confiance de la société envers d'autres recherches. Quelles sont-elles ? Quels sont les domaines concernés, en tenant compte du fait que la société civile s'approprie de plus en plus les questions de recherche et de technologie ? Quelles sont les demandes de la société civile?

Pour conclure je rappellerai qu'au début du XXème siècle, nous avons vécu la « radium folie », avec la découverte de la radioactivité et des effets thérapeutiques des éléments radioactifs. Pendant presque deux décennies, l'industrie pharmaceutique a mis sur le marché des produits à base de radium : la Tubéradine soignant la bronchite, la Digéraline facilitant la digestion, la Vigoradine luttant contre la fatigue. Une crème de beauté fut même inventée dont le slogan publicitaire affirmait « La Science a créé Thoradia pour embellir les femmes. A elles d'en profiter. Reste laide qui veut ! ». Heureusement pour les femmes, ces produits étaient très chers et la radioactivité qu'ils contenaient si faible que les risques étaient limités. Mais qu'en sait-on aujourd'hui ?

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie Madame, à travers votre intervention, vous nous ouvrez des perspectives pour d'autres auditions publiques. Je donne la parole à M. Hubert Seillan, puis à M. Jean Therme.

M. Hubert SEILLAN, Directeur de la Revue Préventique : Je suis Directeur de la revue Préventique. J'enseigne également le droit du danger, qui n'est pas une discipline, mais une approche transversale du danger par un juriste.

Je voudrais faire quelques observations sur les règles manquantes évoquées par certains; d'autres ont expliqué, en revanche, que le dispositif était suffisant pour aborder ces questions. Je me rangerai dans la seconde catégorie des points de vue. En effet, à trop vouloir réglementer, en vérité, on risque de ne plus rien percevoir, comme dans une forêt trop dense où le soleil ne rentre plus, et où, lorsqu'on se perd, la mousse censée indiquer le Nord a recouvert tous les troncs. Les règlements sont si nombreux que nous nous trouvons exactement dans la même situation : on ne voit plus rien ! Et l'on exige encore des règlements! J'y suis tout à fait hostile, car l'expérience nous a montré l'inefficacité de la multiplication des approches réglementaires.

Je suis heureux d'avoir entendu des exposés sur l'éthique nous renvoyer en permanence à la responsabilité. S'il y a un seul principe, c'est bien celui-ci. En évoquant ce mot principe, je voudrais, très simplement et très rapidement, également dire que le droit est selon moi, avant tout, un système, et rien d'autre : les règles ne sont qu'une donnée de ce système.

On oublie parfois qu'un système juridique qui n'a pas de principes, est un système qui ne sait pas où il va. Il constitue la négation même du système. Si un système n'a pas d'orientation ou de finalité, qu'avons-nous créé ? Nous avons créé des ensembles, des sortes de magma sans vie, qui s'appellent des réglementations, dont on ne sait comment elles se développent. Il paraît que certains bureaux sont spécialisés dans ce domaine au 8ème étage d'un ministère... J'ai même entendu des fonctionnaires m'expliquer, qu'après tout, ils étaient là pour faire de la réglementation.

Il nous faut reprendre un peu de bon sens. Les principes, nous les avons, et certains ont été cités. Les règles, nous en avons trop et nous cherchons et attendons de bonnes pratiques. On doit les retrouver non pas par les règles, dont quelques unes sont nécessaires, mais surtout par les principes. Le Professeur Sicard, par exemple, a évoqué cette exigence de transparence, c'est un principe essentiel. Que l'éthique soit fondatrice en est un autre. Nous avons tout ce qu'il nous faut. Un principe est là pour orienter, pour éclairer et, puisque je suis Bordelais, je citerai Montesquieu : « quand je suis dans la difficulté, je cherche mon principe ».

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie M. Seillan. M. Therme  vous avez la parole.

M. Jean THERME, Membre du Conseil scientifique de l'OPECST : J'aimerais réagir à des propos que j'ai entendus de nombreuses fois dans cette réunion. Il s'agit de cette distinction un peu religieuse entre les chercheurs purs, qui peuvent être experts parce qu'ils n'ont pas de liens avec une entreprise, et les experts impurs qui, eux, travaillent avec les entreprises et sont immédiatement taxés de manque de légitimité, d'honnêteté et de respect. Je dirige plus de 2500 personnes qui travaillent au quotidien avec les entreprises, je les trouve très respectueuses. Ce genre de procès d'intention permanent est à mon avis très déplacé.

Il est effectivement plus facile d'être un chercheur payé à 100 % par l'État que d'aller s'approprier les fortes contraintes de marché, d'économie et d'entreprise. Je note néanmoins que l'entreprise fait partie du corps social, qu'à force de la tenir à l'écart, notre pays sera extraordinaire : n'y vivront plus que des fonctionnaires, des touristes et des personnes âgées dans des maisons de retraite. Je ne pense pas qu'une démocratie puisse fonctionner ainsi. Une démocratie a besoin des profits des entreprises, correctement répartis dans la société. Cette espèce de diabolisation de la relation Recherche/ Entreprise est une erreur fondamentale évoquée à cinq ou six reprises. Je veux donc apporter cette rectification : un chercheur peut être honnête, respectueux de certaines règles et pratiques tout en s'engageant, auprès d'une entreprise, pour le développement économique. C'est un élément très important que je veux souligner.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie, M. Jean Therme. Je donne la parole à M. Jean-Yves Le Déaut

M. Jean-Yves LE DÉAUT, Député, Vice-Président de l'OPECST : J'établis un lien entre le débat de ce matin et celui des OGM que nous avons suivi, il y a une dizaine d'années, et constate qu'exactement les mêmes termes et les mêmes préoccupations apparaissent, telles les notions de transgression de la barrière des espèces dans le cas des OGM, de transgression entre nature et artifice, entre nature et culture comme Mme Bensaude-Vincent l'a mentionné. Avec Mme Dorothée Benoit-Browaeys, nous avons souvent discuté des OGM, et j'observe que nous évoquons de nouveau la recherche et surtout la relation nécessaire entre société et recherche. Certes, on doit faire davantage ; cependant, peut-on développer en même temps la recherche blanche et la recherche fondamentale, si on oriente totalement la recherche sur une demande sociétale ?

Pour reprendre l'exemple des OGM, la Conférence des citoyens de 1998 préconisait un moratoire dans un certain nombre de cas, mais aussi la nécessité de poursuivre la recherche fondamentale, y compris en plein champ. À la Commission des Sages, en 2002, MM. Didier Sicard, Jacques Testart, Christian Babusiaux et moi-même avons prôné la recherche à des conditions très strictes : parcimonie, transparence, et précaution. Nous expliquions que l'on pouvait faire, des expérimentations, y compris en plein champ, pour conserver ainsi une capacité d'expertise, sans procéder obligatoirement à des transferts industriels. Cela a été balayé par un débat qui, finalement, après avoir été engagé, ne s'est pas tenu car les discussions entre certaines personnes n'ont pas eu lieu.

N'allons-nous pas perdre notre capacité d'expertise si, à un moment donné, l'on considère que la recherche est trop exigeante en crédits, comme cela a déjà été rappelé ? Est-ce vrai ? M. Louis Laurent soutenait le contraire.

Qui doit orienter la recherche ? C'est, à mon avis, le Parlement, après discussions avec les associations qui suivent ces questions, ce qui repose la question de l'expert indépendant. La nécessité d'organiser des systèmes d'expertise collective dans notre pays se trouve de nouveau rappelée. Il faudrait éviter que les mêmes acteurs se réunissent sur les mêmes sujets dans deux sens opposés et, au contraire, confronter des avis divergents, différents, dans des réunions publiques, collectives, transparentes et indépendantes. Seules les expertises collectives sont indépendantes.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Et pluralistes ! Mme Michaut vous avez la parole.Quel journal représentez-vous ?

Mme Cécile MICHAUT, journaliste scientifique : Je suis pigiste et je travaille notamment pour La Recherche.

Nous entendons souvent mentionner les conférences des citoyens : l'une s'est tenue sur les OGM, et l'autre, tout récemment sur les nanotechnologies. Je m'interroge sur la représentativité de 15 personnes, choisies au hasard, réunies pour écouter des experts, choisis par d'autres sur des critères que j'ignore. Que peuvent apporter ces conférences ?

Dans un article de Nature sur l'expertise médicale, une analyse statistique montrait clairement que les médecins ou les chercheurs en sciences médicales liés à des industriels, avaient généralement des conclusions assez différentes de celles des chercheurs indépendants : ils étaient en général beaucoup plus favorables aux médicaments testés que les experts qui n'étaient pas liés à l'industrie. Il existe de nombreux chercheurs honnêtes, mais les résultats d'une expertise collective font apparaître des différences, du moins dans le domaine médical.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie beaucoup Madame. Nous terminons ces présentations et cette discussion particulièrement intéressantes. J'espère que, comme moi, vous y avez pris beaucoup de plaisir et d'intérêt. Nous reprendrons nos débats vers 14 heures 30; ils seront conclus par M. François Goulard, Ministre délégué à l'Enseignement supérieur et à la Recherche.

La séance reprend à 15 heures sous la présidence de M. Claude BIRRAUX, Député de Haute-Savoie, Premier Vice-Président de l'OPECST.

Les réponses des économistes, des chercheurs et des industriels

M. Claude BIRRAUX, Député de Haute-Savoie, Premier Vice-Président de l'OPECST : Nous avons en première partie de réunion, analysé les risques, sanitaires, éthiques et sociétaux potentiels liés aux nanotechnologies. Nous évoquerons les réponses des chercheurs et des industriels. Notre débat est crucial pour le développement des nanotechnologies car l'opinion publique, sensibilisée au principe de précaution, n'acceptera pas de tâtonnements analogues à ceux que l'on a connus pour l'amiante. La situation concernant l'amiante était toutefois différente, car nous savions, l'on connaissait alors les dangers que présentait cette matière. Il est d'ailleurs assez révélateur que le terme anglais pour amiante et la maladie associée portent le même nom : asbestos.

Les craintes que nous avons évoquées doivent être levées car les risques au sein d'un laboratoire et ceux auxquels le grand public serait exposé ne peuvent pas s'apprécier de la même façon d'autant que les informations les plus contradictoires parviennent à ce public ainsi qu'aux experts.

M. Claude BIRRAUX, Député, Premier, Vice-Président de l'OPECST : Nous allons donc tout d'abord écouter les analyses des économistes avec M. Pascal Lagarde, Directeur général CDC Entreprises. Il s'agit d'une PME, filiale à 100 % de la Caisse des dépôts et consignations, qui a pour mission de contribuer à développer le marché du capital investissement par la création d'entreprises, de valeurs et d'emplois. Le rôle d'organismes tels que celui-ci est vital pour que des entreprises innovantes puissent éclore. Comment concevez-vous ce rôle ? Les entreprises ayant un projet valable peuvent-elles se financer et attendez-vous de forts retours sur ces investissements ?

M. Pascal LAGARDE, Directeur général de CDC Entreprises : J'évoquerai l'action de CDC Entreprise dans le financement des PME et start-up du domaine des nanotechnologies en deux temps. Je commencerai par rappeler nos réalisations et les outils qui nous ont permis de les mettre en œuvre. Je poursuivrai avec notre perception de ce marché des PME innovantes dans le domaine des nanotechnologies en France.

L'action de CDC Entreprise dans le financement des PME et start-up du domaine des nanotechnologies tout d'abord. L'opération la plus récente a été de créer, en juillet 2006, de concert avec le CEA, un fonds intitulé Minatec Amorçage dont on annoncera d'ailleurs officiellement le lancement à la presse dans quelques jours. Il s'agit d'un petit fonds de 3 M€ qui fait du pré-amorçage dans les domaines des micro et nanotechnologies au stade de la preuve de concept et est très focalisé sur le sujet. Ce fonds est basé à Grenoble et investit en moyenne 200 K€ sur une quinzaine de sociétés. Je n'en dirai pas davantage car il n'a pas commencé à investir.

Par ailleurs, en 2000, CDC Entreprises a créé, avec le CEA, les Caisses d'épargne et d'autres partenaires, un fonds, l'Emertec, pour investir au stade de l'amorçage dans des sociétés qui développent des innovations majeures dans le secteur des technologies matérielles regroupant électronique, microélectronique, matériaux et instrumentation . Ce fonds représente un peu plus de 23 M€ et a investi à ce jour dans 13 sociétés dont 10 relevaient déjà de la thématique micro et des matériaux avancés (Lumilog, Nanoledge, Emix). Par ailleurs, Emertec a également investi dans les équipements électroniques (FST, H2I), les équipements pour l'industrie microélectronique (Xenocs, Applied Microtech), les composants optoélectroniques (Opsitech, Dalightcom), ou encore les composants intégrés (Soisic). Sa période d'investissement étant aujourd'hui achevée, le fonds n'a plus vocation à réaliser de nouveaux investissements et se consacre au refinancement de son portefeuille.

Un certain nombre de personnes ici présentes doivent connaître une entreprise qui a bénéficié du fonds Emertec : il s'agit de Nanoledge, essaimage du CNRS ; elle fabrique des nanotubes de carbone et intervient sur le marché des utilisateurs de matériaux de haute performance. Cette entreprise compte 9 employés, son chiffre d'affaires en 2004 s'élevait à 130K€, elle a levé des fonds à hauteur de 1.6M€.

Emertec 2 correspond à la seconde génération du fonds Emertec et a été créé en 2005, dans le cadre de l'appel à projet « Incubateur et Fonds d'amorçage » du Ministère de la Recherche. Le CEA, CDC Entreprises, Natexis, le groupe Banque Populaire, ainsi que la Banque royale du Canada font partie des investisseurs de ce fonds. Il est focalisé sur le financement, uniquement en amorçage, de sociétés issues majoritairement de la recherche publique dans le domaine des micro et nanotechnologies. Ce fonds, très utile sur la technologie, est doté d'un peu plus de 21 M€ ; il investit en moyenne environ 1,7M€ sur chaque société, sur la durée totale de la participation. Le fonds cible une quinzaine d'entreprises. Les entreprises bénéficiaires seront en priorité françaises.

À ce jour, Emertec 2 a réalisé trois investissements sur des sociétés positionnées. En a bénéficié, entre autres, la société Beamind, essaimage du Laboratoire d'électronique, de technologie et de l'information (le LETI). Créée en 2002, cette entreprise effectue des tests optoélectroniques avec mesure de résistances pour circuits intégrés haute densité, notamment pour le secteur des télécommunications. Elle compte 16 employés, n'a pas de chiffre d'affaires à ce stade, et a levé 4M€.

CDC Entreprises est investisseur important de fonds généralistes de capital-risque plus classiques, positionnés plus en aval, dont la politique d'investissement cible, entre autres, le domaine des nanotechnologies. CDC Entreprises a aidé à monter ou à compléter : Banexi Ventures (2 générations de fonds de 61M€ et 130M€), Sofinnova (385M€), Innovacom (115M€), T-Source (38 M€). J'ai pris quelques exemples pour lesquels le secteur des nanotechnologies est explicitement mentionné dans le mémorandum de classement. Des outils de pré-amorçage et d'amorçage sont actifs dans la région de Grenoble et dans toute la France. D'ailleurs, certains fonds de capital-risque prévoient clairement dans leur stratégie, d'investir dans les nanotechnologies, tels de très gros investisseurs, comme Sofinnova.

État des lieux de la création et du financement de sociétés de nanotechnologies en France. Je séparerai le marché en deux parties, même si je ne suis pas sûr que les scientifiques, majoritaires dans cette enceinte, partagent ce point de vue : la nanoélectronique d'une part, et l'instrumentation pour la biologie ou tout ce qui a trait aux sciences de la vie, d'autre part.

Dans le secteur de la nanoélectronique, on recense peu de créations de toutes pièces d'entreprises à forte croissance. A contrario, de nombreuses sociétés de recherche sous contrat se créent et s'apparentent davantage à des sociétés de services classiques sans investissement massif en capital risque. En effet, ces technologies ont une maturation plutôt longue. Aussi, la préoccupation initiale porte-t-elle le plus souvent sur la conception et la miniaturisation que sur l'application. Les marchés applicatifs sont encore très lointains, difficiles à atteindre, avec peu d'acheteurs, et la plupart des projets en sont encore au stade des recherches en amont dans les laboratoires. Quelques projets existent, même s'ils ne sont pas très nombreux.

Le cas de l'instrumentation pour la biologie est assez différent puisqu'il relève d'une forte tendance mondiale et concerne à la fois la santé et l'environnement. On recense très peu de start-up dans le domaine des nanotechnologies pour la biologie en France. Il s'agit d'un domaine très récent dans lequel contrairement aux PME, les grands industriels sont fortement présents et laissent peu de place à la start-up indépendante (Apibio).

Dans le cas de la nanoélectronique, il est possible de parvenir à créer une entreprise avec un portefeuille de brevets très ciblés, sur des matériaux par exemple, alors que dans le domaine de l'instrumentation pour la biologie, on constate une grande pluridisciplinarité des technologies (association des technologies bio et nano). De plus, dans ces marchés très concurrentiels, la propriété intellectuelle est un élément clé, et il convient d'associer des portefeuilles de brevets très différents par rapport à la base, avec des droits d'exploitation de licence financièrement très lourds pour une jeune société. Les barrières à l'entrée sont alors le paiement de l'ensemble de ces droits ; elles sont très difficiles à franchir car l'achat de ces licences complémentaires se révèle fort coûteux.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie M. Lagarde. Je vais maintenant demander à Mme Françoise Roure, Présidente de la section juridique et économique du Conseil général des technologies et de l'information (CGTI) au Ministère de l'Économie, des Finances et de l'Industrie, d'intervenir. Vous êtes, par ailleurs, membre d'un certain nombre de comités au niveau européen et de l'OCDE ; vous êtes aussi co-auteur, avec M. Jean-Pierre Dupuy, d'un rapport sur la dimension éthique dans la prospective industrielle des nanotechnologies. Vous avez également rédigé un rapport sur les technologies de radio identification.

Vous pourrez nous faire part de vos observations sur les diverses stratégies industrielles mises en œuvre pour répondre aux inquiétudes liées aux nanotechnologies, notamment sur les questions de convergence.

Mme Françoise ROURE, Présidente de la section juridique et économique du Conseil général des technologies et de l'information (CGTI), au ministère de l'Économie, des Finances et de l'Industrie : Je vous remercie Monsieur le Président de me donner la parole. Le Conseil général des technologies et de l'information (CGTI) présidé par le Ministre délégué à l'industrie, a été créé il y a une dizaine d'années et s'est intéressé aux nanotechnologies pour plusieurs raisons.

Dans le domaine des technologies de l'information, l'avenir de la filière électronique réside dans la nanoélectronique. Le CGTI a travaillé sur les technologies duales, à la fois civiles et militaires, sur les technologies de radio identification, sur la relation aux libertés publiques et sur la norme juridique qui permet d'accompagner les évolutions, tout en créant une confiance raisonnable et raisonnée chez le grand public.

Le CGTI s'est également intéressé aux nanotechnologies sous l'angle de la convergence. Il s'agit d'un terme naturel dans le domaine des technologies de l'information : on a en effet déjà constaté que l'informatique, les télécommunications et l'audiovisuel tendent à converger. Or, le temps est désormais à la convergence des nanotechnologies, des biotechnologies, des technologies de l'information et des sciences cognitives, avec les effets d'entraînement que chacune de ces technologies peut porter en tant que technologie à capacité transformationnelle. Nous devions donc naturellement nous intéresser à ce thème.

En 2004, la section commune du Conseil général des Mines et du CGTI avait inscrit à son programme les questions relatives aux nanotechnologies, avec une approche multiculturelle. M. Jean-Pierre Dupuy, mathématicien et philosophe, et moi-même, économiste industrielle et internationale de formation, avons donc produit un rapport préconisant une série de recommandations. Il portait sur la notion d'éthique et la dimension prospective de la méta convergence, celle des nanotechnologies, des biotechnologies, des technologies de l'information et des sciences cognitives.

Ce rapport avait été remis simultanément au Ministre de la recherche et au Ministre de l'Industrie, et la plupart des recommandations qu'il contenait, ont depuis été mises en œuvre. L'une d'entre elles est en passe d'être prolongée au niveau européen, voire international. Nous avons décidé de centrer notre intervention sur un point qui mérite d'être porté à la connaissance du public et sur lequel nous souhaitons rendre compte : il s'agit de la participation du CGTI et de la France au dialogue international responsable dans le domaine des nanotechnologies.

La participation du CGTI et de la France au dialogue international responsable dans le domaine des nanotechnologies tout d'abord. Nous intervenons au nom de la France de manière informelle. Ce dialogue permet d'accompagner les évolutions industrielles et les évolutions sociétales dans un domaine institutionnel et intergouvernemental. Le dialogue international responsable n'est pas seulement un club, il constitue l'unique instance qui offre aux représentants des gouvernements de tous les pays qui le souhaitent, la possibilité d'identifier et de discuter des sujets pertinents de la gouvernance des nanotechnologies qu'induit le développement de la production et des échanges des biens qui en sont issus. Il vise à anticiper les évolutions induites par la convergence et à rechercher le cadre institutionnel le plus adéquat, si possible de manière harmonisée et avec le même calendrier.

Quelle est l'origine de ce dialogue international responsable ?

Le premier dialogue de cette nature a été convoqué à la demande du responsable de l'initiative nationale pour les nanotechnologies de la fondation nationale pour la recherche des États-Unis. Il a eu lieu en juin 2004, et 25 pays y ont participé. Le gouvernement fédéral des États-Unis était représenté par le Département d'État et plusieurs autres départements, notamment ceux du commerce, de la défense, et par le Bureau pour la politique scientifique et technique de la Maison Blanche. M. Philippe Martin, de la Commission européenne, participait également à cette première réunion qui a permis de poser clairement les problèmes de toxicologie et d'écotoxicologie soulevés par la fabrication industrielle de nanoparticules dites de première génération. Elle a aussi permis de partager les connaissances sur l'état de l'art, les risques et leur perception, les réglementations en vigueur ou en préparation, et la communication à l'égard du grand public.

Les États-Unis redoutaient que l'Union européenne n'adopte alors une position comparable à celle concernant les OGM et n'interdise le commerce international ainsi que l'accès aux marchés européens des biens incorporant des nanoparticules de synthèse.

Ce premier dialogue a donné lieu à des invitations personnelles qui s'apparentent à une forme de cooptation, mais qui ont permis la participation de représentants d'États membres et de la Commission européenne. Il a fait émerger une problématique des risques qui n'est pas linéaire, simple et causale : il s'agit d'une problématique de risques systémiques liés à la convergence à l'échelle nanométrique des technologies à capacité transformationnelle que j'ai déjà citées. Il a conclu à la nécessité d'une seconde rencontre entre les représentants des États qui le souhaitaient et a confié à un groupe de travail restreint, représentant tous les continents, le soin de préparer l'agenda du second dialogue. Il s'agissait là de la première tentative pour s'organiser.

Fin 2004, l'acteur clef dans la dynamique du dialogue international responsable devint alors la Commission européenne qui assura l'accueil du groupe préparatoire le 15 juillet 2005. Elle a reçu, de la part des États membres, mandat du Conseil compétitivité du 24 septembre 2004, pour négocier un accord de coopération international dans un cadre multilatéral. Celui-ci devait permettre la mise en place d'un code de conduite sur les pratiques qu'il convient d'adopter ou d'éviter dans la recherche et dans la fabrication, utilisant les propriétés remarquables de la matière à l'échelle nanométrique.

Sur le projet de code de conduite, la Commission européenne est parvenue à réunir l'unanimité moins une voix, celle des États-Unis représentés par le Département d'État. Ce texte préfigurait le code de conduite qui devait être présenté lors du second dialogue international responsable. Il avait été pré négocié en amont. Aussi, le veto administré par le Département d'État américain, en présence des représentants officiels de nombreux pays, comme la Chine, le Japon ou la Russie, a-t-il suscité l'incompréhension.

Ce document, disponible sur le site Internet de la Commission au titre des conclusions de la Présidence, provenait de la Direction générale recherche de ladite Commission. Il appelait à un renforcement, plus que jamais nécessaire, de la coopération institutionnelle internationale pour la conception dès que possible, d'un cadre harmonisé favorable à la production et aux échanges, tout en anticipant sur les risques liés aux nouvelles technologies. Dans ce climat, la Russie avait proposé d'accueillir le second dialogue, mais c'est le Japon qui a reçu la charge de l'organiser. L'institutionnalisation du dialogue a donc échoué à Bruxelles et, pour le second dialogue, le Japon a à nouveau dû inviter les participants représentant les pays industrialisés sur une base informelle, intuitu personae. De là, provient l'ambiguïté, même s'il y a une tentative de s'organiser.

Le second dialogue a eu lieu les 27 et 28 juin 2006 à Tokyo en présence de représentants officiels du gouvernement japonais. Il a à nouveau réuni 25 pays autour des cinq thématiques suivantes qui ont été précisées par rapport au premier dialogue.

1 - L'impact des nanotechnologies sur l'environnement, la santé et la sûreté des processus industriels et de recherche ;

2 - Les impacts éthiques, juridiques, économiques et sociétaux des nanotechnologies et technologies convergentes, notamment sur les questions d'assurabilité, de financement, de droit liées aux contentieux, en particulier à la propriété intellectuelle, de résistance sociétale, de décalage entre les risques et leur perception (abondamment mentionné dans la première partie de cette réunion), d'impact sur la confiance des consommateurs;

3 - Les inégalités de préparation à l'éducation et les politiques d'enseignement relatives aux nanosciences et aux nanotechnologies ;

4 - La situation des pays en développement au regard des nanotechnologies, les attentes particulières relatives à l'eau, à l'énergie, à l'agriculture et à la santé ;

5 - La mise en place de normes applicables aux nanotechnologies et à leurs produits, avec la terminologie, les travaux de caractérisation des propriétés, les problèmes de test, de protection des personnels et des installations, les problèmes environnementaux et de long terme.

Deux points cruciaux figurent parmi les apports du second dialogue international responsable :

1er apport : le dialogue a reconnu conjointement la nécessité de consacrer une part plus importante des budgets publics et privés aux recherches sur la connaissance des risques liés aux générations successives de nanoparticules et de systèmes hétérogènes nanostructurés ou de biologie de synthèse.

2ème apport : le dialogue a exprimé la nécessité d'aller dès que possible, vers une prise en compte des impacts sociétaux de la banalisation des nanotechnologies et des technologies convergentes afin de favoriser la réduction des écarts entre les risques et leur perception et de définir des politiques publiques harmonisées et cohérentes. Dans ce domaine, une coopération institutionnelle internationale est souhaitée.

Suivant une logique de rotation entre les continents, la préparation du troisième dialogue institutionnel intergouvernemental incombe à l'Union européenne qui l'accueillera au plus tard sous présidence portugaise, soit au second semestre 2007. Le groupe préparatoire se réunira en Afrique du sud en janvier prochain. Cette étape est importante car elle permettra de fixer les modalités et les objectifs du troisième dialogue. Deux points semblent d'ores et déjà devoir être inscrits dans cet agenda.

1 - Il faut favoriser les solutions énergétiques apportées par les nanotechnologies dans la perspective d'un développement durable, en tenant compte des objectifs du Millenium et du Nouveau partenariat pour le développement de l'Afrique (NEPAD).

2 - Il convient de favoriser l'émergence d'une fonction d'évaluation dynamique du développement des nanotechnologies, appuyée sur un observatoire sociétal et sur une méthodologie multicritères issue des thématiques discutées dans le second dialogue.

Dans la perspective de la constitution d'outils, supports de la coopération institutionnelle, ce troisième dialogue verra l'Union européenne s'efforcer de créer une situation irréversible. L'idée est de commencer par ce qui paraît le moins contestable et le plus accessible d'un point de vue stratégique et pour les budgets publics.

L'institutionnalisation du dialogue par une déclaration conjointe reste un objectif et les représentants des Etats membres de l'Union européenne se sont prononcés en faveur d'une poursuite de ce dialogue, y compris dans ses limites, puisque nous ne sommes pas des ambassadeurs et ne représentons pas officiellement notre pays.

Deux projets comptent au nombre des outils et supports envisageables :

1 - La constitution d'une base de données relatives aux caractéristiques des nanoparticules ;

2 - L'adoption, après étude en coopération internationale, d'une méthodologie harmonisée d'évaluation multicritères des impacts des nanotechnologies et technologies convergentes, en appui sur un observatoire sociétal dont les pays pourraient tirer parti dans la recherche d'une gouvernance appropriée aux enjeux et aux opportunités, mais aussi aux risques.

L'Union européenne a pris conscience des enjeux que représente une coopération institutionnelle internationale la plus ouverte possible pour favoriser le développement des solutions apportées par les nanotechnologies à des défis majeurs, notamment l'environnement, le développement durable, la santé. En même temps, il s'agit pour l'Union européenne de garantir un niveau élevé de protection au regard des risques ce qui constitue véritablement sa spécificité par rapport aux autres continents. La prise en compte de la nature systémique et de long terme de ces risques s'est déjà affirmée dans le dialogue international responsable. La France a joué un rôle de précurseur et continuera de favoriser les initiatives européennes dans le sens du partage de la responsabilité entre tous les acteurs concernés.

Le développement industriel durable et le progrès sont en effet dorénavant étroitement liés à la faculté de penser aujourd'hui la compétitivité de demain en des termes favorables au retour aux grands équilibres naturels et respectueux de l'éthique et des valeurs sociétales. L'évaluation n'est donc pas une option, elle est d'intérêt général et devra être mise en œuvre. Le plus tôt sera le mieux.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie beaucoup Mme Roure pour cet exposé des actions conduites au niveau international.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Nous abordons maintenant les analyses des chercheurs et je vais demander à M. Jean-Frédéric Clerc, Directeur adjoint de la recherche technologique au CEA, d'intervenir. Vous pourrez peut-être nous parler de la stratégie de recherche du CEA pour répondre aux inquiétudes suscitées par les nanotechnologies et par leurs applications industrielles et également donner des indications sur les start-up constituées à l'initiative du CEA dans ce domaine, même si Monsieur Lagarde a déjà quelque peu évoqué le sujet.

M. Jean-Frédéric CLERC, Directeur adjoint de la recherche technologique au CEA : J'appartiens à la Direction de la recherche technologique du CEA dirigée par M. Jean Therme. 2500 personnes sont ainsi focalisées sur l'accélération du transfert de l'innovation et notamment des nanotechnologies, vers l'industrie. J'évoquerai des exemples d'objets utilisant très largement les nanotechnologies et préfigurant ce qui pourrait se trouver sur le marché dans les 5 à 15 ans à venir. Ces exemples seront répartis en trois catégories, puisque la recherche technologique du CEA est présente sur trois fronts et que l'analyse des risques nous apparaît, en tant que praticiens, assez différente sur chacun de ces fronts.

Je vous présenterai tout d'abord des objets dans le domaine de la nanoélectronique. Ils sont essentiellement issus du travail du Laboratoire d'électronique de technologie de l'information (LETI) de Grenoble et visent tous à repousser les limites de la microélectronique. Ils trouvent leurs applications dans les technologies de l'information et de la santé. On mentionnera également les travaux du laboratoire d'intégration des systèmes et des technologies (LIST) sur les systèmes à logiciel prépondérant. On abordera ensuite des exemples pratiques situés aux frontières entre les nanotechnologies et les biotechnologies. L'objectif est de s'interfacer avec ce qui existe de plus petit dans le vivant, avec des applications dans le domaine de la santé. À partir des nanomatériaux, on évoquera des applications très variées. Les travaux sont menés par le laboratoire d'innovations pour les technologies des énergies (LITEN) qui consacre une grande partie de son activité à ces nanomatériaux, et notamment à la génération de matériaux aux propriétés totalement inédites.

Il est un domaine transverse revêtant une importance capitale permettant de comprendre et d'accumuler des bases expérimentales sur tous ces matériaux : il s'agit de la nanosimulation, associée à un centre de nanocaractérisation que l'on a voulu très important à Grenoble. Si on souhaite éclairer les expertises, quelles qu'elles soient, il faut disposer d'un grand nombre de données expérimentales et faire feu de tous les outils permettant de voir et caractériser les nanoobjets utilisés dans nos métiers, notamment en connaissant leur composition chimique.

La plate-forme de Grenoble est considérée comme l'une des plus performantes au monde. Elle est originale car nous avons su associer d'une part, les outils de caractérisation provenant de la microélectronique (cela a été possible car nous bénéficions de la présence d'une industrie microélectronique très lourde à proximité), et d'autre part, les outils très performants que sont les grands instruments de la physique, comme le synchrotron. Le mélange des deux types d'outils permet de croiser des résultats et d'obtenir des informations dont d'autres ne disposent pas, sur la nature, la composition chimique et la conformation de ces objets.

Le CEA est aussi présent dans des programmes dont l'objectif est véritablement la sécurité des nanotechnologies, M. Frédéric Schuster présentera le programme Nanosafe au cours de cette réunion.

La nanoélectronique vise à dépasser les limites techniques et physiques de la microélectronique . La loi de Moore régit depuis trente ans l'évolution de la microélectronique : elle prévoit et réalise le doublement de la complexité tous les 18 mois. On peut être sûr qu'elle restera encore valide pendant 10 ou 15 ans. Le passage de la microélectronique à la nanoélectronique s'est déjà opéré. La nanoélectronique est déjà une réalité. Les circuits produits à Crolles ont la même taille que le virus Influenza. On peut observer une continuité des procédés de fabrication entre la microélectronique et la nanoélectronique.

Les industriels de la microélectronique ont déjà surmonté les difficultés importantes liées à ce passage. L'on sait que quelques atomes de cuivre tuent le Silicium, on trouve cependant des kilomètres de fil de cuivre parce que cette industrie a précisément su maîtriser la contamination particulaire dans les années 1990. Cette industrie a été pionnière, elle a introduit très rapidement des procédés verts, aussi est-elle aujourd'hui considérée comme non polluante.

Des nanodispositifs électroniques seront sur le marché d'ici dix ans et répondront aux grands objectifs de progrès. Ce sera par exemple :

Le stockage encore plus massif de l'information, pour parvenir à un traitement encore plus conséquent de l'information et régler le problème des transmissions : faut-il préférer des transmissions optiques ou des transmissions via le cuivre ? Il convient de répondre à cette question en facilitant le passage de l'électron au photon et c'est l'objet de la boîte quantique.

- On peut utiliser des fonctions très nouvelles, par un système qui permet, en envoyant des photons uniques, de sécuriser totalement l'information.

- Les matériaux utilisés, dans le cas de la mémoire à nanocristaux sont bien connus dans le secteur de la microélectronique. Il est original que dans cette mémoire, l'information soit contenue dans un nanocristal de quelques nanomètres qui retient une poignée d'électrons entrant dans le nanocristal par un effet quantique. La nouveauté n'est donc pas liée aux matériaux ou aux procédés de fabrication, mais à l'effet quantique qui se trouve à l'intérieur. Ces électrons restent piégés dans un nodule de Silicium. Dans tous ces cas de figure, le nanoobjet est enchâssé dans le silicium, ils demeurent dans la plaquette de silicium : c'est pourquoi nous parlons de « nano-inside ».

Tous ces nanodispositifs ont en commun d'être réalisés avec des machines de la microélectronique ; c'est pourquoi, il n'est pas réellement nécessaire de créer des start-up. Une industrie comme celle de Crolles peut tout à fait continuer la production de ces objets dans les dix ans à venir et le fera certainement. En tant que praticiens, nous n'avons pas constaté d'évolution importante dans le domaine de l'analyse du risque entre la microéléctronique et ce type de circuit.

La frontière entre nanotechnologies et biologie.

Lorsqu'on évoque la frontière entre nanotechnologies et biologie, on constate qu'un véritable changement s'est produit. Nous avons aujourd'hui accès à toutes les échelles du vivant. Le vivant est, de façon basique, multi échelles. La microtechnologie ou la nanotechnologie ne sont pas nécessaires pour étudier les organes. La microtechnologie est suffisante pour observer les informations contenues dans les neurones ou pour trier des cellules. En revanche, l'échelle nanométrique est indispensable pour observer l'intérieur des cellules, là où se trouve la plus grande quantité d'informations et notamment des biomarqueurs qui permettent d'identifier la présence d'un déséquilibre d'ARN messager, de protéines ou de sucre. Le risque d'une maladie ou d'un signe préventif de maladie est donc alors quasi avéré.

C'est aussi à ce niveau qu'on peut obtenir des informations sur la façon dont le patient reçoit son traitement et réagit à son médicament. Le passage à l'échelle nanométrique est donc très utile pour répondre à deux grands objectifs de la médecine d'aujourd'hui : la médecine personnalisée et l'imagerie moléculaire, et constitue une étape vers le ciblage des médicaments.

Concernant la médecine personnalisée, on dispose d'un exemple de l'un des premiers laboratoires sur puce qui se présente comme une carte de crédit. Un petit système de fluidique est installé dessus et permet de convoyer le prélèvement qui provient du sang ou de la salive du malade sur une puce microélectronique. Il s'agit d'une petite caméra, comme celle présente dans les appareils photos. L'astuce consiste à greffer une sonde sur cette caméra ; dans l'exemple cité, il s'agit d'une sonde d'ADN qui reconnaîtra la nature de l'ADN du patient. Un petit mécanisme enzymatique déclenchera une fluorescence lumineuse très localement, si la sonde reconnaît le brin d'ADN attendu chez le patient. On obtiendra une image avec des points brillants et des points noirs que le médecin pourra exploiter.

Ces systèmes peuvent être placés près du patient, ce qui est un grand avantage. L'information peut éventuellement être envoyée de façon électronique au médecin. Il est possible, par ailleurs, d'effectuer un nombre de tests assez important, ce qui permet d'aller vers de la médecine personnalisée.

Le deuxième exemple qui porte sur l'imagerie moléculaire et le ciblage des médicaments, a déjà été évoqué ce matin par M. Jean-Philippe Bourgoin. Une molécule chimique dont la forme s'apparente un peu à celle d'un radeau - et elle s'appelle d'ailleurs « Raft » -synthétisée par nos collègues de l'université de Grenoble, a permis d'embarquer trois fonctions. Des récepteurs permettent à cette macromolécule, soit d'aller directement sur la membrane d'une cellule, soit de déclencher un mécanisme qui lui permettra de rentrer dans la cellule. Une autre fonction, assez similaire permet d'identifier un biomarqueur et de savoir si la cellule considérée est potentiellement malade. Jusqu'à présent, on a, à ce stade, déclenché un phénomène de luminescence avec un chromophore.

On pourra par exemple observer une souris sur laquelle les zones tumorales apparaissent très nettement. Cela est obtenu avec l'analyse cellule par cellule. Ce système puissant permet d'identifier les cellules atteintes et celles qui présentent les premiers signes d'atteinte. Dans un avenir un peu plus lointain, il sera possible de déclencher dans la cellule atteinte ou à sa surface le largage du médicament, même si l'on n'a pas encore atteint ce but pour ce qui nous concerne. Il sera possible d'envoyer le médicament uniquement sur les cellules malades et non sur l'ensemble des cellules. Pour ces deux applications, nous sommes très liés à la recherche clinique et à la recherche en biologie sans lesquelles nous ne parviendrions pas à ce niveau de réalisation.

Les nanomatériaux.

Je souhaiterai montrer à travers quelques exemples qu'on obtient des propriétés inédites grâce aux nanomatériaux. Par ailleurs, une très faible quantité de ces nanomatériaux est nécessaire, ce qui permet une économie de matière considérable. Leurs applications sont très variées (nucléaire, industrie mécanique, aéronautique, batteries et piles à combustible). Les nanomatériaux se présentent sous trois formes pour lesquelles les résultats du programme Nanosafe sont valides et doivent être pris en compte.

La première forme concerne les nanocomposites. Même si le matériau final, après « effritage » ressemble à un matériau conventionnel, il contient de petits nanoagglomérats de poudre, avec des taux de 1% pour différentes applications ; ces matériaux présentent des propriétés totalement inédites.

Ceci est appliqué au nucléaire, avec les mêmes performances que les matériaux actuels, et permet de gagner 50 à 100 degrés. On peut en effet bloquer les dislocations et limiter les défauts de l'irradiation. On trouve également des applications importantes dans le domaine aéronautique car, grâce à ces systèmes, on allège les structures.

Les revêtements représentent la deuxième forme que ces nanomatériaux peuvent prendre. Pour un revêtement très dense, le but est d'obtenir qu'il soit très dur pour augmenter la durée de vie d'outils de coupe et diminuer la vitesse d'usure.

Les catalyseurs : il s'agit de matériaux multicouches. En reprenant l'exemple déjà fourni par M. Philippe Martin lorsqu'on utilise des catalyseurs, deux points sont importants : la surface développée du catalyseur et les nouvelles performances qu'il est possible d'obtenir, lorsque ces catalyseurs sont infiniment plus petits que ceux utilisés actuellement. Une des applications possibles et envisagées de ces catalyseurs concerne la pile à combustible. Dans une pile de cette nature, il faut actuellement 100g de platine : or, c'est aujourd'hui économiquement inconcevable et très difficile à imaginer par rapport aux ressources de la planète. Si l'on se contente d'accroître la surface développée, on gagne déjà un facteur 2 à 5 sans rien changer. Si l'on recherche des performances ultimes, avec des catalyseurs de 3 nanomètres, on peut réduire l'utilisation du platine à quelques grammes seulement. Un programme important est actuellement en cours pour ce faire.

Grenoble, centre d'excellence mondiale pour les nanotechnologies. Un plateau technologique dans l'enceinte du CEA, où tous les objets sont géographiquement très proches, est une grande chance. Cela permet, sous la responsabilité du directeur de centre, de mettre en place des méthodologies de suivi et de contrôle qui sont cohérentes depuis les études amont -beyond Complementary Metal Oxide Semi-conductor CMOS - jusqu'aux études appliquées, avec les nouvelles fonctions développées au LETI. Nous venons également d'ouvrir une ligne qui permet aux industriels de venir sur place monter des nanoobjets sur des puces de Silicium et faire le packaging correspondant. L'ensemble est connecté à la plate-forme de nanocaractérisation déjà mentionnée, et permet de collecter de l'information, qu'elle provienne de sources privées ou de sources publiques. C'est en accumulant cette connaissance que nous pourrons éclairer les débats.

Les laboratoires qui participent aux nouveaux outils mis en place par M. François Goulard, Ministre délégué à l'Enseignement supérieur et à la Recherche, ont dès le début pris en compte les questions éthiques et celles liées aux risques encourus. C'est le cas pour le réseau thématique de recherche avancée « nanosciences aux limites de la nanoélectronique », porté par les partenaires présents sur Grenoble. Dès sa création, ce réseau, dont le LETI a inscrit ces préoccupations clairement dans sa charte, a souhaité préciser dans un paragraphe son engagement sur l'éthique et le contrôle des risques. Tel est également le cas des 20 instituts dont le LETI, qui ont reçu le label CARNOT (ce label est destiné à favoriser la conduite de travaux de recherche publique en partenariat avec des acteurs socioéconomiques, notamment avec des entreprises, compte tenu de leur effet de levier sur l'effort national de recherche).

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie M. Clerc. Je demanderai à M. Michel Lannoo, Directeur du département mathématiques, physique, planète et univers du CNRS, d'intervenir. Vos principaux thèmes de recherche sont la physique théorique des semi-conducteurs et les nanosciences. Vous allez donc nous exposer la stratégie du CNRS dans le domaine des nanosciences, les programmes qui sont privilégiés et la façon dont vous articulez ces programmes avec les exigences du COMETS. Vous nous indiquerez également comment vous répondez aux préoccupations éthiques et aux risques.

M. Michel LANNOO, Directeur du département mathématiques, physique, planète et univers du CNRS : Je m'exprimerai à deux titres : en tant que représentant du CNRS sur les aspects scientifiques, d'une part et en tant que spécialiste des nanosciences d'autre part.

J'ai commencé à m'intéresser à ce domaine, il y a fort longtemps, vers la fin des années 1980, puisque les nanosciences correspondent en réalité à une évolution continue, comme on l'a observé pour la microélectronique : avec la diminution des dimensions, on va automatiquement vers la nanoélectronique. En outre, les études de surface et interface de semi-conducteurs et autres matériaux débouchaient sur la fabrication de petits amas. Il en allait de même pour les méthodes de chimie, avec des inclusions nanométriques dans des matériaux. Tout ceci tendait à converger vers la science globale que sont les nanosciences, pouvant avoir des conséquences ultérieures sur le plan technologique.

Dans ce domaine d'évolution continu, deux événements très particuliers se produisent vers la fin des années quatre vingt. Tout d'abord la mise au point du microscope à effet tunnel. Cette invention a montré qu'on pouvait éventuellement étudier un objet nanométrique, le pousser et même faire un peu de mécanique, ce qui constituait un renversement de perspective extraordinaire. Ensuite, l'ouvrage de Drexler paru en 1986, et traduit récemment en français : « Engins de création. L'avènement des nanotechnologies » auquel tout le monde se réfère aujourd'hui mais qui semblait terrible à l'époque. Je me trouvais alors aux États-Unis, mes collègues et moi-même avions tous acheté ce livre ; les scientifiques se battaient entre eux pour savoir si ce qu'Éric Drexler affirmait, était vrai. Il évoquait notamment des conséquences catastrophiques.

Tout ce dont nous débattons aujourd'hui est mentionné dans cet ouvrage, en particulier, la possibilité, pour certains, de tirer parti des nanosciences de façon bénéfique, et celle, pour d'autres, d'en faire des outils de guerre. Drexler racontait nombre de choses considérées comme irréalisables, voire impensables par les scientifiques, et qui devaient survenir cinquante ans plus tard.

Assez touché par cette polémique, j'ai acheté 25 livres aux États-Unis et je les ai ramenés à Lille où je travaillais, lors de la création de l'Institut d'électronique, de microélectronique et de nanotechnologie (IEMN). J'ai distribué ces exemplaires à ceux qui souhaitaient travailler dans ce domaine pour qu'ils aient connaissance des évolutions possibles. C'est aussi à cette époque que l'initiative américaine sur les nanotechnologies a vu le jour. Elle fut largement menée par Mihail Roco qui a persuadé le Président Clinton d'investir des sommes importantes dans ce secteur, en vendant, voire en survendant, tout ce qu'on pouvait en tirer car dans certains cas les applications à l'évidence existent.

Le stockage des informations ou encore les conséquences pour la médecine sont déjà réelles. Il existe des médicaments vectorisés qui atteignent leur cible de façon prévue à l'avance, peuvent être très bénéfiques, mais aussi assez toxiques. S'agissant des procédés et matériaux, il y a une grande nouveauté en la matière : on pouvait penser fabriquer des matériaux à partir d'atomes artificiels qui sont de petites nanocristallites qui servent d'atomes avec lesquels on fabrique le matériau. Les C60 ou fullerènes constituent un exemple assez étrange et s'inscrivent pleinement dans ce principe. Ils sont éventuellement plus résistants, possèdent des propriétés qu'on n'avait pas imaginées.

Le biomimétisme constitue un autre aspect : on peut en effet essayer d'imiter le vivant. C'est un peu ce que Drexler voulait, même s'il souhaitait faire encore mieux, en créant des objets artificiels supérieurs au vivant, pour choquer. Tous ces aspects ont fait partie de la grande initiative nanotechnologique. À la même époque, nous avons essayé de développer des recherches beaucoup moins ambitieuses en France et j'ai été l'un des promoteurs au Ministère de la Recherche de l'action nationale nanoscience, laquelle a été poursuivie et développée.

Sur quels points portait la controverse ? D'abord sur Drexler lui-même et sa collection de nanorobots intelligents qui s'autorépliquent, fonctionnent comme des systèmes vivants, et peuvent créer des systèmes à l'identique. Tel était le principe de base de Drexler. Les scientifiques pensent que cela n'est pas vraiment possible, mais on n'est jamais sûr de rien. Ceci a été très bien vendu par Michael Crichton, avec un livre, « la proie », qui a effrayé tout un chacun. Je l'ai acheté moi aussi, c'était un peu saisissant. Il évoquait de petits systèmes intelligents qui s'interconnectent et possèdent un comportement collectif néfaste. C'était en quelque sorte une invention. Ce romancier, auteur de Jurassic Park, avait bien vendu cette histoire et tout le monde a été terrorisé. Le Prince Charles a lui aussi évoqué des aspects nocifs avant de revenir sur son interprétation car il avait également forcé le trait. Cela a eu un fort retentissement un peu partout et a mis en lumière un problème qui existe potentiellement.

Les nanoparticules et leur nocivité dans l'atmosphère représentent l'un des aspects les plus couramment critiqué. Comme chacun le sait, les nanoparticules sont présentes depuis les débuts de l'ère industrielle et probablement même avant. Nous les respirons et elles pénètrent dans notre peau. Nous demeurons assez satisfaits tant que cela n'est pas trop nocif et que l'espérance de vie augmente. Néanmoins, des conséquences négatives apparaîtront peut-être un jour et il faut pouvoir les mesurer à l'avance.

Un autre aspect est lié aux puces et à la vie privée. Je ne vais pas m'étendre sur le sujet mais tout le monde connaît les effets néfastes qui peuvent survenir : le manque de liberté, la surveillance quasi totale de nos actes etc.

Comment résoudre ces problèmes avant qu'ils ne deviennent trop nocifs ? Le CNRS s'est naturellement préoccupé de cette question. Son comité d'étique, le COMETS, a réfléchi sur ce sujet pendant plusieurs années et je suis en mesure d'en témoigner puisque nous avions déjà interagi à l'époque. Des conclusions sont assez naturelles. Initialement, les scientifiques ne se sentent pas tellement concernés, surtout dans le domaine des nanosciences. Ils font des nanotechnologies, parfois sans le savoir, et étudient des nanoobjets sans imaginer qu'il est possible que cela soit néfaste.

La première chose à faire est de sensibiliser les scientifiques et cela commence à porter ses fruits. Ces scientifiques sensibilisés doivent ensuite interagir avec le public et les technologues afin d'observer tous les dangers induits. Cela reste cependant inutile si on ne dispose pas de mesures fiables et c'est le problème actuellement. Il n'y a pas assez de chercheurs qui caractérisent les risques de façon sérieuse, qui les mesurent et qui essayent ensuite de trouver des solutions en supprimant ou en améliorant le produit.

Dans le cadre de cette réflexion sur la stratégie du CNRS, je souhaiterais faire une proposition et j'en ai déjà discuté avec une personne intéressée : nous pourrions avoir un chargé de mission qui fédère l'ensemble des laboratoires se sentant concernés par ce genre de problèmes et tente de structurer les activités dans ce domaine, afin qu'elles soient reconnues comme des activités à haute valeur scientifique au CNRS. Nombreux sont ceux qui commencent à être conscients de cette nécessité, mais il faut passer aux actes et c'est bien le problème. Pour les aspects médicaux, on pourrait avoir des protocoles semblables à ceux utilisés par la médecine. Mais vous savez bien qu'on ne découvre la toxicité de certains médicaments que 20 ans plus tard. Il faut vraiment être très sérieux et aussi quantitatifs que possible sur ces questions.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie M. Lannoo. Avant l'intervention de M. Launay, M. SAUNIER souhaite poser une brève question.

M. Claude SAUNIER, Sénateur, Vice-Président de l'OPECST : Ma question sera très brève. Vous nous avez de nouveau effrayés, M. Lannoo. Moi qui ne suis pas scientifique, j'ai parcouru quelques rapports et j'ai découvert un concept intéressant : celui de la colle et du gros doigt. En clair, nous serions en train de nous faire peur avec des nanomachines qui dévoreront la planète en l'espace de quelques heures alors qu'il serait physiquement impossible de déplacer des atomes et des molécules. Pouvez-vous nous rassurer sur ce point ? Des effets physiques fondamentaux empêcheraient-ils d'aller trop loin dans le domaine des nanotechnologies ?

M. Michel LANNOO : On peut le penser, néanmoins je ne serai pas catégorique sur ce point. On ne verra pas de petits objets rampants s'installant et dévorant tout le reste. Mais cela sera peut être des poussières dites intelligentes, nanorobotisées, produisant des réactions chimiques et autres. Toutefois, on ne dispose actuellement pas d'éléments permettant de penser qu'on peut aller jusqu'à cette extrémité. C'est ce que Drexler semblait dire dans son livre, mais beaucoup de ces points sont très contestés et contestables.

M. Claude SAUNIER, Sénateur, Premier Vice-Président de l'OPECST : Je précise ma question : on ne pourrait apparemment pas manipuler les atomes et les molécules autant qu'on l'annonce et on ne pourrait pas faire n'importe quoi avec eux parce que des lois physiques de base font que les molécules restent collées, on ne peut les décoller. Serions-nous en train de fantasmer sur des phénomènes irréalisables ?

M. Michel LANNOO : Je tends en effet à penser qu'on ne peut pas arriver à ce type de situation.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : J'en viens à présent à l'intervention de M. Jean-Pierre Launay, Directeur du Centre d'élaboration de matériaux et d'études structurales (CEMES), unité propre du CNRS. Vous êtes Professeur à l'université Paul Sabatier de Toulouse et vos travaux portent sur l'électronique moléculaire et la nanoscience. Vous allez nous expliquer ce que vous faites et comment vous abordez cette problématique.

M. Jean-Pierre LAUNAY, Directeur du centre d'élaboration de matériaux et d'études structurales (CEMES), Professeur à l'université Paul Sabatier de Toulouse : J'évoquerai d'abord quelques repères historiques, notamment les prédictions de Drexler et leur interaction avec le reste de la communauté scientifique.

Chronologiquement, on a coutume de dater le début des nanotechnologies au discours historique du grand physicien Feynman qui avait expliqué en 1959 : « There is plenty of room at the bottom » « il y a plein de place en bas ». Cette conférence, très souvent citée de nos jours, a fait très peu de bruit à l'époque. Elle est pratiquement passée inaperçue pendant au moins vingt ans.

La miniaturisation de l'électronique a ensuite débuté vers 1965. Nous avons mentionné la fameuse loi de Moore toujours valable aujourd'hui et qui le restera pendant bon nombre d'années. On s'est habitué à cette idée que l'on pouvait progressivement miniaturiser tous les objets avec des fonctions toujours plus nombreuses.

Alors que la loi de Moore est constituée d'améliorations successives, une vraie rupture est intervenue en 1981 avec le microscope à effet tunnel. Cet objet permet d'obtenir l'image d'un atome, mais aussi de le toucher et de le déplacer. Des historiens ont questionné Binnig et Rohrer, inventeurs de ce microscope, pour leur demander si ce dernier avait un lien avec le discours prophétique de Feynman. La réponse a été négative, c'est indépendant. Deux sortes de voies se sont alors cristallisées : la voie technologique, avec des extrapolations un peu hardies, et la voie de la recherche fondamentale grâce au microscope à effet tunnel de Binnig et Rohrer.

En 1986, Drexler a effectué un véritable travail de visionnaire sur le concept de nanotechnologie moléculaire dans son ouvrage « Engines of creation » en se basant largement sur les travaux de Feynman qu'il a redécouverts et popularisés. Il a créé son institut, le Foresight Institute et a commencé à expliquer qu'on allait pouvoir réaliser les prédictions de Feynman. Ce dernier n'avait pas précisé comment on s'y prendrait pour miniaturiser les objets à ce point, alors que Binnig et Rohrer ont fourni l'outil qui permettait de le faire. La voie technologique procédant par améliorations successives, et la voie de la recherche fondamentale ont pendant longtemps été quelque peu indépendantes ; les scientifiques de la voie de la recherche fondamentale pensaient que cela ne valait pas la peine de s'intéresser aux travaux de Drexler. Il y avait une certaine ignorance. À la fin, les deux voies ont commencé à interagir.

Quant à Drexler et à cette idée lancée dans son ouvrage, que l'on pourrait traduire par « les machines de la création », il imagine des sortes de machines qu'il appelle les assembleurs. Ces derniers fabriquent des nanorobots qui deviennent autonomes, voire se multiplient, avec tous les dangers possibles qui en résultent. Drexler tente d'évoquer toutes les conséquences ultimes, y compris les plus désagréables, avec une vision très mécanique et se qualifie lui-même d'ingénieur en nanotechnologie moléculaire. On pourrait estimer que c'est un autre nom pour la chimie, sauf que les chimistes travaillent sur un grand nombre d'objets qu'ils fabriquent par des procédés de chimie, alors que Drexler imagine des sortes d'usines dans lesquelles les molécules sont prises sur un tapis roulant et sont modifiées une par une.

Peut-on réellement construire de tels objets ? La réponse est intéressante sur le plan scientifique. Les scientifiques qui manipulent des molécules ou des atomes sont un peu coupables. En effet, pour des raisons liées à la communication, ils utilisent parfois la métaphore suivante. On est capable de faire des choses très sophistiquées, comme positionner un nanotube de carbone entre deux électrodes ; et tout se passe comme si de petits lutins poussaient les molécules et les mettaient à l'endroit où l'on veut qu'elles aillent. Il s'agit naturellement d'une image et ces petits lutins ne peuvent pas exister. Il faudrait qu'ils soient des êtres, plus petits que la molécule, doués de conscience et pouvant prendre des décisions. Or, ils seraient eux-mêmes formés d'atomes et il est clair que ce n'est pas possible. On rejoint la fameuse parabole des démons de Maxwell au début du XXème siècle. Cette image assez frappante a quelque peu contaminé le discours et a popularisé l'idée que des catégories d'objets allaient échapper à notre contrôle.

Pour faire de la science avec cette idée de rupture, on utilise donc le microscope à effet tunnel. Celui-ci est formé d'une pointe extrêmement fine qui se promène sur une surface. Il s'agit d'un instrument d'observation et de fabrication dans le même temps. Le rendement est toutefois très faible, puisqu'on fabrique les objets un par un et cela exige beaucoup de temps.

Prenons l'exemple de la crémaillère moléculaire que nous avons réalisée. La molécule a une forme de pignon avec six dents et nous avons placé des atomes d'azote sur une de ses branches pour repérer si elle est en mouvement. En la poussant avec la pointe d'un microscope à effet tunnel, elle se déplace avec un effet d'engrenage. Naturellement, elle n'a pas échappé à notre contrôle. Entre chaque image, la pointe est venue pousser la molécule. Nous avons ensuite reculé cette pointe dans un mode différent et nous avons pris l'image. La molécule n'a bien entendu pas fait ce qu'elle voulait, mais bien ce que nous voulions qu'elle fasse. On a obtenu là quelque chose d'assez fascinant pour les scientifiques.

Concernant la jonction entre les deux voies : en 2003, un peu avant sa mort, Richard Smalley, prix Nobel de chimie en 1996, a eu une discussion très fouillée et intéressante avec Drexler. Ils se sont un peu chamaillés, lors d'un débat de très haut niveau publié dans la revue de l'American chemical society « Chemical and engineering news ». La question était la suivante : les choses que Drexler pensait pouvoir faire étaient-elles réalisables ? La conclusion du débat, vue par Smalley, et je penche beaucoup pour son point de vue, fut la suivante.

À l'affirmation de Feynman « il y a plein de place en bas », Smalley répond qu'« il n'y a pas tant de place que cela ». On ne peut donc pas faire absolument tout ce que l'on veut pour deux raisons.

Il y a tout d'abord le problème de l'accessibilité. Ce qui nous donne l'impression de pouvoir faire tout ce que nous voulons, c'est que nous agissons sur la matière en deux dimensions. Avec notre pointe de microscope à effet tunnel, nous venons de la troisième dimension et nous poussons les molécules engrainées les unes sur les autres dans l'espace à deux dimensions. C'est d'ailleurs ainsi que nous procédons en microélectronique. Si on veut passer à la troisième dimension et construire un robot autonome capable de se déplacer, d'aller dans les vaisseaux sanguins ; par exemple on s'aperçoit que les outils ne sont pas adaptés. Nous n'aurons probablement jamais les outils nécessaires. Smalley a appelé ce phénomène « le problème des gros doigts collants ». En trois dimensions, il faudrait que nous puissions passer derrière pour achever de ciseler l'objet et nous ne pouvons pas y parvenir. En deux dimensions nous sommes tout-puissants, alors qu'en trois, nous le sommes beaucoup moins.

Par ailleurs, certains dispositifs macroscopiques simples qui ont fait partie de notre vie quotidienne ne fonctionnent plus à petite échelle. Je vais vous montrer un exemple très simple, c'est ce que j'appelle le paradoxe de Feynman. Il y a une trentaine d'années, avant l'invasion des montres à quartz, il existait des montres que nous appelions automatiques. Celles-ci comprenaient un système avec un ressort spiral et une roue dentée. En secouant son bras, l'agitation aléatoire faisait que la roue ne pouvait tourner que dans un sens : le cliquet l'empêchait en effet de revenir en sens inverse. C'est un dispositif très simple qui représente une fantastique machine à récupérer de l'énergie. Si on miniaturise ce dispositif, il ne peut pas fonctionner. Si tel était le cas, cela signifierait que l'on enfreint le deuxième principe de la thermodynamique : on ne peut pas totalement transformer un mouvement aléatoire comme l'énergie thermique en énergie mécanique.

Il s'agit là d'une deuxième limitation qui implique qu'il est impossible d'imaginer réduire totalement à l'échelle nanométrique, toutes les fonctionnalités des objets de la vie quotidienne. Cela nous incite à faire montre d'une certaine humilité. La grande majorité des prédictions qu'on peut formuler de façon quelque peu romanesque, ne fonctionnera certainement pas, mais des dangers inconnus apparaîtront peut-être.

Il est nécessaire de se pencher sur plusieurs questions très fondamentales et, notamment, de dresser un bilan précis de la situation. Que peut-on vraiment faire en bas, Quelle complexité peut-on y introduire pour paraphraser Feynman ? Comment travailler à l'échelle de la molécule unique ? Quel est le nombre minimum d'atomes nécessaire pour réaliser une machine mécanique moléculaire ? Quel est le nombre minimum d'atomes nécessaire pour réaliser un dispositif électronique (élément de mémoire, transistor, calculateur)?

Quand on évoque des dérives et des objets qui échapperaient à notre contrôle, ce n'est possible que si ces derniers ont une complexité suffisante. Le vrai défi est de savoir quelle complexité on peut introduire en bas et c'est le rôle de la recherche fondamentale.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie M. Launay, M. Jean Therme voulait apporter un complément d'information.

M. Jean THERME, Membre du Conseil scientifique de l'OPECST : Je souhaiterais apporter un bémol. Je considère qu'on peut être en accord avec la conclusion de M. Launay, sur une vision de dix à vingt ans. En revanche, je n'en suis pas du tout sûr à plus long terme.

Je reprends deux exemples bien connus. Tout d'abord, en 1946 IBM a sorti l'Electronic numerical integrator and computer (ENIAC) et une grande analyse stratégique de l'utilisation des ordinateurs a conclu qu'il y aurait au mieux cinq ordinateurs dans le monde en l'an 2000.

De même, au milieu des années 1980, une grande étude sur la possibilité de faire de la téléphonie portable a conclu par la négative en indiquant qu'on ne disposerait pas de sources d'énergie portable pour cela. Quinze ans plus tard, il y a des téléphones portables un peu partout dans le monde. Il faut donc relativiser la vision dont on dispose à un instant donné, avec une technologie qu'on maîtrise à cet instant, par rapport à l'ensemble des évolutions pouvant survenir.

Je ne prétends pas que nous transgresserons une loi physique comme le principe de la thermodynamique. Cependant, lorsque Feynman fait sa déclaration en 1959, le transistor a été inventé il y a moins de dix ans et la puce n'existe pas encore. Il explique alors simplement qu'en utilisant un peu mieux les atomes actifs, on pourra quasiment mettre sur une tête d'épingle l'encyclopédie universelle. Or on fait bien mieux aujourd'hui, il avait donc parfaitement raison. On voudrait aujourd'hui repousser encore plus les frontières et mettre bien plus que l'encyclopédie universelle sur cette tête d'épingle, en étant capable de manipuler chaque atome, en le rendant actif. Le passage de la micro à la nanotechnologie correspond à la fin de l'idée de Feynman et on commence à buter sur des limites physiques que vous avez bien expliquées.

Il faut faire preuve d'une certaine humilité quand on se projette à vingt, trente, ou cinquante ans car nous sommes incapables de prévoir ce qui se passera. Même en étant très optimistes, peu de scientifiques croient néanmoins à la possibilité de fabriquer des nanorobots qui s'auto reproduisent en raison des limites physiques. C'est de la pure science-fiction.

Cependant, je ne sais pas prédire ce qu'il en sera dans cinquante, soixante ou quatres vingts ans. J'estime que l'on prévoit le champ des possibles sur une vingtaine d'années et qu'on peut très bien revisiter certains domaines avec des innovations technologiques intermédiaires qui permettent de percevoir les choses un peu différemment. On connaît néanmoins la limite, quand on tape dans l'atome, on ne sait pas vraiment aller en dessous. Faire le tour de l'atome en trois dimensions n'est pas chose aisée. Je vous rappelle par ailleurs que les enfants qui naissent en ce moment vivront jusqu'en 2100 si tout va bien, la durée de vie sera de l'ordre d'un siècle ou plus. Ces échéances ne sont donc pas dénuées de sens.

M. Claude BIRRAUX,  Député, Premier Vice-Président de l'OPECST : Le Professeur Dubuisson est conseiller scientifique du délégué général pour l'armement. Nous avons déjà évoqué à plusieurs reprises les applications éventuelles des nanotechnologies dans le domaine de la défense et celles-ci sont toujours entourées d'une aura de mystère. Pourriez-vous nous éclairer sur le sujet et nous exposer les éventuelles synergies entre la recherche civile et la Défense dans ce domaine ? C'est une question sur laquelle les Français et les Européens baissent les yeux. Aux États-Unis, il y a une interpénétration, car les cloisons sont inexistantes, et les transferts de subvention d'un domaine à l'autre sont plus aisés.

Professeur Bernard DUBUISSON, Conseiller scientifique du Délégué général pour l'armement : Je vous remercie d'avoir invité la Délégation générale pour l'armement (DGA) à cette audition publique. Vous verrez qu'il n'y a pas de grand secret et que la défense travaille beaucoup avec le secteur civil, en particulier dans le domaine des nanotechnologies.

Mon exposé sera organisé selon le plan suivant : après quelques généralités, je vous exposerai les besoins de la défense et les moyens mis en œuvre. J'évoquerai enfin la dangerosité potentielle des nanotechnologies, sujet au cœur de cette audition publique.

La DGA s'intéresse par définition à toutes les technologies émergentes et ce serait une erreur fondamentale d'ignorer les nanotechnologies. Je confirme donc que nous accordons une attention particulière à tous les développements dans ce domaine. Nous avons lancé des actions prospectives depuis plusieurs années, soit par le biais d'études et de recherche amont que nous menons en lien avec des laboratoires ou des entreprises, soit en initiant directement des programmes de développement.

Il est évident que les nanotechnologies peuvent à l'heure actuelle répondre à des besoins de défense. Si vous suivez ce qui se passe en Irak, les Américains ne se privent pas d'utiliser, voire d'expérimenter, des nanotechnologies dans le secteur de la défense pour savoir ce qui se passe côté irakien.

Les applications potentielles relèvent de deux approches : l'une conventionnelle consistant à améliorer les performances, l'autre porteuse de ruptures se fonde sur la méta convergence des technologies nano, bio, informative et cognitives sciences (NBIC)

Les nanotechnologies contribuent d'ores et déjà à une amélioration significative des performances. La préoccupation essentielle dans ce secteur est aujourd'hui d'améliorer les performances des matériels embarqués et les performances liées à la surveillance ou à la communication. La classification des besoins de la défense est un peu arbitraire, les frontières sont souples car il y a des recoupements entre tous ces besoins. On retrouve les domaines de la protection, de la surveillance, des communications, de l'énergie, du guidage et de la navigation. Je prendrai des exemples pour chacun de ces domaines.

Pour la protection, différentes fonctions comme la détection infrarouge sont utilisées. Prenons l'exemple de l'armure souple : cela concerne un tissu souple que le combattant revêt et qui peut ralentir un projectile qui arriverait sur lui.

En matière de surveillance, il s'agit de placer un peu partout des capteurs abandonnés de petite taille. Ils ne sont pas toujours aussi sensibles que les capteurs de grande taille pour observer.

S'agissant des communications : sont concernées les antennes compactes, la conception de petits calculateurs ayant la puissance d'un ordinateur de bureau, mais enfermés dans des centimètres cubes, voire des millimètres cubes. La prolifération de capteurs autonomes permettrait de donner de l'information aux armées pour réaliser des systèmes d'information assez globaux sur le champ de bataille.

L'énergie constitue aussi un problème très important. Trois mots clefs permettent de caractériser les besoins de la défense en la matière : l'allègement, la miniaturisation et l'autonomie. Nous avons assez peu évoqué l'énergie aujourd'hui et cela m'a quelque peu surpris. Le problème de miniaturisation, notamment pour embarquer des sources d'énergie de faible puissance sur le combattant lui-même est vital. Toutes les technologies consomment et doivent donc consommer le moins possible tout en durant le plus longtemps possible.

En ce qui concerne les problèmes liés au guidage et à la navigation, on peut parler de mini ou de micro robots, mais pas encore de nanorobots ni de leur reproduction. Si vous avez visité Le Bourget, vous avez pu voir la Libellule, qui est un mini drone conçu par la DGA. Il y aura peut-être des nanodrones demain, mais je ne suis pas capable de prédire à quelle échéance, et ne le ferai pas car on s'est presque toujours trompé lorsqu'on a fait des prévisions, comme cela a été rappelé.

Quels sont les moyens mis en œuvre par la défense pour développer la recherche dans le domaine des nanotechnologies ? Il convient de citer :

Les contrats de recherche exploratoire qui s'adressent à des laboratoires ou des PME. Ils visent à financer des recherches innovantes, ou amont, ou les deux. Ils sont proposés au fil de l'eau sans appel à projet.

Les bourses de thèse : 18 M€ sont donnés chaque année dans ce cadre.

Les programmes d'étude amont sont quant à eux beaucoup plus lourds et sont en général gouvernés par un industriel, avec la participation de laboratoires de la recherche publique.

Toutes ces recherches se font en coopération et en synergie avec la recherche civile. Cela entre en particulier dans le cadre du programme 191 de la LOLF qui concerne tout ce qui a trait à la recherche duale et est, de mémoire, dotée d'environ 200 M€. Une partie revient au CEA dans ce cadre, même si ce n'est certainement pas suffisant aux yeux du CEA. Nous participons aussi aux comités de l'Agence nationale de la recherche et sommes complètement impliqués dans certains programmes que l'Agence soutient. Nous sommes aussi un partenaire actif au sein de l'Observatoire des microtechnologies et des nanotechnologies, même si celui-ci se préoccupe pour l'heure peu des problèmes de dangerosité.

Quant à la dangerosité potentielle des nanotechnologies, la DGA est un acteur responsable du développement technologique et s'est donc préoccupée dès le départ de ce problème du point de vue sanitaire, environnemental et des conséquences de leur utilisation au niveau sociétal. La DGA est consciente des risques potentiels pour l'environnement et la santé. Par exemple, si on dissémine des capteurs, on sait bien qu'on les retrouvera un jour. On parle de dangerosité potentielle mais tout ce que j'ai entendu depuis ce matin traduit bien une certaine ignorance sur ces questions. Nous avons un problème de mesure. Nous sommes bien conscients des risques potentiels, mais il faudrait pouvoir les évaluer et les chiffrer.

Il existe des risques propres à la défense et nous ne les ignorons pas. Mais la plupart des dangers évoqués aujourd'hui sont aussi dus aux conséquences de recherches civiles. Le problème de dangerosité des nanotechnologies est dual, il n'est pas spécifique à la défense.

Il y a des questions (fondées ou non) spécifiques à un usage militaire ou terroriste qui posent la question d'une veille pour anticiper des développements en terme de contres mesures, de détection et surtout d'accords internationaux à passer avant que ces dispositifs n'existent. 

La DGA entretient une veille constante et se tient informée de toutes les solutions permettant de maîtriser ces risques, en cohérence avec toutes les recommandations des instances françaises et européennes. Elle ne se contente pas d'attendre de nouvelles réglementations, et participe à toutes les journées d'information et à l'analyse des rapports qui ont pour l'essentiel été publiés relativement récemment. L'information dont la DGA dispose n'est pour l'instant pas jugée suffisamment riche. Nous avons commandé une étude prospective dont le rapport a été remis tout récemment en octobre 2006. Il énumère un certain nombre de risques déjà mentionnés au cours de cette audition. On constate une concomitance entre les conclusions de ce rapport et tout ce qui a été expliqué aujourd'hui.

En juillet 2006, la DGA a mis en place un volet d'analyse de la toxicité pour tous les nouveaux matériaux en développement. Elle étudie les mesures concrètes à lancer pour ses sites comme pour ses projets de recherche. Je vous rappelle en effet que nous finançons des projets de recherche menés par des entreprises et/ou des laboratoires académiques. Nous comptons imposer une charte à tous ceux qui travaillent sur les nanotechnologies pour respecter les recommandations qui sont actuellement à l'étude au sein de la DGA, à la suite du rapport que j'évoquais et des autres travaux mentionnés depuis ce matin. Nous comptons poursuivre cette veille et cette prospective en synergie avec les autres partenaires, car j'insiste sur le caractère dual de ce problème de dangerosité.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie Professeur Dubuisson.

Débat

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vais ouvrir le débat pour quelques minutes. La parole est à Mme Marie-Christine Blandin, Sénatrice.

Mme Marie-Christine BLANDIN, Sénatrice du Nord-Pas-de-Calais : Vous avez évoqué des protections souples et résistantes pour les citoyens, mais vous n'avez pas mentionné de recherche en matière de munitions ou de nouvelles armes. Si ces recherches devaient se développer, pensez-vous qu'il y aurait des réglementations internationales, comme il peut en exister en matière de non-prolifération des armes nucléaires ou chimiques ? Si de telles recherches existaient, cela ne mériterait-il pas un encadrement des armes basées sur les nanotechnologies ?

Professeur Bernard DUBUISSON, Conseiller scientifique du Délégué général pour l'armement : Je répondrais que cela relève du domaine du politique. Il s'agirait d'un encadrement au niveau international, du même ordre que celui qui existe pour la non-prolifération des armes nucléaires.

Mme Marie-Christine BLANDIN, Sénatrice du Nord-Pas-de-Calais : Cela relève du domaine du politique seulement si cela existe et si vous faites savoir que vous effectuez des recherches dans ce secteur. Si rien n'est fait en la matière, un tel encadrement n'est pas nécessaire.

Professeur Bernard DUBUISSON, Conseiller scientifique du Délégué général pour l'armement : Tout d'abord, nous ne sommes pas la seule nation concernée ; cependant, pour l'heure, il n'y a pas de recherche en la matière. La recherche porte uniquement sur la propulsion d'armes existantes pour que les engins soient moins visibles quand ils sont en l'air. Je n'ai pas connaissance de recherches particulières sur de nouvelles armes. Mais je ne peux pas vous garantir que ce n'est pas le cas dans un autre pays.

M. Jean THERME, Membre du Conseil scientifique de l'OPECST : On sait bien que ces domaines sont toujours secrets, mais on finit par avoir quelques informations. Très honnêtement, je n'ai jamais rien lu sur un système de munitions basé sur des nanotechnologies.

Professeur Bernard DUBUISSON, Conseiller scientifique du Délégué général pour l'armement : Honnêtement, les recherches portent plutôt sur les armes conventionnelles ou existantes pour les camoufler ou les rendre moins visibles.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Y a-t-il une autre question?

Mme  Cécile MICHAUT, Journaliste : Ma première question s'adresse à M. Clerc. Dans sa présentation, j'ai vu un catalogue de ce que faisait le CEA, mais je n'ai pas retrouvé les aspects éthiques. J'ai peut-être mal compris.

Ma deuxième question s'adresse à M. Launay : il est visiblement difficile pour l'instant de diminuer la taille de ce qui existe au niveau moléculaire. Est-ce que c'est parce qu'on essaye de copier au niveau nanoscopique ce qui se fait au niveau macroscopique ? Est-il possible d'imaginer des objets totalement différents ?

M. Jean THERME, Membre du Conseil scientifique de l'OPECST : Je répondrai peut-être à la place de M. Clerc puisque c'est plutôt moi qui m'occupe de cette activité au CEA. Nous nous sommes jugés relativement incompétents pour faire l'interface de façon satisfaisante avec la société ou le grand public en général, au-delà du monde scientifique, économique et industriel. Nous nous sommes donc associés avec le monde des sciences humaines et sociales.

Des équipes de recherche nous ont rejoints sur le site de Minatec et étudient comment on peut aborder ces questions éthiques, en étant en contact avec la société avec un langage qui ne soit pas scientifique. Ils réfléchissent beaucoup sur les représentations des nanotechnologies dans l'esprit d'une personne qui ne pratique pas les atomes au quotidien, avec toutes les peurs et les aspects rassurants que cela induit. Ils étudient toutes les règles qu'on peut édicter.

Nous avons été obligés d'aller chercher ces compétences à l'extérieur. Nous avons déjà expérimenté un certain nombre de choses et nous sommes en train de créer un ensemble d'activités. Certaines sont dirigées vers les usages des nanotechnologies dans le monde de l'industrie. D'autres portent sur la relation entre l'art et la science : comment l'art met-il en situation les données du monde des nanotechnologies ? Cela permet de nous mettre en relation avec un public auquel nous n'avons pas accès. Nous travaillons également avec des historiens, des philosophes et des personnes qui nous donnent les éléments de langage nous permettant d'expliquer simplement des choses que nous n'arrivons pas à représenter. Il s'agit de projeter dans l'imaginaire du public des éléments assimilables, quel que soit le niveau de connaissance de ces personnes.

Nous sommes en train de créer un centre de recherche sur les sciences humaines et sociales au sein des équipes de scientifiques « durs » des nanotechnologies pour être capables d'aborder ces questions. Nous avons une véritable inculture dans ces domaines. Ce matin, on a expliqué que les scientifiques devaient agir, mais encore faut-il qu'ils en aient les moyens et qu'ils sachent communiquer de façon correcte sur le sujet. Le monde des sciences humaines et sociales nous apporte donc la compétence dont nous ne disposons pas. Un mouvement assez lourd s'effectue en ce sens, même si ce n'est pas facile de mobiliser des équipes. Cela prend actuellement forme très rapidement. Plusieurs dizaines de personnes travaillent déjà dans le domaine des sciences humaines et sociales, dans Minatec, sur ces notions d'acceptabilité, d'éthique et de relation avec le grand public dans le secteur des nanotechnologies.

M. Jean-Pierre LAUNAY, Directeur du centre d'élaboration de matériaux et d'études structurales (CEMES), Professeur à l'université Paul Sabatier de Toulouse : Nous sommes au début de ce processus de miniaturisation et on a tendance, par commodité, à utiliser des objets de la vie courante. J'ai montré des pignons, mais on peut faire la même chose avec des sortes de nanovoitures. Nous essayons ensuite de reproduire cet objet à l'échelle moléculaire pour voir s'il fonctionne ou pas. Nous butons effectivement sur certaines limites.

Une autre approche est possible, même si je n'ai pas eu le temps de l'évoquer : il s'agit d'utiliser des principes complètement différents. Dans le secteur de l'électronique, tout un courant de pensée, auquel j'ai participé il y a quelques années, travaille sur l'électronique moléculaire. On essaye alors de fabriquer les composants habituels à l'échelle moléculaire : les diodes, les fils, les transistors etc. On constate les limites de cette approche. Les composants qu'on fabrique sont très imparfaits, ils sont mal isolés, ils communiquent les uns avec les autres, les commutations ne sont pas franches etc.

Dans ce domaine des nanotechnologies pour l'électronique, une autre approche consiste à utiliser des principes complètement différents et notamment le calcul quantique. Ce dernier est beaucoup plus difficile à expliquer en quelques mots car il est basé sur des superpositions. Schématiquement, un objet évoluera de deux façons totalement imbriquées l'une dans l'autre ; nous montrons que cela permet de démultiplier considérablement ses performances. Nous en sommes au tout début de l'exploration des possibilités offertes par le calcul quantique. Si cela se réalise, cela n'aura pas d'équivalent dans le monde macroscopique.

M. Jean THERME, Membre du Conseil scientifique de l'OPECST : On découvre aujourd'hui des phénomènes inattendus. À titre d'exemple, si on prend un liquide de refroidissement et qu'on met des nanotubes de carbone à l'intérieur, son comportement thermique est totalement inversé. L'on découvre cela aujourd'hui et l'on ne pouvait pas le prévoir.

L'introduction de nanoobjets dans des dispositifs macroscopiques, même en quantité infime, change fondamentalement leurs propriétés. C'était le cas tout à l'heure des agrégats de nanoparticules dans les pneus. Je dois vous avouer que personne n'a compris ce qui se passait pendant un siècle. Nous avons complètement changé le comportement du caoutchouc en mettant un peu d'agrégat de nanoparticules à l'intérieur. Nous avons encore beaucoup de choses à découvrir par l'introduction de nanoobjets dans des objets macroscopiques.

Je ne suis donc pas sûr que nous ne jonglions pas avec les échelles et que l'on ne trouve pas du nano dans du macro, ou encore du micro, du nano ou du mezzo mélangés. Le monde nano ne sera pas obligatoirement purement nano. Cela peut être un monde avec des dimensions nanométriques changeant des fonctions d'objets macroscopiques.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vais inviter le Professeur François Berger, de l'Unité de recherche neurosciences pré cliniques de l'INSERM, à nous faire sa présentation. Il pourra nous préciser ce que l'introduction de microtechnologies et nanotechnologies innovantes a apporté au diagnostic médical et comment concilier progrès médical et risque pour les patients. Il pourra également nous donner son point de vue sur les essais thérapeutiques.

Professeur François BERGER, Unité de recherche neurosciences pré cliniques de l'INSERM : Au nom de l'INSERM et avec Docteur Patrice Marche, qui dirige l'Unité de recherche contrôle de la réponse immunitaire spécifique à Grenoble, nous essayerons de synthétiser brièvement les enjeux des nanotechnologies pour la santé. Cela concerne un domaine extrêmement large qui va du diagnostic à la thérapeutique pour l'utilisation des outils de la nanotechnologie. Nous aborderons aussi l'étude des effets des nanotechnologies sur la santé, avec un enjeu éthique sur le statut de l'individu potentiellement modifié par les nanotechnologies.

Les enjeux des nanotechnologies pour la santé.

Je vais aborder le domaine de la thérapie, sans vous présenter un catalogue, même si les applications des nanotechnologies sont très larges en la matière. Cela n'est pas seulement de la science fiction, près de vingt médicaments issus des nanotechnologies sont commercialisés en cancérologie. Ils sont nettement plus efficaces que les médicaments classiques et génèrent moins d'effets secondaires. Il faut le rappeler, il s'agit d'un domaine qui est presque devenu classique et on en parle peu.

Neurostimulation: des micro aux nanotechnologies pour la thérapeutique des pathologies cérébrales.

Un exemple montre comment l'on a géré les problèmes éthiques dans le domaine du transfert des nanotechnologies au lit du malade, dans l'équipe du Professeur Benabid à Grenoble. Cela s'est fait à travers la neurostimulation, par une démarche macro, micro puis nanotechnologique pour les thérapies cérébrales. Une découverte a été faite presque par hasard, il y a vingt ans en 1987 par le Professeur Benabid qui s'est rendu compte qu'en stimulant à haute fréquence dans le cerveau, l'effet obtenu ressemble à celui de la lésion. Il a alors montré que cet effet guérissait le tremblement chez les personnes atteintes de la maladie de Parkinson, de façon réversible, si on arrête la stimulation, l'effet disparaît. Il n'est donc pas lésionnel.

Cela correspond au début de la nanomédecine, puisqu'il s'agit d'une thérapeutique fonctionnelle qui ne lèse rien au plan micro et macroscopique. Depuis, on a constaté une expansion très importante des applications, avec une démonstration de l'efficacité sur les tremblements, sur la maladie de Parkinson, sur les dystonies. L'effet thérapeutique persistant à long terme a également été démontré. Dès lors, on a mis en œuvre une régulation éthique des essais cliniques : en 1987, placer une électrode dans le noyau sous thalamique d'un patient était à la fois innovant et potentiellement dangereux. J'estime qu'il ne sera pas nécessaire d'ajouter des réglementations et des lois car ce ne sont pas les règlements, mais bien la relation médecin-malade qui se révèle très importante. Il y va de la responsabilité du médecin chercheur qui lance un essai clinique.

Il faut rappeler l'existence de règles sur la mise en place de cet essai, sur le consentement éclairé du patient avec l'explication de l'innovation. Il y a une responsabilité du médecin face aux effets secondaires potentiels qu'il doit détecter. Ces règles sont validées depuis 20 ou 30 ans et sont totalement efficaces. Je rappelle que le premier patient implanté au niveau sous thalamique a présenté un hématome, l'essai a été arrêté et une commission d'enquête s'est rendue à Grenoble. On a compris pourquoi cet effet secondaire était apparu et la neurostimulation du noyau sous thalamique constitue désormais une innovation reproduite partout dans le monde, notamment en Chine. Elle a été acceptée par la Food and Drug Administration (FDA) et rapporte beaucoup d'argent à l'entreprise qui l'a soutenue au départ. À mon avis, toute la régulation est là : il faut simplement appliquer des principes de bonne pratique de recherche médicale. C'est vraiment crucial.

Il n'a pas été possible de rester à ce niveau local d'éthique devant l'apparition, non pas d'une extension de la neurostimulation dans les pathologies du mouvement, mais devant l'utilisation de la neurostimulation dans les pathologies psychiatriques, dans certains laboratoires, sans que cela ne soit publié. Il existait un risque qu'on puisse déclarer que la neurostimulation était utilisée pour modifier la pensée et le comportement. Face à des expérimentations plus ou moins cachées menées dans le monde, le Professeur Benabid a soumis le problème au Comité consultatif national d'éthique, CCNE. C'était une démarche très importante. Il est apparu nécessaire de surveiller et d'évaluer au plan international de façon rigoureuse les utilisations de la neurostimulation dans ces indications psychiatriques. Cela a même donné lieu à des articles sur cette démarche dans la revue Nature.

Pourquoi transfère-t-on les nanotechnologies dans le domaine de la médecine ? C'est parce que des patients présentent des handicaps majeurs et une espérance de vie très limitée. En psychiatrie, le groupe du Docteur Lozano a démontré qu'il y a dans le cerveau une petite zone rouge dont l'imagerie fonctionnelle montre qu'elle était hyper activée chez des patients grabataires atteints de dépression, résistante aux électrochocs et à tous les médicaments, dans des hôpitaux psychiatriques canadiens. En stimulant cette zone, on entraînait un effet thérapeutique apparemment majeur à l'image de l'inhibition, décrite par le Professeur Benabid en 1987. Des essais sont donc actuellement menés en France, aux États-Unis et dans le monde entier, avec un grand respect de la surveillance éthique dans des pathologies psychiatriques extrêmement graves.

Il faudra vraiment mettre en place une surveillance éthique importante lorsqu'on appliquera ces technologies dans des pathologies moins graves. On sait par exemple qu'en laboratoire, on peut manipuler le comportement alimentaire du singe en stimulant son hypothalamus. Si on stimule certains noyaux, le singe va devenir hyper phage, manger beaucoup ou au contraire arrêter de s'alimenter. Ce type d'application est majeur pour la maladie de Prader Willi concernant dix patients au monde qui deviennent obèses et qui meurent. Il y a un réel danger dans les domaines de l'anorexie ou de l'obésité. La solution réside dans la surveillance, mais ne consiste pas à rajouter des réglementations.

Ces macro-applications ont dû être développées et il y a eu une évolution vers des optimisations, notamment dans le creuset grenoblois avec le soutien de M. Jean Therme. En effet, si cela fonctionne très bien dans des pathologies comme la maladie de Parkinson, de nombreuses autres maladies dégénératives ne sont pas traitées par cette stimulation.

Utiliser l'activité cérébrale pour agir : on dispose de l'exemple du transfert des microtechnologies et de la microélectronique permettant d'effectuer une stimulation en trois dimensions. Plusieurs électrodes seront réglées en fonction de la réponse des neurones du patient enregistrée localement. Il existe un prototype et un essai clinique sera réalisé sur l'homme en 2007. Cette miniaturisation fonctionne et la possibilité d'enregistrer l'activité cérébrale chez un patient paraplégique a été largement médiatisée à travers la revue Nature. Il s'agit d'apprendre au patient, à travers des microélectrodes implantées dans le cerveau, à déclencher une activité cérébrale. Ce n'est pas de la pensée et en ce sens, la couverture de Nature ressemble un peu trop à la une de Paris-Match, mais une activité cérébrale qui peut déclencher un acte moteur dirigé à distance. De la même façon, des prothèses rétiniennes sont en train d'être validées via des essais cliniques chez l'homme : elles ne permettent pas de revoir normalement, mais de retrouver une vision un peu floue.

Les nanotechnologies pour améliorer l'interface homme/cerveau.

Dans toutes ces applications, on se heurte au problème de l'interface homme/cerveau. L'amélioration de cette interface constitue un domaine de recherche majeur pour nos laboratoires car tous les dispositifs décrits entraînent des difficultés de greffe et ne tiendront pas très longtemps. Tel est le cas des prothèses rétiniennes. On sait qu'en utilisant des nanotubes de carbone, on pourra améliorer l'intégration et viser une interface physiologique dans le cerveau. Cela nécessite probablement une meilleure stimulation puisque la régulation des réseaux neuronaux est extrêmement fine. En la matière, la démarche de recherche répond à une notion éthique : il est impensable de lancer ce type d'étude chez l'homme avant d'avoir mené une analyse toxicologique très étendue. C'est ce que nous faisons actuellement, en collaboration avec le LETI. Nous déterminons quels sont les meilleurs nanotubes et cherchons comment les modifier pour qu'ils s'intègrent au mieux dans le cerveau sans toxicité.

Nanobiopsie / nanobanque.

On peut utiliser le Silicium et l'électronique pour aller capter des molécules dans le cerveau, dans des zones où il n'est pas possible d'utiliser la biologie. Des applications peuvent aussi fournir des données fondamentales très importantes. Actuellement, on n'analyse pas la biologie de la maladie de Parkinson ou des zones péri tumorales qu'on n'a pas pu retirer ; c'est pourtant là que les cibles thérapeutiques importantes sont présentes

Les dispositifs intelligents biomimétiques intégrés.

On vise à s'orienter vers une véritable nanomédecine, pour poser des dispositifs intelligents, biomimétiques, intégrés, multifonctionnels qui assurent la détection, l'imagerie et le traitement.

Le passage de la médecine anatomo-clinique à la nanomédecine.

Lorsque la maladie sera détectée avant qu'elle ne soit visible de façon macroscopique dans le tissu, on utilisera de la vraie nanomédecine ou de la médecine moléculaire. On a beaucoup entendu que les nanotechnologies n'allaient globalement pas apporter de révolution. Or, on est bien en présence d'une révolution, potentiellement difficile à assimiler, qui constitue le passage de la médecine anatomo-clinique à la nanomédecine. Cela revient à traiter la maladie avant qu'elle n'émerge et on passe alors à un autre statut de l'homme malade.

Pour prouver que la nanomédecine constitue un concept valide, il faudra procéder à des essais cliniques très longs et extrêmement coûteux. Il est toutefois important de les soutenir car il s'agit vraiment d'une révolution médicale qu'il faut valider.

Pour résumer mes propos, la valeur ajoutée des nanotechnologies transférées dans le domaine médical est indiscutable au niveau scientifique et industriel. Nous ne pouvons vraiment pas mener ce type de recherches sans industriels. Il faudra également remplir des obligations éthiques car on voudra utiliser des dispositifs sûrs. Or, il n'est pas possible de réaliser de tels dispositifs avec une qualité industrielle dans les laboratoires de recherche. Nous devons travailler avec des industriels, nous déposons des brevets et il n'y a pas de problème éthique en la matière.

Participer à la réflexion éthique associée à la recherche constitue véritablement un devoir pour le chercheur. C'est nouveau pour moi car il s'agit d'une réflexion multidisciplinaire, globale, qui commence par l'intégration de données très fondamentales. Il conviendra d'intégrer la compréhension nanotechnologique d'un système comme le cerveau dans sa globalité, en faisant attention à ne pas commettre d'erreurs, comme ce fut le cas au XIXème siècle, lorsqu'on étudiait les bosses du cerveau et qu'on en faisait des éléments moteurs de la pensée.

Il conviendra de gérer toute la modification de l'individu générée par l'utilisation thérapeutique des nanotechnologies. À cet égard, je citerai un travail. Conscient que l'utilisation des microimplants et des nanoimplants posait d'importants problèmes éthiques, le Comité d'éthique de NanoToLife, auquel j'appartiens et que mon collègue Patrice Marche évoquera ensuite, a mené une réflexion depuis un an sur ces nanoimplants. Cette réflexion très largement multidisciplinaire est menée par des sociologues, des théologiens ou encore des légistes qui se sont par exemple interrogés sur le statut légal d'un homme implanté qui développerait un trouble du comportement. Michael Crichton a d'ailleurs dressé un tableau terrible de ce phénomène. Quel serait le statut de cet homme hybride qui aurait un dispositif implanté ? Il s'agit là probablement d'une modification de l'humanité qu'il faudra intégrer.

Trop de régulation tue l'innovation. Nous disposons d'une réglementation très rigoureuse et coûteuse en matière de transfert au lit du malade et d'essais cliniques. On veut actuellement la renforcer : or, cela ralentit nettement l'innovation et s'oppose au progrès médical. Néanmoins, il est important de surveiller et valider les effets cliniques réalisés sur des patients. Je laisserai la parole au Docteur Patrice Marche sur les questions relatives au diagnostic.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie Professeur Berger. Le Docteur Patrice Marche est Directeur de l'unité de recherche contrôle de la réponse immunitaire spécifique de l'INSERM. Vous participez à des programmes internationaux et européens, notamment pour la mise au point de systèmes de diagnostic et d'évaluation des risques biologiques potentiels provoqués par les structures utilisant les nanoparticules.

Vous pourrez nous indiquer quand ces travaux pourront déboucher et décrire les pathologies générées par les nanoparticules.

Docteur Patrice MARCHE, Directeur de l'unité de recherche contrôle de la réponse immunitaire spécifique de l'INSERM : Je poursuivrai la présentation du Professeur Berger en l'axant essentiellement sur le diagnostic pronostique dont vous connaissez les enjeux.

Les objectifs du diagnostic pronostique :

Il améliore la rapidité et la précision des outils de diagnostic, notamment grâce à la capacité d'analyser des multitudes de gènes de façon concomitante avec une petite puce. En effet un problème de gestion de l'information se pose: générer une telle quantité de données induit une difficulté d'interprétation pour le praticien et ce n'est pas la moindre des difficultés. Comment utiliser et traiter cette information de manière objective vis-à-vis du patient ? Quelle est son utilité ?

On s'oriente maintenant vers des outils de diagnostic incluant l'analyse directe des protéines, éléments qui sont plus proches de la fonctionnalité. L'apport technique des nanotechnologies est très important pour pouvoir réaliser des capteurs ou procéder à des analyses sur des quantités infimes de matériel. Ceci est rendu possible par la mise en place de systèmes intégrés incluant dans leur partie centrale une cellule qui traitera des cellules. Ce dispositif est ensuite relié à toute une composante de gestion de l'information microélectronique qui permet de guider les cellules dans le dispositif.

Il aide à la décision médicale pour le suivi personnalisé des traitements. La médecine personnalisée constitue un enjeu majeur adapté à des protocoles cliniques. Il est ainsi essentiel de pouvoir obtenir un diagnostic sur l'utilité d'un traitement. En effet, pourquoi traiter un patient alors que le traitement ne fonctionne pas ? C'est coûteux et c'est souvent très pénible pour les patients. Il ne faut jamais oublier que certains patients suivent des traitements dont les effets collatéraux sont difficiles à supporter. Ceci relève d'une certaine humanité dans la prise en charge des patients.

Il permet l'analyse auprès du patient, chez le médecin, à domicile, dans les services mobiles d'urgence. Les systèmes miniaturisés sont des outils légers, transportables, voire véhiculables, Une fois que les problèmes d'énergie aurons été bien gérés, ces outils pourront être utilisés chez le médecin, à domicile, dans les services mobiles d'urgence, dans tous les services mobiles y compris les applications militaires. Il est très important de pouvoir suivre l'état de santé sur le terrain.

Il améliore les techniques d'imageries fluorescentes. Ce point a déjà été mentionné. Ainsi, plusieurs réalisations illustrent ces apports, notamment les systèmes miniaturisés de prélèvements sanguins et d'analyses de sang, les techniques d'imagerie fluorescente. Ces dernières permettent d'analyser certains paramètres et de poser des diagnostics in vivo, sans lésion du patient ou de l'animal.

Les effets des nanotechnologies sur la santé nous importent.

Nous avons tous compris que l'évaluation des risques sur les mécanismes biologiques et sur la santé constitue un enjeu particulièrement important. Cette démarche contribuera à l'acceptation de ces pratiques. Lorsqu'on évoque la toxicité ou les effets nocifs et nuisibles à long terme, il faut considérer les doses et la fréquence d'exposition. Du CO2 à petite dose chaque jour, ce n'est pas toxique, en revanche, avec une grande dose à un instant donné, on meurt.

Les effets à long terme sont difficiles à analyser et posent un problème ardu dans le montage des projets de recherche car plus la manipulation est longue, plus elle est coûteuse, et nécessite de crédits.

L'objectif est de définir les conditions inoffensives d'utilisation raisonnée, avec l'établissement de standards et de recommandations pour les personnes. On distinguera:

- les patients qui peuvent être exposés à des doses assez importantes de matériaux, notamment dans le cadre d'imagerie médicale ou de certaines drogues ;

- les utilisateurs et les personnels de production de santé qui seront probablement les premiers exposés et pour lesquels il faudra élaborer des normes beaucoup plus drastiques, procéder à des analyses portant sur les effets à plus long terme, et sur les problèmes de recyclage des nanomatériaux. Aussi convient-il de promouvoir des essais in vitro, évitant l'expérimentation sur les êtres vivants.

Ces analyses peuvent s'effectuer à différents niveaux.

Sur des fonctions moléculaires : voici sur ce schéma un magnifique cycle de métabolisme, avec l'enchaînement des réactions biochimiques qui contrôlent les mécanismes intimes et vivants, et qui manipulent le transfert d'atomes et de molécules depuis des âges ancestraux. L'être vivant sait déjà lui-même transférer un certain nombre de molécules et d'électrons et je voulais le souligner. Lorsque vous respirez, vous effectuez un transfert d'électrons de molécules en molécules. Il est donc important d'évaluer les effets des nanoparticules et des différents nanomatériaux sur ces fonctions moléculaires et métaboliques, mais également sur les fonctions cellulaires.

2 - Sur les fonctions cellulaires : il est en effet reconnu qu'un certain nombre de nanoparticules peuvent pénétrer la cellule, y voyager et se localiser dans certains endroits comme le noyau. Des publications ont récemment montré que des nanoparticules d'or peuvent être ciblées au niveau du noyau. C'est très commode, car en y greffant des particules d'ADN, on peut espérer contrôler l'expression de certains gènes qu'on voudrait par exemple éteindre, mais cela pose également plusieurs questions de biologie fondamentale. Ainsi, nous ne connaissons pas le mécanisme de transport et ne savons absolument pas comment ces particules peuvent pénétrer la cellule et être transportées dans le noyau. On peut donc s'interroger sur leurs effets à long terme, ce n'est pas un problème trivial.

Sur le schéma présenté, apparaît une nanoparticule entrée en rotation, avec son corps de structure. Les quelques tire-bouchons et Y qui se trouvent à la surface sont très probablement des molécules qui vont cibler la nanoparticule à l'endroit souhaité, tel est notre rêve. Dans le cœur, on trouvera probablement des éléments actifs qui vont se libérer une fois la particule ciblée.

Il convient d'intégrer tous ces éléments pour évaluer la toxicité et notamment l'accumulation de ces particules qui peuvent survenir dans des endroits aussi discrets que des sous-fractions de cellules. On peut très bien obtenir une analyse globale et systémique en voyant les nanoparticules disparaître et constater des accumulations dans certains compartiments du noyau.

Il faudra aussi intégrer les résidus et les additifs utilisés pour fabriquer les nanoparticules, ceux-ci pouvant parfois rester accrochés et interférer, notamment avec les voies métaboliques. J'estime que certains réactifs chimiques interfèrent avec ce qu'on appelle le potentiel redox qui est l'un des mécanismes naturels de régulation de l'expression des gènes. Ces données doivent être absolument intégrées.

Les nanofibres et en particulier les nanofibres de carbone, possèdent des propriétés extraordinaires du point de vue physique, voire chimique mais présentent des inconvénients lorsqu'elles sont inhalées, surtout à forte dose, puisqu'elles peuvent provoquer des fibroses pulmonaires. Elles sont transférées dans le système immunitaire. Elles sont elles-mêmes utilisées pour stimuler les mécanismes de défense par certains brevets comme adjuvant pour des vaccins. Il faut donc s'attendre à des potentialités de réactions inflammatoires, notamment lors d'expositions chroniques et il faut les évaluer.

Quant aux implants, le Professeur Berger les a évoqués.

La possibilité de promouvoir les essais in vitro constitue un des aspects intéressants de la miniaturisation à travers les nanotechnologies. On peut notamment reconstituer des chaînes d'événements complexes dans des microdispositifs et espérer ainsi éviter au maximum les essais sur les êtres vivants. C'est l'un des aspects les moins négligeables du développement de ce type de technologies.

Que peut-on faire pour les chercheurs, puisque je parle en leur nom ? Il faut éviter qu'ils se retrouvent dans une situation ambiguë. Un chercheur peut parfois se trouver en équilibre très instable. On conçoit facilement que dans cette position, il ne progressera pas très vite. On peut se demander s'il faut développer des recherches coûteuses en investissement et en temps si leurs issues ne sont pas assurées. Nous souhaitons qu'une réflexion de fond soit menée pour définir les issues qu'on doit conférer à ce type de recherche, afin que nous puissions travailler sans arrière-pensée, nous engager et trouver naturellement un juste équilibre entre les angoisses et une gestion des risques.

Les angoisses constituent un frein et peuvent conduire à un refus global des nanotechnologies ou/et à des développements non acceptés, ce qui est plus probable. Cela entraînerait la fuite des investissements et le départ des scientifiques qui iraient dans des pays dans lesquels les régulations sont plus faciles à respecter. Tel fut le cas pour les OGM. S'agissant de notre réglementation concernant l'expérimentation sur les cellules souches, dont vous avez débattu récemment à l'OPECST, elle est assez contraignante et plusieurs collègues sont déjà partis travailler à l'étranger où elle est plus ouverte. Comme le rappelle le dicton : « les meilleurs partent les premiers ».

Une gestion des risques est forcément nécessaire pour assurer le progrès. Elle passe par une acceptation raisonnée des nanotechnologies. Tel est l'objectif que nous devons fixer pour progresser dans le respect de la qualité de la vie tout en favorisant l'avancée des connaissances et le développement économique. Trois exemples positifs de sources de développement et de progression avec des comportements, illustrent cette possibilité.

Le génie génétique : on se souvient des interrogations soulevées à la fin des années 1980 lorsque l'on a inséré les premières pièces d'ADN dans des plasmides. Ce fut une révolution. Une période d'un an de réflexion a été nécessaire et des régulations ont été mises en place avec des laboratoires de sécurité de niveau 1, 2 et 3. Cela a permis le développement du génie génétique sans trouble majeur, ce qui a débouché sur la thérapie génique. Cette dernière soulève naturellement des questions éthiques mais n'a pas le retentissement des OGM ou des nanotechnologies à l'heure actuelle.

Les essais cliniques : la France s'est dotée d'une législation remarquable enviée par bon nombre de pays étrangers. C'est un très bon exemple à suivre. Cette réglementation est certes contraignante et les comités d'éthique sont souvent des empêcheurs de tourner en rond mais cela fait désormais partie du processus accepté par les chercheurs.

Le traitement des données informatiques est également contraignant mais fait l'objet de régulations qui fonctionnent.

Les rapports entre les différents acteurs font partie des points délicats à gérer. Comment gérer les conflits d'intérêts entre les lobbies internes et externes ? Les lobbies sont issus de plusieurs secteurs :

- Dans le secteur industriel, les rapports sont en principe gérés par le marché.

- Dans le secteur scientifique, domaine dans lequel se trouve le plus grand nombre de lobbies et de conflits d'intérêt à résoudre, les relations sont plus complexes. Sorti de sa tour d'ivoire, le scientifique est très conservateur et protectionniste vis-à-vis de son action. Il prend une position très défensive face à l'action d'autres scientifiques.

- Dans le secteur politique, il vous appartient de gérer ces problématiques.

Pour atteindre un équilibre vers une connaissance objective, terme très important, il ne convient pas de développer une connaissance ciblée. C'est en gérant ces différents lobbies qu'on parviendra à une connaissance objective. Il faut aussi viser une régulation comprise, acceptée et, dans la pratique, respectueuse de l'individu.

Je mentionnerai à titre d'exemple :

l'apport de l'Europe dans le développement des nanotechnologies, grâce à des actions associées à une démarche éthique.

le réseau d'excellence NanoToLife coordonné par le CEA, qui inclut le CNRS et l'INSERM en France, et compte 23 partenaires qui ont pour objectif d'amener les nanotechnologies au vivant dans le respect de l'éthique, grâce à un comité d'éthique que le Professeur François Berger a évoqué, et qui est particulièrement actif.

une réflexion stratégique est également menée à travers la plate-forme technologique européenne NanoMedicine qui a produit un document sur « les stratégies de développement des nanotechnologies pour la médecine ».

des programmes européens plus ciblés sur la toxicologie des nanoparticules :

le projet intégré Nanosafe2 sera présenté en détail ensuite par M. Schuster et constitue un bon exemple d'initiative en la matière.

le projet ciblé intitulé CellNanoTox vise en outre à développer des tests in vitro pour mesurer les effets des nanoparticules et produire des recommandations. C'est bien en s'intégrant dans une démarche européenne, en additionnant les compétences et en annihilant les différents lobbies nationaux qu'on parviendra à un développement raisonné de cette activité.

Quels défis devons nous relever ?

1 - Comprendre le saut d'échelle constitué par les nanotechnologie: on a coutume d'expliquer que le nanomètre est au mètre ce que le pamplemousse est à la terre.

2 - Promouvoir une recherche interdisciplinaire : comme nous l'avons expliqué à diverses reprises, cela implique l'utilisation de nouveaux concepts fondamentaux et l'intégration de diverses disciplines : physique, chimie, électronique, biologie, médecine, sciences humaines ; l'importance des sciences humaines, notamment pour la réflexion, éthique doit être soulignée.

3 - Soutenir la prise de risque des chercheurs dans le déroulement de leur carrière : ce point spécifique n'a pas encore été mentionné. Nous avons déploré à plusieurs reprises qu'il n'y ait pas plus d'experts et d'activité en toxicologie. Ce phénomène s'explique simplement ; il n'est pas valorisant pour un chercheur. Ce dernier est essentiellement évalué sur ses publications. Les travaux portant sur la toxicologie sont très utiles et tout le monde les réclame, mais ils ne génèrent pas toujours des articles ayant un impact fort.

Le chercheur se retrouve alors souvent dans des positions difficiles lorsqu'il se retrouve face à ses pairs. Ces derniers sont en principe désignés en fonction de spécialités et il est toujours extrêmement compliqué de plaider vis-à-vis d'une autre discipline. Dans le cadre d'une approche pluridisciplinaire, des incompréhensions existent même s'il est très intéressant de travailler en intégration pluridisciplinaire sur les nanotechnologies. C'est passionnant, mais de nombreux chercheurs ne veulent pas prendre ce risque car nos institutions ne savent pas le gérer. Le problème ne se pose probablement pas de la même manière pour les ingénieurs puisque l'évaluation de leur travail s'effectue différemment. Si l'on veut que des chercheurs de haut niveau s'intéressent à ces problématiques, il faudra que ceci soit pris en compte.

L'exploitation raisonnée des nanotechnologies constitue un défi. Le risque entraîne la peur et les connaissances favorisent le progrès. Pour promouvoir la maîtrise des risques potentiels, il faudrait :

- Définir des moyens propres : en 2006, les États-Unis consacreront 40 millions de dollars aux problèmes d'éthique, portant d'ailleurs essentiellement sur la sûreté, pour 1 milliard de dollars tout compris. Mon collègue, le Professeur Jean-Claude Ameisen avait cité le chiffre de 10 milliards. Mes chiffres sont un peu différents de cela, peut-être me suis-je trompé ? De toute façon, la question demeure entière : est-ce suffisant de consacrer 4 % des budgets, voire 0,4 % d'après le Professeur Ameisen, à l'étude des risques ? Pourrons-nous convaincre nos concitoyens que nous veillons à préserver leur santé si on n'y consacre que 0,4 à 4 % des moyens financiers ? Je ne le pense pas et il faudra donc définir des domaines ciblés à savoir :

- Organiser une approche pluraliste internationale ou à l'échelle de l'Europe : nous avons une masse critique suffisante à ce niveau. Cette approche devra tenir compte des lobbies en essayant d'en tirer profit et de les considérer comme des éléments moteurs.

- Définir clairement la place des producteurs de nanotechnologies : ils doivent être partie prenante dans la maîtrise des risques potentiels, mais doivent-ils être moteurs ? Des projets menés par des producteurs de nanotechnologies seront-ils crédibles auprès du public, même s'ils produisent de bons résultats ? On peut se poser la question. Il faut donc trouver une place pour ces partenaires producteurs de nanotechnologies dans le cadre de la maîtrise des risques potentiels.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie Docteur Marche. Je donne la parole à M. Frédéric Schuster, Directeur du programme du CEA « matériaux à visibilité internationale » et coordinateur du projet NanoSafe2.

M. Frédéric SCHUSTER, Directeur du programme du CEA « matériaux à visibilité internationale » et coordinateur du projet NanoSafe2 : Je présenterai le projet intégré NanoSafe2 qui a commencé en avril 2005 et durera quatre ans. Après quelques mots sur l'origine du projet j'en donnerai une vue globale et expliquerai où il en est après un an de travail.

Historique du projet :

En 2002, nous avions lancé une petite action qui s'appelait « mesure d'accompagnement » dans le cadre du 5ème Programme cadre européen de recherche, de développement technologique et de démonstration (PCRD). C'était alors un tout petit projet qui comprenait uniquement des groupes de travail. Nous avions tenté de dresser un bilan de nos connaissances de la maîtrise des risques dans le domaine de l'utilisation des nanomatériaux. A l'époque, il n'y avait pas de grands industriels qui s'y intéressaient. Nous avions contacté BASF, Arkema ou encore Degussa, mais ils avaient répondu : « réalisez votre petit projet et nous verrons plus tard ».

Un basculement s'est opéré vers 2003. Lorsque nous avons présenté nos résultats dans le cadre d'une grande conférence intitulée Nano 2004 à Francfort, ces industriels nous ont contactés et nous ont fait savoir qu'ils souhaitaient collaborer avec nous si nous poursuivions sur cette thématique.

NanoSafe1 a permis d'établir un état des lieux. Cet état des lieux laissait apparaître un certain nombre « de trous dans la raquette du savoir » concernant la maîtrise des risques ; nous avons souhaité commencer à combler ces lacunes avec le projet NanoSafe2

Le projet NanoSafe2 est prévu sur 4 ans avec un budget de 12,5 M€ ; il est divisé en quatre sous projets.

- Le premier sous-projet traite du développement de technologies avancées de détection. Nous avons constaté au cours de l'audition l'existence d'une lacune dans le domaine de la métrologie. Nous travaillons sur ce sujet, notamment en développant des techniques de détection sélective. On sait compter les particules dans l'atmosphère de cette pièce, mais on ne sait pas bien déterminer la nature chimique des particules qui nous environnent, tant dans l'atmosphère que dans le liquide.

- Le deuxième sous-projet porte sur l'évaluation des risques dans différents domaines comme la toxicité, l'explosibilité ou l'inflammabilité des nanoparticules. En la matière, la Commission européenne ne voulait pas financer les projets orientés sur la toxicité d'une nanoparticule spécifique ; elle souhaitait faire porter ses efforts sur des aspects génériques. Nous nous inscrivons donc dans ce cadre, en développant notamment des systèmes de criblage et d'analyse rapide (rapid screening) de la toxicité de particules.

- Le troisième sous-projet concerne la sécurisation des procédés industriels. Nous observons notamment les discontinuités de ces procédés et la qualification des protections individuelles et des filtres à particules.

- Le quatrième sous-projet traite des aspects environnementaux et sociétaux, avec le recyclage, l'analyse du cycle de vie, la contribution à la standardisation, pour l'heure inexistante, la formation et la communication.

À l'époque, la Commission européenne a apprécié notre proposition d'approche intégrée. Nous avons en effet estimé que tout était lié. Quand on veut caractériser un risque, on doit être capable de caractériser une exposition, un danger, de savoir si des effets de dose se manifestent. Nous avons pour cela réuni des personnes provenant d'horizons totalement différents :

- de grands industriels fabriquant des nanoparticules comme BASF, Arkema, Procter et Gamble,

- des PME high-tech,

- un pôle de recherche « assez musclé » dans le domaine des risques ou des méthodes avancées de caractérisation,

- des spécialistes dans le domaine de la formation,

- des spécialistes dans le domaine de la standardisation, de la protection des travailleurs et de l'analyse du cycle de vie.

Les partenaires du projet NanoSafe2 :

La Belgique, la France, le Royaume-uni, la Slovénie et la Suisse sont concernés par le projet. La Finlande vient de le rejoindre avec la société Dekati, numéro 1 européen de la fabrication de compteurs de particules. Nous essayons aussi de donner une visibilité mondiale à ce projet. Des initiatives sont prises un peu partout dans le monde et nous essayons de faire le lien avec elles. L'université de Rice au Texas est notamment en train de monter une grande base de données sur la toxicité. Nous travaillons donc avec elle par l'intermédiaire des opérateurs globaux comme Procter et Gamble.

Nous collaborons avec le Canada et notamment l'université de Sherbrooke et NanoQuébec, nous avons commencé à collaborer avec la Chine car, à l'université technologique de Pékin, se trouve un laboratoire appelé NanoSafetyLab parfaitement équipé. Nous allons certainement poursuivre et amplifier ce type de collaboration.

Nous sommes en contact avec les Japonais : le Department of the New Energy and Industrial Technology Development Organization (NEDO) est ainsi en train de lancer un projet qui est la copie conforme de NanoSafe et qui démarrera dans les mois qui viennent

État d'avancement de NanoSafe2 :

Les technologies de détection de nanoparticules : nous avons commencé par tester tout ce qui existait sur le marché. C'est notamment le VTT (Centre National de la Recherche Technique) en Finlande qui était chargé de cette étape. Nous avons procédé à des comparaisons et parfois constaté des différences assez importantes entre les diverses technologies. Nous avons développé les bancs d'essai pour caractériser l'ensemble.

L'objectif fixé est de sortir d'ici 2008, avant la fin du projet, un système de détecteur qui coûtera 1000 €. Il s'agira de petits capteurs basés sur des technologies plasma. Comme l'a souligné le Docteur Éric Gaffet, si l'on souhaite équiper en capteurs un laboratoire ou une zone de production de nanoparticules, il faut actuellement investir plusieurs centaines de milliers d'euros ce qui est très coûteux.

Les technologies de détection de la nature chimique des particules. Il s'agit de technologies développées par l'Institut national de l'environnement industriel et des risques (INERIS) qu'on appelle le Laser Induced Breakdown Spectroscopy (LIBS). Elle est basée sur un flash laser dont on analyse le spectre lumineux par spectroscopie optique. On commence ainsi à obtenir des informations chimiques sur ces nanoparticules, même si on demeure à l'échelle du laboratoire. L'INERIS souhaite donc combiner les compteurs de particules à cette technologie LIBS pour obtenir une information complète sur un environnement de travail. On aura ainsi accès à la composition chimique des nanoparticules dans l'environnement, à leur concentration ou à leur distribution en taille. Il suffira ensuite de miniaturiser ces instruments pour les rendre portables. On y parviendra très rapidement en fait.

Pour la détection dans les liquides, un centre de recherche partenaire en Allemagne s'intéresse à la reconnaissance peptidique. L'idée consiste à sélectionner des molécules ayant des affinités pour certaines nanoparticules, puis de les greffer sur la surface de capteurs. On sait alors détecter telle ou telle nanoparticule dans les liquides. Les progrès sont sensibles dans ce domaine même si ce n'est pas aisé. Nous disposons de bibliothèques de plusieurs centaines de milliers de molécules. Si l'on souhaite sélectionner une molécule qui va reconnaître le Ti02, il faut chercher dans cette bibliothèque et être capable d'effectuer la sélection. D'ici la fin du projet, nous saurons donc détecter sélectivement des nanoparticules dans les liquides. Nous parviendrons à mesurer tous les problèmes de relargage de revêtements usés dans les liquides.

Quant aux questions de toxicologies déjà évoquées à diverses reprises, au niveau de NanoSafe2, nous nous focalisons notamment sur les bases de données, en collaboration avec d'autres projets qui sont américains ou allemands. Le Ministère fédéral de l'enseignement et de la recherche (BMBF) en Allemagne a lancé un projet dans le cadre du projet intitulé NanoCare et nous allons tenter de mutualiser nos informations sur le sujet.

Nous menons aussi un certain nombre d'études toxicologiques avec des partenaires comme l'INSERM, l'INERIS, l'université catholique de Louvain. Ces études portent sur des nanoparticules qui ont été sélectionnées : les nanotubes de carbone d'Arkema, fonctionnalisés ou non, les noirs de carbone, l'oxyde de titane et deux métaux : l'aluminium et l'argent. Je ne présenterai pas de résultat sur les tests de toxicité : la première phase, qui vient de s'achever, concernait en effet la définition des protocoles de mesure de cette toxicité. Cela a porté sur un certain nombre de nanoparticules énumérées sur le tableau figurant en annexe 1.

On ne peut pas effectuer de tests de toxicologie sans une caractérisation parfaite des nanoparticules que l'on mesure. Une telle caractérisation représente donc également un travail considérable dans le cadre de NanoSafe2 et porte sur la taille, la surface spécifique, la forme etc ... de ces nanoparticules. Ce qui permettra d'améliorer et d'alimenter tout un système de modèles de biodistribution.

S'agissant d'analyse rapide de toxicité, l'idée est de se fonder sur les microtechnologies pour réaliser des microcapteurs qui utiliseront la microfluidique. On pourra ainsi obtenir les premières informations sur l'aptitude ou non de nouvelles nanoparticules à traverser les parois cellulaires. Ce type de microsystème est développé par le Centre suisse d'électronique et de microtechnique (CSEM) à Neuchâtel.

NanoSafe2 s'intéresse à l'explosibilité. Il ne s'agit pas ici de nanoparticules, mais de farine. Ces expériences sont conduites à l'INERIS et nous avons monté des bancs d'essai pour tester l'explosibilité des nanotubes de carbone, du noir de carbone et de toutes les particules de référence sélectionnées dans le cadre du projet.

La sécurisation des systèmes de production industrielle comporte quant à elle deux aspects.

La protection : nous avons tout d'abord monté plusieurs bancs de test pour tout ce qui a trait à la protection et ceci est développé par la direction de la recherche technologique du CEA Grenoble. Ces bancs de test permettent de vérifier la qualité des filtres, mais aussi celle des protections individuelles, des vêtements ou des gants. La fabrication des bancs vient de se terminer et nous allons commencer à tester l'ensemble de ces protections individuelles.

Le développement de procédés sécurisés pour la sécurisation des systèmes : nous allons développer des systèmes de récupération directe de nanoparticules en phase liquide, proprement, sous forme de suspensions utilisables, sans aucun contact entre elles et l'homme. Nous développons cela au CEA Saclay, sur une technologie de synthèse de nanopoudre par pyrolyse laser, qui deviendra certainement un procédé industriel dans quelques années. Cela concernera notamment les exemples de fabrication de composites pour l'aéronautique, cités par mon collègue Jean-Frédéric Clerc.

Dans le cadre du quatrième sous-projet, nous nous intéressons également à la fin de vie et à l'ensemble du cycle de vie des nanomatériaux. Nous recherchons notamment des solutions complètes de recyclage sur un certain nombre d'exemples bien ciblés et peu compliqués. Nous accordons aussi une grande attention à ce qui concerne la standardisation. Nous sommes présents dans plusieurs groupements de standardisation comme l'Association française de normalisation (l'AFNOR), le Comité européen de normalisation (CEN) au niveau européen ou l'Organisation internationale de normalisation (l'ISO). Dans ce domaine, c'est Arkema qui est notre porte-parole, notamment par l'intermédiaire de M. Daniel Bernard, Président de la Commission « nanotechnologie » de l'AFNOR, et qui est aussi notre représentant au niveau de l'ISO.

En ce qui concerne la communication, nous donnons des cours dans le cadre d'universités françaises et à Oxford. Ces actions seront accentuées d'ici la fin du projet. Un site Internet est à la disposition de chacun : il traite de toutes les thématiques liées à NanoSafe2 et est géré par l'Association Ecrin dont l'objectif est de créer et faciliter en amont le rapprochement Recherche /Entreprise pour le développement et l'innovation. Au sein de cette association, quatre groupes miroir des sous-projets de NanoSafe ont été créés pour diffuser cette information en France.

Le 7ème PCRD reprendra toutes les thématiques de NanoSafe et notamment un deuxième projet intégré qui a démarré le mois dernier et qui s'appelle Saphir. C'est en quelque sorte la suite de NanoSafe. Ce projet est basé sur le safe nano manufacturing, avec un certain nombre de plates-formes de démonstration au niveau de l'Europe. Par ailleurs, dans la plate-forme de sécurité industrielle nous avons créé le NanoSafe Hub

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie de cette présentation. Je trouve que nous commençons à avoir une vision assez complète de tout le système nano, avec la recherche, les risques, l'éthique, les dispositifs mis en place pour le suivi et l'évaluation et prendre en compte les aspects normatifs. Ceci est très intéressant.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Les industriels, représentés par Mecachrome et Arkema, vont intervenir et je souhaite les remercier chaleureusement d'avoir accepté d'être présents à cette audition publique. Contactés, Michelin et L'Oréal ont décliné l'invitation au prétexte qu'ils n'utilisaient pas ou peu les nanotechnologies.

Saint-Gobain a adressé une brève contribution que je ne lirai pas dans sa totalité, sans quoi nous dépasserons nos temps de parole. En introduction, la société indique ne pas avoir d'activité proprement dite dans les nanotechnologies et elle conclut en estimant qu'il faudrait organiser un débat de société faisant intervenir citoyens, industriels, scientifiques et politiques, débat centré sur les problèmes spécifiques que le progrès technologique peut entraîner.

C'est bien ce type de débat auquel nous tentons de procéder aujourd'hui pour parvenir à un état des lieux des connaissances et de ce qui peut se faire. Le meilleur moyen d'enrichir le débat est encore d'y participer. Peut-être faudrait-il conseiller à Saint-Gobain de mettre en application ce qu'ils ont écrit. Je demanderai à M. Christian Collette, Directeur scientifique d'Arkema, de présenter son exposé.

M. Christian COLETTE, Directeur scientifique d'Arkema : Je vous remercie Monsieur le Président, nous avons été ravis d'accepter votre invitation. Nous sommes industriels et chimistes, ce qui ne nous empêche pas d'être transparents et honnêtes, et je pense que nous ne sommes pas les seuls dans ce cas.

J'essayerai de vous montrer ce que nous faisons dans le domaine des nanotechnologies et tenterai notamment de répondre à une question posée à plusieurs reprises ce matin : qu'est-ce qui amène un gros industriel, macroscopique dans les tonnages qu'il développe habituellement, à se lancer dans les nanomatériaux ?

Pour être très schématique, on peut dire qu'il existe trois grands domaines de recherche pour un industriel : les procédés, le développement durable, et les matériaux avancés ;

1 - Les procédés : dans ce domaine, on travaille beaucoup à l'intensification et la simulation. Il s'agit par exemple d'essayer d'obtenir dans le cadre de petits réacteurs des réactions qui consomment moins d'énergie et qui soient plus sûres. C'est un grand axe de développement

2 - Le développement durable, avec les énergies nouvelles, implique un gros effort dans le domaine des matières premières renouvelables. Nous cherchons à développer des produits d'aujourd'hui avec des molécules issues du secteur agricole plutôt que pétrolier.

3 - Comment en vient-on à travailler dans le domaine des matériaux nanostructurés, point qui nous intéresse ce jour ? Voilà maintenant trente ou quarante ans qu'aucun nouveau polymère n'a été inventé. Depuis vingt ans, on a produit des alliages : très schématiquement, cela consiste à mélanger un bon polymère cher avec un mauvais polymère pas cher pour essayer d'obtenir un bon polymère pas cher. C'est très limité et comme ce n'est pas en équilibre thermodynamique, ce n'est donc pas facile à obtenir. Par ailleurs, tout ce à quoi on peut procéder est une interpolation. Vous obtenez toujours des propriétés moyennes entre les deux en fonction du mélange.

Nous avons évoqué les nanotechnologies, les nanoparticules, les nanomatériaux et je traite à présent de matériaux nanostructurés. Lorsqu'on évoque les matériaux nanostructurés, ce n'est pas seulement de la sémantique, j'insiste sur ce point. Ce dernier terme désigne les objets macroscopiques de tous les jours comme une fenêtre de plexiglas ou un pare-chocs de voiture. Ils sont organisés en leur sein même à l'échelle du nanomètre.

Pourquoi utilise-t-on les nanotechnologies ?

Lorsqu'on travaille sur l'organisation nanométrique de la matrice, les propriétés ne sont pas interpolées entre les deux matériaux que l'on mélange, mais on parvient à obtenir mieux que le meilleur des deux. Ceci est très important et permet selon moi d'expliquer pourquoi l'on se lance dans cette activité.

Voici deux manières de nanostructurer un matériau :

Vous avez un copolymère nanostructuré à l'échelle de 500 nanomètres.

Vous voyez des nanotubes de carbone. Je n'ai pris qu'une seule photo et dans le cas présent, cela ressemble un peu à un plat de spaghetti. Avec un agrandissement moins important, on verrait que ces nanotubes ont l'apparence de grosses pelotes de laine extrêmement enchevêtrées qui font 400 ou 500 microns. Naturellement, on peut toujours désenchevêtrer des particules et c'est par exemple ce qu'on recherche lorsqu'on fait le mélange dans un plastique fondu. Cependant, il ne s'agit pas du tout d'un produit volatil. Voilà ce que l'on savait faire, il y a une quinzaine d'années.

Si j'ajoute deux monomères et que je décide de les combiner, ils s'associent suivant des lois thermodynamiques de réactivité qu'on ne maîtrisait pas jusqu'à présent. On avait donc en gros un copolymère, puisqu'il y a deux monomères statistiques, avec une morphologie et des propriétés statistiques.

À présent, nous savons contrôler la manière dont ces monomères vont s'agencer les uns avec les autres. On peut fabriquer deux brins qui ont globalement la même composition. Cependant, dans l'illustration du haut, c'est statistique ; alors que dans celle du bas, je suis capable de forcer deux brins à s'associer. J'essaye de les choisir de façon à ce qu'ils ne s'aiment pas. Ces brins font alors tout pour s'organiser de manière à minimiser leur énergie et à rencontrer ceux qu'ils apprécient.

Ainsi, sur l'illustration suivante, vous avez trois brins B, S et M. En fonction de la composition en B, en M ou en S et de la longueur de chacun des brins, on peut obtenir la morphologie du produit désiré. Vous avez donc des « colonnes de Buren », des « artichauts », des « brocolis », des « lamelles » etc. Nous savons faire cela , lorsque l'on mélange ces produits, on obtient une organisation thermodynamique et une structure voulue: une organisation en cylindres, une autre en lamelles et l'on peut visualiser le résultat au microscope électronique.

Prenons l'exemple d'un toit ouvrant de voiture en verre, nous voulons le fabriquer en plastique et pour cela, nous souhaitons utiliser un polymère qui s'appelle le plexiglas ou PMMA, très rigide et malheureusement peu résistant aux chocs. De façon classique, pour éviter qu'un matériau ne se casse lorsqu'on tape dessus, on y introduit des particules de caoutchouc car celui-ci est capable d'absorber l'énergie. C'est ainsi qu'on règle ce problème. Naturellement, si une plaque est valable parce qu'elle est parfaitement transparente et qu'on y introduit des particules de caoutchouc, on perd beaucoup de l'intérêt de l'application.

Depuis un certain temps, nous savons ajuster la composition du caoutchouc pour que son indice de réfraction soit équivalent à celui de la matrice. Dans ce cas, la lumière ne voit pas le caoutchouc et le produit demeure transparent. Il ne s'agit pas encore de nanomatériaux structurés. On peut toutefois adapter cet indice de réfraction à une température donnée et il évolue alors avec la température. Un toit ouvrant peut donc être transparent à 20° et devenir complètement opaque à 35°. Cependant cela peut s'avérer plus gênant si c'est une optique de phare qu'on veut fabriquer. En revanche, si on réussit à faire des copolymères architecturés comme ceux que j'ai montrés, en mettant de petits nodules de caoutchouc dans le matériau, on ne joue pas sur l'indice de réfraction, mais simplement sur la taille du nodule. Ce dernier est tellement petit que la lumière ne le perçoit plus et le matériau reste transparent quelle que soit la température.

Quant aux nanotubes de carbone, pourquoi intéressent-ils autant les chercheurs, les industriels, le marché etc. ? C'est parce qu'ils disposent de propriétés très importantes. C'est un produit organique, conducteur électrique et thermique, possédant également des propriétés mécaniques fabuleuses. Je ne connais pas d'autre matériau de ce type aussi y trouve-t-on tout un potentiel de développement industriel.

Jusqu'à présent, on n'a jamais su faire aussi bien qu'une toile d'araignée en matière de ténacité : lorsque vous lancez un objet dans une toile d'araignée, celle-ci ne rompt pas et garde l'objet prisonnier. Les frelons ou les guêpes en font souvent l'expérience. C'est ce qu'on appelle la ténacité ou, en d'autres termes, la capacité à absorber de l'énergie sans se déchirer.

Si vous tissez des fibres de nanotubes de carbone, comme pour un tissu, la ténacité obtenue est cinq à six fois supérieure (toile d'araignée: ténacité de 150 J/g fibres de nanotubes de carbonne : ténacité: 750 J/g 1 toile de 1kg arrêterait 1200 kg lancés à 100 km/h). Ce résultat n'avait jamais été atteint précédemment et une toile d'un kilogramme peut alors arrêter des objets très lourds lancés avec beaucoup de vitesse. On voit tout le potentiel qui se dessine. Certes, tout n'est pas parfait et nous travaillons sur le sujet en collaboration avec le CNRS.

Tout un potentiel se dessine alors que ces produits semblaient relever de la science-fiction et l'on voit tous les domaines d'application qui peuvent être concernés.

- L'automobile : le maître-mot est l'allègement, or une plaque de plastique transparent peut remplacer le verre : en soi, cela ne présente pas un grand intérêt, mis à part que cela allègera considérablement la voiture, avec des gains en énergie importants, une diminution des rejets de CO2 etc.

- L'environnement : lorsque les polymères sont organisés en membrane, si on réussit à dissoudre le petit cœur qui s'est formé, on obtient une structure membranaire parfaitement organisée avec des trous très calibrés. On peut obtenir des seuils de coupure remarquables avec une très grande résistance chimique. Nous travaillons aussi sur le traitement de l'eau.

- L'énergie : amélioration de l'autonomie et de la mobilité grâce au stockage, aux excellentes capacités des voitures hybrides etc.

- Les composites : résoudre les problèmes de fatigue, dans l'automobile, l'aviation ou ailleurs. Nous savons éviter la fissuration des objets en y mettant des nanotubes de carbone et les alléger.

La câblerie : on améliore la conductivité, les propriétés mécaniques, et l'allègement.

Les matériaux nanostructurés sont un enjeu majeur. Les chiffres de plusieurs intervenants sont un peu divergents, mais on estime le marché mondial à environ 1000 milliards de dollars ou d'euros. Les matériaux nanostructurés représentent un quart de ce marché. Où en sommes-nous au niveau industriel ?

Comme l'expliquait un intervenant ce matin, Arkema dispose bien d'un outil de production de 10 tonnes par an. Nous fabriquons aujourd'hui environ une centaine de kilos par an mais nous ne vendons rien. Nous fournissons des échantillons à des gens qui testent le produit. Je peux vous assurer que nous prenons le plus grand soin à maîtriser le procédé.

Quelle maîtrise du risque éventuel? Pour la mise au point du procédé, il y a une sécurisation maximum intégrée par utilisation du pilote. On définit, puis on met en œuvre, de bonnes pratiques de laboratoire concernant le stockage, la manipulation et le transport. Nous avons vu des photos de personnes qui effectuaient des manipulations en scaphandre et c'est bien ainsi que cela se passe chez nous. Les échantillons sont transportés dans de petits fûts métalliques avec un clapet anti-retour et les personnes qui fabriquent ce produit ne voient jamais les nanotubes. Ces derniers dégorgent par le haut : il s'agit d'un fluide qui bout et qui tombe directement dans un fût avec le clapet anti-retour que je mentionnais. Lorsqu'on enlève le fût, le clapet se ferme.

Pourquoi avoir prévu un outil permettant de produire dix tonnes par an ? Si on souhaite que les tests toxicologiques soient représentatifs de ce que le produit pourra être dans le futur, à savoir un objet industriel, il faut bien les fabriquer à une échelle représentant ce futur outil. Produire deux grammes dans un laboratoire et faire tester pendant des années un produit qui ne serait pas représentatif de ce qui se ferait plus tard n'aurait pas de sens. C'est pour cette raison que nous avons choisi de nous doter d'un outil avec une taille semi industrielle.

Même si nous ne vendons pas ces produits aujourd'hui, nous avons naturellement l'espoir de le faire le jour où on nous montrera que ces produits sont sans danger. Nous prenons en tout cas le maximum de précautions pour les échantillonner. Ce n'est pas simplement une façon de parler, notre outil est ouvert, des journalistes et d'autres personnes l'ont visité. Il continue d'être accessible pour ceux qui voudraient s'y rendre.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie beaucoup M. Collette. J'invite maintenant M. Olivier Martin, Directeur de la recherche et du développement de Mécachrome à nous faire sa présentation

M. Olivier MARTIN, Directeur de la recherche et du développement de Mécachrome : C'est intéressant d'intervenir après Arkema. J'essayerai de vous montrer la philosophie et la stratégie d'une société familiale, dans un métier traditionnel qui est l'usinage de précision. Je vous expliquerai comment nous utilisons aujourd'hui les nanomatériaux et comment nous les intégrons dans notre cœur de métier.

Mécachrome est un groupe familial français de 2100 personnes, avec un chiffre d'affaires de 240 M€. Son cœur de métier est l'usinage. Les métiers de la métallurgie représentent 400 000 emplois directs en France et 1 800 000 emplois indirects. Nous sommes spécialisés dans les domaines de l'aéronautique, de l'automobile (sport et série) et des biens d'équipements. Il ne s'agit donc pas d'un secteur mineur au sein de l'industrie française.

Au départ, Mécachrome, ne s'est pas spécialement intéressée aux nanomatériaux, mais plutôt aux problématiques liées à son cœur de métier, l'usinage de précision. On a dû développer des solutions, en partenariat avec le CEA, pour être compétitif face aux pays à bas coûts, avec des outils plus résistants permettant d'usiner plus vite et de gagner en compétitivité. Mécachrome, a donc développé une nouvelle métallurgie suivant deux axes stratégiques : l'ingénierie des surfaces nanostructurées pour les revêtements et l'ingénierie des poudres. L'objectif était de construire des matériaux répondant mieux au cahier des charges de nos clients.

En tant que PME, nous faisons beaucoup d'innovation, aussi ai-je différencié clairement deux types d'innovations : les innovations incrémentales - nous améliorons nos procédés pour rendre les produits existants plus performants - et les innovations en rupture.

Pour les innovations en rupture, qui nous permettent vraiment d'obtenir un avantage concurrentiel et de prendre au moins un an d'avance par rapport à nos concurrents, nous sommes obligés de nous appuyer sur des acteurs de la recherche amont et de la recherche appliquée, ainsi que sur des plates-formes technologiques.

Exemples d'innovations incrémentales :

Les revêtements nanostructurés que nous avons conçus avec le CEA au LITEN à Grenoble et que nous mettons sur nos outils coupants, a constitué la première application des nanotechnologies par Mecachrome. Chaque petite strate constitue une strate de revêtement. Cela permet d'obtenir des propriétés de surface bien supérieures à celles des revêtements multicouches, ou des revêtements monocouches avec un seul élément. Une structure nanostructurée avec le même type de nature de revêtement permet d'abaisser sensiblement le coefficient de frottement. Ce n'est pas seulement un effet de structure qui donne une dureté ou des propriétés mécaniques supérieures.

Dans la conception des matériaux, les matériaux nanostructurés ne désignent pas nécessairement des objets nanométriques, mais impliquent surtout de l'organisation à l'échelle nanométrique. Cela permet de concevoir un matériau et de bien ordonner les différentes phases et les différents composants souhaités pour atteindre une fonction ou une propriété recherchée.

Dans le cas de la métallurgie des poudres, les poudres de départ sont constituées d'acier, dont la taille atteint une cinquantaine de microns et qui comportent des renforts de 5 microns. On ne se situe donc pas du tout à l'échelle nanométrique. On fait alors du mecanical allowing qui est un broyage assez énergétique. On obtient alors des particules de poudres qui font toujours plusieurs dizaines de microns. Lorsqu'on regarde chacune de ces particules, on constate que le résultat est un nanomatériau avec des phases encore microniques et de nombreuses phases nanométriques.

Dans le domaine de l'innovation en rupture, on retrouve le même type de principe. On part toujours de procédés existants, utilisés pour créer des nanomatériaux. On fera la synthèse in situ de nanorenforts. On part à nouveau de poudre de quelques dizaines de microns, avec de l'Al3Ti et du carbone qui a la même taille moyenne. On procède à un broyage très énergétique qui permet de synthétiser du carbure de titane dans la matrice d'aluminium avec des tailles qui restent de l'ordre d'une dizaine de microns. Ce ne sont toujours pas des objets nanométriques. En revanche, lorsque l'on observe la structure de chaque poudre, on s'aperçoit que les renforts à l'intérieur sont bien à l'échelle nanométrique. Par définition, les objets nanométriques aujourd'hui sont inférieurs à une centaine de nanomètres.

La dernière innovation en rupture constitue encore une autre étape. On sait aujourd'hui produire des particules nanométriques dans un procédé classique. En revanche, la récupération et le conditionnement induisent les problèmes d'hygiène et de sécurité déjà évoqués. Tel est le cas de leur intégration pour atteindre un produit. Alors qu'avec une philosophie, comme celle du CEA, on intègre différents procédés. Avec de la pyrolyse laser, du plasma et un récupérateur réacteur chimique, on parvient alors à obtenir des objets nanométriques, mais nanostructurés. On supprime ainsi le risque de voir des objets nanométriques se répandre dans l'atmosphère ou être en contact avec un opérateur.

En tant que PME, nous ne pouvons pas nous permettre d'intégrer tous ces domaines de compétence au niveau de la recherche et du développement. Nous nous appuyons sur différentes plates-formes technologiques et en avons créé une à Vibraye, le Centre de Technologies Avancées de Vibraye pour la métallurgie des poudres et surfaces nanostructurées, afin de faire de l'innovation incrémentale, juste à côté de l'un de nos sites de production.

Une deuxième plate-forme sera située à Orléans et ses travaux porteront plutôt sur les innovations de rupture pour des matériaux, mais aussi pour la métrologie et la maîtrise des risques, en relation avec des programmes européens comme NanoSafe. De nombreuses PME vivent grâce à l'innovation, mais elles ne peuvent pas totalement intégrer la recherche et le développement : il faut donc disposer de relais au niveau de la recherche amont, de la recherche appliquée et de la gestion des risques, avec des organismes compétents dans ce domaine.

Nous produisons des matériaux nanostructurés, mais nous ne manipulons pas d'objets nanométriques. Il faut fortement souligner cette différence dans les réunions ou les communications organisées. La problématique majeure porte plutôt sur les nanoobjets et pas réellement sur les nanotechnologies.

Par ailleurs, nous sommes relativement en retard par rapport à nos concurrents, au moins sur le plan industriel. Cependant, les solutions liées aux nanomatériaux existent déjà, on en trouve dans les produits de consommation courante ou dans les médicaments. C'est vraiment un enjeu majeur et ceux qui s'en sortiront au niveau industriel seront les vainqueurs.

En France, nous sommes reconnus pour la recherche en amont menée sur ce type de sujet, mais pour les applications, il existe un vrai fossé entre la recherche et l'industrie. C'est pourquoi la France apparaît en régression dans les différents rapports. Les pays qui parviendront à industrialiser et exploiter ces technologies sont ceux qui s'en sortiront.

Au niveau de Mecachrome, je ne vous ai pas cité les exemples concernant les outils coupants et le développement de matériaux uniquement pour faire du marketing ou de la communication. Il s'agit d'un outil de compétitivité. Aujourd'hui, dans des métiers traditionnels de la mécanique, cela constitue un des moyens de notre survie même si ce n'est pas le seul. Le terme « nanotechnologies » ne signifie pas obligatoirement objets nanométriques ou par exemple nanostructurés. Les nanomatériaux sont un des moyens de garder notre compétitivité.

Débat

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie. Je salue l'arrivée de M. François GOULARD, Ministre délégué à la l'Enseignement supérieur et à la Recherche. Avant de lui donner la parole, mon collègue Daniel Raoul souhaitait exprimer une ou deux interrogations.

M. Daniel RAOUL, Sénateur du Maine-et-Loire : Je souhaite m'adresser à la fois au Professeur Berger et au Docteur Marche. Vous évoquez les stimulations à haute fréquence? C'est bien ce qui me pose des problèmes d'ordre éthique : quelle est la frontière entre l'homme réparé et l'homme manipulé ou augmenté ? Jusqu'où peut-on aller et n'y a-t-il pas un risque de dérive ?

Vous avez mentionné les « laboratoires sur puce » (lab-on-chip) où sont stockées ces données ? Quelle utilisation peut en être faite ? L'usage peut être plus ou moins pervers. Ces données peuvent certes constituer un avantage pour la police scientifique : avec un lab-on-chip utilisant la nanofluidique, on peut détecter un ADN et savoir qui a pénétré dans un appartement en l'espace de dix minutes. Je l'ai vu à Boston, cela existe.

Par ailleurs, vous mentionniez les inconvénients que nous avions connus avec l'amiante, les OGM et les cellules-souches, et notamment le retard que nous avons pris dans ces trois domaines, en particulier dans le dernier. Vous mettiez alors le génie génétique du côté positif. Or, je vous signale que, concernant le génie génétique, la situation s'est totalement débloquée grâce à des opérations comme le Téléthon, qui ont sensibilisé le grand public à la thérapie génique. Si l'on parvenait à montrer quelles sont les applications des nanotechnologies dans la vie pratique, y compris dans la thérapie, je suis persuadé que l'on n'assisterait pas au développement de cette utilisation par des micro-officines qui constituent ainsi leur fond de commerce contre les progrès scientifiques. Ceci peut s'appliquer à d'autres domaines, les PGM notamment. Je tiens à le souligner car cela existe.

Il y a un réel problème : les budgets portant sur les risques ne devraient pas représenter 0,4 ou 4 % des budgets totaux, selon les chiffres que vous avez utilisés. Il faut investir bien plus sur l'étude des risques, et en parallèle sur des études fondamentales.

Docteur Patrice MARCHE, Directeur de la recherche, contrôle de la réponse immunitaire spécifique de l'INSERM : Les données informatiques générées dans le cadre des analyses utilisant des microsystèmes n'échappent pas à la réglementation générale des données sur l'individu. Elles entrent dans le même registre. Elles doivent ainsi être stockées en préservant l'anonymat des patients et ne peuvent pas être utilisées à d'autres fins que des recherches prévues à l'avance et agréées par le comité adéquat. Il n'y a donc pas de spécificité de ces informations, hormis que la taille des fichiers est beaucoup plus importante. C'est un problème technique plus que réglementaire. Nous nous inscrivons complètement dans la réglementation existante qui, à nos yeux, donne satisfaction sur le terrain.

Sur le génie génétique et surtout sur la thérapie génique, la relance est effectivement venue des médias. C'était d'ailleurs un peu le sens de ma question : pourquoi tel secteur qui pose des problèmes éthiques, comme tel autre, est-il bien accepté par le public, alors que d'autres secteurs sont l'objet d'une guerre partisane ? La communication et le dialogue consentis avec toutes les parties prenantes, y compris le public, sont très importants.

C'est peut-être dû au défaut du scientifique qui raisonne souvent de façon cartésienne, alors que les craintes exprimées dans les débats publics ne sont pas fondées sur des valeurs rationnelles. Il faut donc trouver des scientifiques capables d'accepter et d'entendre des discours d'ordre irrationnel et émotionnel, et de débattre à ce niveau, sans ramener toute décision ou toute inflexion sur le rationnel. La majeure partie de nos décisions, même celles des scientifiques, sont basées sur de émotionnel, et pas sur du rationnel. Je passe la parole à mon collègue pour qu'il réponde à la première question.

Professeur François BERGER, Unité de neurosciences pré cliniques de l'INSERM : S'agissant du problème de l'homme réparé ou augmenté, aujourd'hui, nous avons essentiellement une macro médecine de réparation. Toutes les indications de la neurostimulation, y compris les indications psychiatriques sur lesquelles nous sommes très prudents, portent sur des pathologies gravissimes.

C'est vrai qu'un des buts de la nanomédecine est de ne pas avoir à réparer. Quand on répare un individu malade, bien souvent on ne le guérit pas. C'est d'ailleurs l'un des graves problèmes de la médecine. À travers la nanomédecine, on dressera une nouvelle frontière entre le normal et le pathologique. Il faudra être extrêmement prudents. Il s'agit de décisions de société.

Le vieillissement constitue un bon exemple et il est difficile d'être contre en la matière : à partir de quand considère-t-on que le vieillissement est pathologique ? On peut imaginer des nanoparticules injectées dans les os qui permettraient de régler le problème de l'ostéoporose, qui est très important. Je vous ai montré qu'on pouvait régler le problème de l'obésité, au moins chez le singe, en stimulant l'hypothalamus. Doit-on faire cela ?

Il est vrai que, pour traiter l'obésité, on a utilisé l'isoméride qui a entraîné un pourcentage énorme de fibroses pulmonaires et cela a tué plusieurs centaines de personnes à travers le monde. Il faut débattre et surveiller. Avoir des outils implantés qui traiteront la maladie avant qu'elle n'apparaisse peut aussi être un avantage, même si cela a un côté impressionnant. Il faut vraiment mettre en œuvre un encadrement majeur de toutes ces pratiques car elles recèlent un pouvoir qui peut s'avérer dangereux.

Clôture de l'audition publique

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie. Nous allons maintenant donner la parole à M. François Goulard, Ministre de l'Enseignement supérieur et de la Recherche. Au nom de l'Office parlementaire d'évaluation des choix scientifiques et technologiques et de tous les participants, je voudrais le remercier d'avoir bien voulu accepter de venir conclure notre audition publique.

Monsieur le Ministre, les débats sur les nanotechnologies se multiplient un peu partout et il m'avait semblé qu'ils avaient aussi leur place au Parlement. Lorsque j'ai proposé à mes collègues de l'OPECST d'organiser cette audition publique, ils ont immédiatement adhéré à cette idée. Je souhaite de nouveau remercier les Sénateurs Claude SAUNIER et Daniel Raoul, mes collègues qui ont participé à l'organisation de cette audition publique, et qui avaient d'ailleurs travaillé pour l'Office parlementaire sur des rapports ayant trait aux nanotechnologies.

Nous avons pu appréhender un peu mieux ces nanotechnologies, à quoi elles pouvaient servir, quels étaient les risques potentiels, quelles sont les réflexions en cours, quelles sont les façons de s'en prémunir, quelles sont les réflexions éthiques. J'estime que nous disposerons ainsi d'une bonne base pour informer le Parlement, car ce dernier doit lui aussi pouvoir débattre de ces questions. Nous pourrons peut-être, à partir du milieu de l'année prochaine, lancer une étude beaucoup plus approfondie pour assurer un suivi de ces évolutions et de ces interfaces entre le monde scientifique, la société et le monde politique. Je vous remercie, Monsieur le Ministre d'être venu, je vous donne la parole.

M. François GOULARD, Ministre délégué à l'Enseignement supérieur et à la Recherche : Je vous remercie. Je regrette de ne pas avoir assisté à l'intégralité de vos discussions car le programme était très alléchant et le peu que j'en ai entendu était absolument passionnant.

Il est aujourd'hui nécessaire d'avoir des discussions très ouvertes à propos des nanotechnologies. Comme l'a expliqué M. Claude BIRRAUX, le Parlement est, à ce titre, totalement dans son rôle en y contribuant d'une manière approfondie, sérieuse et dépassionnée. Dans nos sociétés, la conception de la science et des avancées technologiques a beaucoup évolué depuis un certain nombre d'années. C'est une banalité de le souligner, mais je considère qu'il s'agit du fond de la discussion.

Auparavant, la science était considérée comme la principale source de progrès et tous ses apports étaient perçus comme positifs, sans autre forme de procès. Aujourd'hui, l'opinion a changé d'attitude vis-à-vis de la science et certains ont un réflexe de peur et de rejet assez évident face à une partie de ce que la science produit. Je ne suis pas loin de penser que ce rejet est entretenu et accentué par certains. Mais l'important, c'est que cette réaction existe chez nos contemporains et le phénomène n'est naturellement pas franco-français. Il faut en parler très clairement à nos concitoyens. L'attitude de l'opinion engendre, en effet, des conséquences très graves et très lourdes. Par ailleurs, il y a des explication à fournir sur ce qui s'est passé ces dernières années et qui résulte parfois d'une absence de discussion, de clarté et de transparence.

Récemment, des applications de la science, des technologies ou des productions humaines ont dans certains cas entraîné des conséquences très négatives. Je ne reviendrai pas sur les exemples que chacun a en tête et qui sont certainement à l'origine d'une évolution profonde des esprits. Nous avons aussi l'exemple de nouvelles technologies, bloquées dans leur développement par le rejet d'une assez large partie de l'opinion.

On évoquait les OGM, il est clair qu'en France et dans d'autres pays, des technologies qui ont des avantages et des inconvénients -il faudrait organiser un débat complet pour les évoquer - ne sont aujourd'hui pas mises à profit comme elles pourraient l'être car l'opinion est assez majoritairement fermée à leur mise en œuvre. En tout cas, des craintes sérieuses s'expriment ou sont ressenties par l'opinion.

Il faut selon moi à tout prix expliquer que les solutions ne se trouvent pas dans le rejet de la science. Ne pas vouloir savoir constitue la pire des attitudes. Si on veut au contraire mesurer les conséquences heureuses et dangereuses de toute évolution, de tout progrès scientifique, de toute nouvelle technologie ou de toute novation dans nos pratiques humaines, c'est bien la science et elle seule qui peut le faire. Toute autre approche doit évidemment être rejetée car elle ne serait pas rationnelle et ne dirait pas la vérité. Seule la vérité scientifique, mais dans tous ses aspects, est susceptible de nous éclairer quant aux conséquences d'une nouvelle application de la science.

Lorsqu'on défend par exemple l'environnement, cette vérité doit ressortir de manière éclatante : on cherche alors à savoir quelles sont toutes les conséquences de la mise en œuvre de telle ou telle nouvelle technologie sur le milieu, la planète, la biodiversité etc... Or, qui peut donner des indications fiables dans la recherche de la vérité sur les conséquences de telle ou telle innovation, sinon les femmes et hommes de science qui étudient ces sujets ? Nous avons donc un besoin impérieux d'éclairage scientifique complet, rien ne doit rester dans l'ombre. Le principe de précaution que nous avons adopté et qui est maintenant inscrit dans la constitution se traduit en définitive par la nécessité de savoir ce qui va se produire le plus en amont possible. Or, seule une approche scientifique peut permettre d'aller aussi loin que possible en ce sens sur les conséquences de telle ou telle innovation.

Ceux qui refusent la nouveauté au prétexte qu'elle présente des risques ont une attitude non scientifique et donc selon moi intellectuellement critiquable. Par ailleurs, ils ne respectent pas le sens profond du principe de précaution qui consiste à tenter d'éclairer le plus possible, les effets positifs ou négatifs de tout changement dans les pratiques humaines. Je considère qu'il s'agit d'un débat essentiel aujourd'hui et d'une question de philosophie. Ou bien on croit que sur les gains à espérer de telle ou telle nouveauté scientifique ou technologique, l'esprit humain est capable d'approcher les réalités de plus en plus près, de la manière la plus précise possible, à tous points de vue : la santé, l'environnement, ou bien on n'y croit pas et cela implique un changement complet de vision, de conception philosophique du monde qui constituerait pour moi un recul extraordinaire et monstrueux de la civilisation. Cela implique un devoir : celui d'agir en toute transparence et d'essayer de donner le plus possible la parole aux scientifiques et à d'autres, à chaque fois que des questions se posent.

S'agissant des nanotechnologies, un vocable unique recouvre des innovations de natures quelquefois très différentes qui couvrent un champ extrêmement large. Il existe de nouveaux matériaux, structurés différemment, avec des techniques de production nouvelles. Leurs caractéristiques diffèrent aussi de celles des matériaux précédents, du fait de cette structuration infiniment plus précise, permise par les développements de la technologie.

Il y a évidemment des conséquences. Ces matériaux ne se comportent pas comme ceux que l'on fabriquait auparavant et c'est d'ailleurs tout leur intérêt. Il convient de s'interroger sur les conséquences induites par un matériau nouveau dans sa structure et non pas dans sa composition chimique. Nous avons là un sujet de type industriel assez classique. Une nouveauté est produite, on l'observe. Cela se fabrique différemment, peut entraîner des conséquences pour la santé humaine, pour ceux qui participent au cycle de production, ou qui utilisent le produit, ceux qui respirent autour des endroits où il est fabriqué. On analyse les conséquences sur l'environnement et la santé. Il s'agit bien d'une approche conceptuelle très classique d'une innovation technologique.

Ce que j'expliquais, il y a quelques instants, vaut pleinement : il faut essayer d'aller aussi loin que possible dans la compréhension des phénomènes nouveaux qui peuvent affecter la santé ou l'environnement au sens large, qu'il soit humain ou non. Il est normal de prendre toutes les précautions. C'est l'application du principe de précaution. On regarde ce qui se produit, on fait appel aux disciplines scientifiques concernées pour essayer de mesurer les impacts potentiels, avec les imperfections de la science et avec le maximum de connaissances dont on peut disposer aujourd'hui. Si on trouve que les risques sont majeurs et que des zones d'ombre considérables demeurent, le bon sens nous conduit à ne pas aller plus loin dans cette voie.

Si l'on s'aperçoit qu'avec les précautions industrielles habituelles, on sait se prémunir, on peut aller plus avant. Nous sommes habitués aux précautions technologiques industrielles car nous manions des substances dangereuses ou travaillons sur des technologies qui présentent des risques, depuis un certain temps. Dans ce cas, nous savons intervenir et prendre des précautions qui garantissent une réduction conséquente des dangers éventuels.

Quand il s'agit de la nanoélectronique, par exemple pour des puces beaucoup plus petites qui peuvent avoir des conséquences sur l'environnement, le sujet est probablement plus vaste. Au-delà des précautions classiques que je viens d'évoquer, nous devons aussi aborder les sujets éthiques. Ceci est lié à la multiplication fabuleuse des possibilités d'observer, de recueillir de l'information, de la traiter et de tout ce que cela peut induire pour les comportements humains utilisant ces nouvelles technologies. Ce n'est certes pas totalement neuf : on connaît l'informatique, la microinformatique, la microélectronique.

Nous sommes dans la continuité de technologies existantes et de possibilités existantes liées aux actions humaines. On rappelle toujours, par une expression assez lapidaire, mais malheureusement exacte, que la gestapo n'a pas eu besoin d'ordinateur pour avoir des fichiers dont l'efficacité était hélas assez redoutable. S'agissant des nanotechnologies appliquées à l'électronique et aux technologies de l'information et de la communication, il est clair que nous devons poser les questions éthiques de protection des libertés individuelles, de traitement de l'information, des nouveaux pouvoirs donnés à telle ou telle autorité avec des moteurs plus puissants et des possibilités auxquelles nous n'avions jusqu'alors pas accès. Cela suppose une réflexion et cela implique que ceux qui mettent en œuvre les technologies tentent de bien expliquer toutes les nouvelles possibilités, jusqu'où on peut aller, qu'est-ce que cela peut recouvrir.

Des juristes et des philosophes doivent nous aider à cerner les règles de conduite, les éventuelles législations à faire évoluer pour faire en sorte qu'il n'y ait pas dans les actions des hommes et des pouvoirs, des déviations qui constituent des tentations et dont les effets sont décuplés à cause des progrès de la technologie. Le sujet est donc classique, mais les problèmes sont nouveaux en raison de l'ampleur des capacités offertes aux hommes et à leurs mésactions.

En nanobiotechnologie, on se situe également plus près de sujets classiques, mais l'on peut toucher à l'éthique. Chaque fois que l'on intervient sur le corps humain avec des technologies comme des molécules ou avec d'autres moyens, on sait qu'en soignant on peut aussi rendre malade. Ce n'est pas nouveau et c'est un sujet connu depuis que la médecine existe. Nous disposons de procédures et de règles. Elles doivent peut-être être adaptées car les sujets sont de plus en plus complexes.

Mais je ne pense pas qu'il y ait de véritable rupture quant à la question posée par l'application du principe de précaution. Je ne suis peut-être pas au fait de tous les sujets, mais il ne me semble pas qu'existent des problèmes éthiques franchement nouveaux en la matière. En médecine, nous sommes toujours confrontés aux sujets éthiques liés aux interventions sur le corps humain. Quand celles-ci sont plus complexes, plus fines et que leurs possibilités sont décuplées, il est possible qu'apparaissent de nouveaux problèmes éthiques à traiter.

Nous ne sommes pas au bout de cette discussion, loin s'en faut. On dit aujourd'hui qu'il faut débattre avec le public et l'ensemble des citoyens et c'est naturellement nécessaire. Mais quel sens a un débat s'il n'est pas éclairé ? Lancer un débat sans qu'au préalable tout soit sur la table constitue une négation du respect dû à l'intelligence humaine. Or, en la matière, tout n'est pas sur la table pour le grand public pour une raison très simple : il s'agit d'un domaine très nouveau, assez compliqué, extrêmement varié. Les exemples que j'ai cités montrent ainsi la variété des domaines technologiques, des applications et des types de risques qui peuvent apparaître.

Il faut absolument que les scientifiques et ceux qui mettent en œuvre les technologies fassent un effort considérable d'explication et d'information sur leurs pratiques, sur ce qu'ils font aujourd'hui et ce qu'ils feront demain. C'est nécessaire pour que nous posions bien les problèmes qui ne peuvent être tranchés que par l'ensemble de nos concitoyens et en pratique, bien souvent, par leurs représentants, c'est-à-dire par les parlementaires. Tel est le cas dans des démocraties représentatives comme la nôtre. C'est la méthode que nous devons suivre.

Ne répétons pas les erreurs du passé, avec un certain nombre de conséquences négatives. Ainsi, par défaut d'explication, on peut mal agir et ne le découvrir que très tard. Sans mal agir, on peut aussi mal expliquer et laisser se développer un débat biaisé. A mes yeux, les OGM constituent par exemple aujourd'hui le type même du débat biaisé. Nous sommes probablement en cause car, collectivement, nous n'avons dès le début pas su poser clairement les problèmes pour que le citoyen se fasse une opinion parfaitement éclairée sur ces sujets évidemment difficiles. Pour les nanotechnologies, qui sont apparues récemment, essayons d'expliquer et de multiplier les débats comme ceux que vous avez eus aujourd'hui.

Posons clairement les problèmes tels qu'ils existent : y a-t-il des risques considérables ? A-t-on le moyen d'y faire face ? Des règles particulièrement strictes imposent-elles de revoir des réglementations ou des législations ? Des problèmes éthiques vont-ils tôt ou tard se poser avec l'utilisation de ces technologies ? Essayons de clarifier ces questions et d'en définir les termes avec ceux qui en ont l'habitude et dont c'est le métier. Il n'est pas à la portée de n'importe qui de bien poser ces problèmes éthiques et il y a des personnes dont les recherches portent sur ce sujet. Mettons à profit ces capacités et faisons-le de manière totalement dépassionnée. Essayons de savoir quand il y a progrès. Mais je répète que refuser les nouvelles possibilités permises par la science constitue pour moi la négation des valeurs de notre civilisation : je veux parler du libre exercice de la curiosité de l'esprit humain qui essaye de comprendre le monde dans lequel il vit, et qui, se fondant sur cette compréhension, tente d'améliorer les conditions de vie de ses semblables par la technologie ou les efforts de productivité. N'interrompons pas ce mouvement qui constitue véritablement la marque de notre civilisation, avec tous ses écarts, ses défaillances, mais aussi ses valeurs qui sont essentielles. Soyons adultes face à des questions certes compliquées et donnons une information très large.

Tournons-nous aussi vers les médias qui ont un rôle à jouer : c'est leur devoir le plus essentiel d'essayer d'expliquer les choses. Et là aussi, nous avons besoin de spécialistes sur le sujet. L'objectif est de ne pas se tromper de débat et de mettre en oeuvre le principe de précaution qui représente lui aussi un vrai progrès. Il consiste à regarder les choses honnêtement, sans a priori, en ne limitant pas notre regard aux côtés positifs, mais en ayant la volonté d'observer aussi les aspects négatifs.

Il faut savoir si on peut trouver des parades aux inconvénients qui peuvent naître de telle ou telle nouveauté. C'est véritablement essentiel pour l'avenir de notre société. Nous devons pouvoir l'illustrer sur les nanotechnologies. Ce n'est certes pas le sujet le plus facile, mais il est très important et ses conséquences économiques vont être majeures. Je crois que les aperçus que vous avez donnés aujourd'hui le montrent. S'il s'agissait de technologies secondaires ou de domaine sans grand avenir, on pourrait considérer que cela ne vaut pas la peine de se fatiguer. Mais le programme de vos auditions et ce que nous savons aujourd'hui des conséquences des nanotechnologies sur les activités humaines dans les années à venir nous montrent que c'est extrêmement important. Il y a tant de révolutions en germe, tant de gains de productivité et d'efficacité en matière de santé, dans l'industrie etc...

J'étais très impressionné de voir que Mécachrome, par ce point très précis du rythme de changement des outils de découpe, pouvait gagner en compétitivité et ne pas se résoudre aux solutions qu'on ne connaît que trop bien de délocalisation dans des pays où les coûts de main d'œuvre sont plus faibles. Derrière la mise en oeuvre de ces technologies, il y a des femmes et des hommes dont l'avenir dépend. Des progrès incontestables seront réalisés demain grâce à ces technologies et cela vaut donc vraiment la peine que nous posions les problèmes comme ils doivent l'être pour raisonner de façon valable et que chacun puisse se faire un jugement éclairé, qui doit être celui de tout citoyen dans une démocratie qui fonctionne bien.

M. Claude BIRRAUX, Député, Premier Vice-Président de l'OPECST : Je vous remercie beaucoup, Monsieur le Ministre. Je crois que c'était l'objet principal de notre audition de ce jour. En conclusion, je voudrais simplement préciser qu'un compte rendu intégral de cette audition et un résumé seront publiés, et figureront sur le site de l'Office parlementaire. Cela montrera que le Parlement dispose aussi de la légitimité pour débattre de ces questions.

Par ailleurs, je ne sais pas si j'ai été un animateur indépendant ; mais grâce à tous les intervenants, j'ai appris beaucoup et passé une journée passionnante.

Annexe 1

1 Rapport de l'OPECST n°566 Assemblée Nationale, n° 138 Sénat enregistré le 22 janvier 2003

2 Rapport n°1588 Assemblée Nationale, n° 293 Sénat enregistré le 6 mai 2004.