N° 1493 - Rapport de MM. Claude Birraux et Christian Bataille, établi au nom de cet office, sur l'évaluation de la stratégie nationale de recherche en matière d'énergie



N° 1493 N° 238

___ ___

ASSEMBLÉE NATIONALE SÉNAT

CONSTITUTION DU 4 OCTOBRE 1958

treizième législature Session ordinaire de 2008 - 2009

__________________________________ ____________________________

Enregistré à la Présidence de l’Assemblée nationale Annexe au procès-verbal

Le 3 mars 2009 de la séance du 3 mars 2009

OFFICE PARLEMENTAIRE D’ÉVALUATION

DES CHOIX SCIENTIFIQUES ET TECHNOLOGIQUES

________________________

RAPPORT

sur

l’Évaluation de la stratégie nationale de recherche en matière d’énergie

Par MM. Christian BATAILLE et Claude BIRRAUX,

Députés

_________

Déposé sur le Bureau
de l’Assemblée nationale

par M. Claude BIRRAUX,

Président de l’Office

 

_________

Déposé sur le Bureau du Sénat

par M. Jean-Claude ÉTIENNE,

Premier Vice-Président de l’Office

Composition de l’office parlementaire d’évaluation
des choix scientifiques et technologiques

Président

M. Claude BIRRAUX

Premier Vice-Président

M. Jean-Claude ÉTIENNE

Vice-Présidents

M. Claude GATIGNOL, député Mme Brigitte BOUT, sénatrice

M. Pierre LASBORDES, député M. Christian GAUDIN, sénateur

M. Jean-Yves LE DÉAUT, député M. Daniel RAOUL, sénateur

sénateurs

M. Christian BATAILLE

M. Claude BIRRAUX

M. Jean-Pierre BRARD

M. Alain CLAEYS

M. Pierre COHEN

M. Jean-Pierre DOOR

Mme Geneviève FIORASO

M. Claude GATIGNOL

M. Alain GEST

M. François GOULARD

M. Christian KERT

M. Pierre LASBORDES

M. Jean-Yves LE DÉAUT

M. Michel LEJEUNE

M. Claude LETEURTRE

Mme Bérengère POLETTI

M. Jean-Louis TOURAINE

M. Jean-Sébastien VIALATTE

M. Gilbert BARBIER

M. Paul BLANC

Mme Marie-Christine BLANDIN

Mme Brigitte BOUT

M. Marcel-Pierre CLÉACH

M. Roland COURTEAU

M. Marc DAUNIS

M. Marcel DENEUX

M. Jean-Claude ÉTIENNE

M. Christian GAUDIN

M. Serge LAGAUCHE

M. Jean-Marc PASTOR,

M. Xavier PINTAT

Mme Catherine PROCACCIA

M. Daniel RAOUL

M. Ivan RENAR

M. Bruno SIDO

M. Alain VASSELLE

SOMMAIRE

___

Pages

INTRODUCTION 7

La démarche d’évaluation 8

L’horizon temporel 9

Les retombées économiques 11

Le rôle clef de la valorisation 12

I. LA FORME DE LA STRATÉGIE 15

A. LE DÉCALAGE AVEC LES ATTENTES 15

1. La liste des « thèmes prioritaires » 15

2. Les caractéristiques attendues d’une stratégie 17

3. L’articulation entre les recherches publique et privée 20

4. La dimension temporelle 23

B. LES LEÇONS DU GRENELLE DE L’ENVIRONNEMENT 27

1. La place de la recherche dans la politique de l’énergie 27

2. Le besoin d’instances de pilotage 30

3. La participation aux programmes internationaux 33

II. LE FOND DE LA STRATÉGIE 37

A. LES TECHNOLOGIES ÉTABLIES 38

1. La recherche sur l’énergie nucléaire 38

a) Les axes législatifs 38

b) Les inflexions souhaitables 39

La désignation de chefs de file 40

L’évaluation des recherches de Tournemire 40

Le rôle crucial de la séparation 40

La clôture du chantier « Superphénix » 41

2. La recherche pétrolière 43

a) Une position de premier plan 43

b) Une stratégie cohérente 44

c) Un dynamisme technologique méconnu 46

B. LES TECHNOLOGIES NOUVELLES 51

1. La recherche sur l’efficacité énergétique 51

a) La conservation de la chaleur 52

b) La production de chaleur 53

c) La mise en oeuvre 54

d) Les normes thermiques des bâtiments 56

2. La recherche sur l’énergie solaire 61

a) Les différents procédés de conversion 61

b) L’arbitrage thermique / photovoltaïque 62

c) Les trois pistes photovoltaïques françaises 63

d) Les conditions d’un déploiement massif 67

3. La recherche sur le stockage d’énergie 70

a) La poursuite de l’amélioration des batteries 70

b) Le déploiement de STEP en mer 74

c) Le stockage réparti dans le parc automobile 80

4. La recherche sur les biocarburants 82

a) Un apport indispensable, mais limité 82

b) La réalité de l’effet d’éviction sur l’alimentation 82

c) L’apport des filières de deuxième génération 84

d) Le projet de pilote industriel à Bure 85

e) La piste de la troisième génération 87

5. La recherche sur les énergies marines 89

a) La diversité des pistes technologiques 89

b) Un potentiel significatif 90

6. La recherche sur l’énergie éolienne 93

a) Un effort français en voie d’ajustement 93

b) Une énergie fondamentalement intermittente 93

c) Le besoin d’un dispositif de stockage 95

7. La recherche sur la pile à combustible 97

a) La spécificité de la pile à combustible 99

b) Les limites d’une application à l’automobile 100

8. La recherche sur le captage et le stockage du CO2 105

a) Quelques ordres de grandeur 106

b) Les opinions recueillies à l’étranger 108

c) L’avis de Greenpeace International 110

d) Un « marché potentiel à l’export » ? 111

L’accessibilité des marchés cibles 112

La robustesse de l’avantage stratégique 112

La voie de la coopération internationale 114

e) L’équilibre de l’approche communautaire 114

f) L'apport du marché des droits d'émission 116

g) La répartition de la charge 117

h) La voie d'une rupture technologique 119

CONCLUSION 121

RECOMMANDATIONS 125

Sur la forme de la stratégie 125

Sur le fond de la stratégie 126

EXAMEN DU RAPPORT PAR L'OFFICE 127
COMPOSITION DU COMITÉ DE PILOTAGE
137
ANNEXES
141

document 1 - Projet de pôle de recherche sur le campus de Saclay 143
document 2 - Stockage d’énergie en mer : un exemple chiffré153

VISITES DE LOCAUX DE RECHERCHE 157
Personnalités rencontrées 157

AUDITIONS INDIVIDUELLES 159
Personnalités auditionnées 161
Compte rendu des auditions 164

AUDITION PUBLIQUE OUVERTE À LA PRESSE, SUR LES BIOCARBURANTS 305
Personnalités auditionnées 307
Compte rendu de l’audition publique309

MISSIONS À L’ÉTRANGER 351
Mission en Finlande 353
Personnalités rencontrées 354
L’apport des entretiens 355

Mission aux États-Unis 358
Personnalités rencontrées 358
L’apport des entretiens 361

Mission au Japon 371
Personnalités rencontrées 371
L’apport des entretiens 374

Dépense publique de recherche en énergie (Tableau) 37

Mesdames, Messieurs,

Sans pour autant nourrir l'actualité du Parlement par des textes législatifs, l'énergie et la recherche en énergie sont au coeur de la mission du Parlement en qualité d'enjeux nationaux majeurs sur des thèmes récurrents.

D'abord, le pouvoir d'achat des Français quand on constate que le moindre déséquilibre dans l'approvisionnement en pétrole, en gaz, ou en électricité, a une influence sur le coût du « panier de la ménagère ».

Ensuite, la défense de l'environnement et les risques de désastre écologique liés aux rejets des énergies carbonées ou à la consommation sans frein qui prévalait jusqu'à aujourd'hui.

Enfin, le souci de l'indépendance nationale pour éviter, comme certains pays européens, imprévoyants dans le long terme, de nous retrouver en situation de dépendance par rapport à des fournitures d'énergie qui relèvent plus des États et de l'action politique que des entreprises et du libre échange.

Ce rapport, scientifique dans une première approche, concerne en fait la politique économique, le développement durable et les affaires internationales. La présente évaluation de « la stratégie nationale de la recherche énergétique » peut connaître un usage élargi.

Cette stratégie est définie par l’article 10 de la loi du 13 juillet 2005 de programme fixant les orientations de la politique énergétique : elle « précise les thèmes prioritaires de la recherche dans le domaine énergétique et organise l’articulation entre les recherches publique et privée ». Elle est « arrêtée » par le ministre chargé de l’énergie et le ministre chargé de la recherche. La première « stratégie nationale de la recherche énergétique » a été publiée en mai 2007.

La démarche d’évaluation

L'énergie a toujours occupé une place essentielle dans les sociétés humaines. On a le sentiment de constater aujourd'hui un regain d'importance de cette question qui met en péril les gouvernements et peut même expliquer la majeure partie des conflits du moment.

On observe que, contrairement à bien des domaines techniques où les découvertes nouvelles ont rendu caduques les techniques anciennes, en matière d'énergie, les ressources s'additionnent dans le temps. L'énergie hydraulique est connue des hommes depuis des temps immémoriaux, le bois n'a pas été éliminé par le charbon, le pétrole n'a pas remplacé le charbon, le gaz ne s'est pas substitué au pétrole, l'énergie nucléaire n'a pas éliminé les autres énergies. De la même façon, les énergies nouvelles qui seront évoquées ouvrent des perspectives complémentaires par rapport aux énergies connues, bien développées et toujours utiles.

Plusieurs observations se sont imposées d’emblée à vos rapporteurs en prenant en charge cette mission d’évaluation :

- d’abord, son objet est étroitement défini, la « recherche énergétique », formulation très synthétique pour désigner l’effort de recherche dans le domaine de l’énergie. Il ne s’agit donc pas d’examiner la politique de l’énergie en elle-même, mais bien les pistes qui sont explorées pour donner à celle-ci les moyens d’évoluer dans l’avenir tout en préservant au mieux les intérêts de la France. La recherche en énergie constitue en quelque sorte une « dérivée première » de la politique de l’énergie : elle donne la direction à suivre (la « pente », dirait-on en mathématique), et l’intensité de la vitesse (caractérisée par la mobilisation de moyens) avec laquelle il faut s’orienter dans cette direction ;

- ensuite, l’évaluation doit s’effectuer en fonction de lignes de force déjà globalement définies, à savoir celles qui s’imposent pour l’élaboration de la stratégie. Ces lignes directrices sont fixées par l’article 5 de la loi précitée : il s’agit de « conserver [la] position de premier plan [de la France] dans le domaine de l’énergie nucléaire et du pétrole », d’assurer « l’accroissement de l’efficacité énergétique dans les secteurs des transports, du bâtiment et de l’industrie », et « l’augmentation de la compétitivité des énergies renouvelables » ;

- enfin, l’évaluation, en principe, ne vaut pas mandat de substitution à la mission dévolue aux ministres chargés d’arrêter la stratégie. L’évaluation doit rester une appréciation à distance, qu’elle porte sur la forme ou sur le fond. S’agissant de la forme, elle doit s’attacher à critiquer le cas échéant la méthode suivie pour élaborer la stratégie ; s’agissant du fond, elle doit juger la conformité des priorités choisies aux lignes directrices fixées par la loi.

Cependant, il est difficile, pour ceux qui sont en charge d’une évaluation, de la conduire sans développer leur propre vision de l’objet soumis à évaluation. Vos rapporteurs ont auditionné en France une soixantaine de spécialistes de l’énergie, et en ont rencontré une cinquantaine d’autres lors de leurs trois missions en Finlande, aux États-Unis, au Japon. Au fil de ces contacts, ils se sont forgés un jugement sur ce que devraient être les priorités de recherche en énergie pour la France, et ce rapport leur fournit l’occasion d’en faire part.

Ce présent rapport d’évaluation de la « stratégie nationale de recherche énergétique » apparaît dans une certaine mesure comme un tome complémentaire du précédent rapport produit par vos deux rapporteurs, en mars 2006, sur les nouvelles technologies de l’énergie : celui-ci avait pour objectif une description exhaustive, une à une, sous forme d’un abécédaire, des différentes « briques de base » composant le paysage des nouvelles technologies de l’énergie ; celui-là va s’efforcer de justifier une hiérarchisation qualitative des différentes pistes technologiques possibles, en vue de contribuer à la rédaction de la prochaine version de la « stratégie nationale de recherche énergétique » d’ici 2012.

Pour élaborer une hiérarchisation qualitative, il paraît indispensable de prendre en compte deux dimensions incontournables : d’une part, le temps, car il faut tenir compte de la maturation nécessaire des recherches, de leur éclosion jusqu’au stade du déploiement industriel ; d’autre part, les retombées économiques, dont on peut exiger qu’elles soient au moins européennes, et au mieux, françaises.

L’horizon temporel

Dans le secteur de l’énergie, les évolutions prennent beaucoup de temps, et les transitions d’un système technologique à un autre s’opèrent sur des dizaines d’années. C’est là une différence fondamentale avec le secteur des technologies de l’information, où les progrès sont manifestes d’une année sur l’autre, au rythme approximatif de la loi empirique de Moore, à savoir un doublement d’efficacité à prix constants tous les dix-huit mois, qu’il s’agisse de la puissance des ordinateurs, de la rapidité des connexions Internet ou de la richesse de l’offre multimédia en téléphonie mobile.

La réflexion stratégique sur la recherche en énergie doit donc intégrer cette lenteur de réaction pour faire face à l’augmentation prévisible de la demande d’énergie, dont on prévoit qu’elle pourrait croître d’un tiers d’ici 2030, et doubler d’ici 2050, alors que la disponibilité de certaines énergies fossiles (pétrole, gaz) va devenir de plus en plus problématique au fur et à mesure de l’avancée vers la fin du siècle.

Le processus d’exploitation de nouvelles sources d’énergie consomme lui-même de l’énergie ; l’énergie nucléaire en fournit une illustration évidente avec la fusion, puisque celle-ci consiste à chauffer un plasma jusqu’à des températures de l’ordre de la centaine de millions de degré, pour libérer l’énergie résultant de la formation de noyaux atomiques d’hélium par fusion de noyaux atomiques de deutérium et de tritium, énergie incommensurablement plus importante que celle mobilisée pour le chauffage du plasma.

A l’échelle de l’histoire de l’humanité, qui dépend encore à 80 % des énergies fossiles, il existe donc une sorte de course de vitesse entre, d’un côté, l’extinction progressive de ces ressources anciennes, et de l’autre, le développement de nouveaux systèmes énergétiques qui vont nécessiter une grande quantité d’énergie pour leur mise au point et leur mise en route. Si l’humanité consomme trop vite ses ressources anciennes, ou si elle tarde trop à développer les nouveaux systèmes énergétiques, elle risque de voir tomber l’énergie courante disponible en dessous d’un seuil l’empêchant de mener à bien les solutions de relais.

Cette dernière perspective justifie une mobilisation générale de la communauté politique internationale, et par contrecoup, de la communauté scientifique mondiale ; heureusement, la mobilisation de celle-ci s’est déjà produite, par le biais de la préoccupation du changement climatique. Depuis l’adoption, à la Conférence de Rio1 en 1992, de la Convention sur le climat posant la nécessité de réduire les émissions de gaz à effet de serre, et la signature du protocole de Kyoto en 1997, l’urgence d’un investissement massif dans les nouvelles technologies de l’énergie fait consensus sur la planète.

Il s’agit néanmoins de répartir l’effort de recherche entre ces nouvelles technologies, en tenant compte de la vitesse d’émergence de chacune au stade industriel, de manière que le supplément d’offre d’énergie que chacune apporte vienne, à temps, répondre à une évolution de la demande d’énergie. Ainsi, il serait peu pertinent de concentrer exclusivement tout l’effort de recherche sur la seule fusion nucléaire, malgré son potentiel extraordinaire, car elle ne sera disponible au mieux qu’à la fin du XXIe siècle, alors que la demande mondiale d’énergie va exploser dans les prochaines décennies.

Au niveau de chaque stratégie nationale, l’ajustement de l’effort de recherche à l’évolution anticipée de la demande d’énergie se pose dans les mêmes termes qu’au niveau mondial, mais en tenant compte des particularités et des atouts du contexte géographique et économique local. Ainsi, la Finlande, petit pays couvert à 80% de forêts, complète son choix nucléaire par un engagement marqué dans la production de biodiesel de deuxième génération, lui permettant de valoriser sa richesse en biomasse. Le Sud-Ouest des États-Unis, et particulièrement la Californie, très ensoleillés, foisonnent logiquement de Clean’Tech à la pointe des technologies de l’énergie solaire.

La France doit aussi tenir compte de ses particularités et de ses atouts pour ajuster, aux différentes échéances, la répartition de ses efforts de recherche en énergie, et c’est là une dimension à prendre en compte dans sa « stratégie nationale de la recherche énergétique ».

Les retombées économiques

Mais la recherche ne peut pas s’envisager seulement du point de vue de l’intérêt de l’humanité. Certes, elle comporte une composante de connaissances fondamentales qui justifie une mobilisation coopérative de tous les chercheurs du monde. Cependant, la mise au point des procédés industriels suppose un investissement qui ne peut se financer qu’avec une perspective de chiffres d’affaires. A l’aval des filières de recherche, au stade de la mise au point industrielle, les pays se retrouvent en concurrence pour l’installation des unités de production, et les emplois et les recettes fiscales que celles-ci procurent.

Il convient dès lors de combiner une ouverture mondiale totale en matière de recherche fondamentale à une démarche sélective, guidée par un objectif bien pragmatique de rentabilité, en matière de recherche appliquée.

Il est important que la France soit présente sur la scène mondiale de la recherche fondamentale, dans l’énergie comme dans les autres domaines. Les moyens publics qu’elle consacre à cette noble tâche au service de l’humanité doivent cependant demeurer à l’échelle de sa taille économique mondiale ; elle s’engage déjà bien au-delà de cette contribution proportionnelle, car la recherche publique y représente 0,9% du PIB contre 0,7% au Japon. De toute façon, au niveau le plus fondamental de la recherche scientifique, la force de frappe est fonction de l’intensité de la coopération internationale. Un des symboles de cette collaboration mondiale est l’accord international ayant permis la création du site d’ITER (International Thermonuclear Experimental Reactor) à Cadarache. A une échelle plus réduite, on peut encore citer la participation de l’IRDEP (Institut de recherche et développement sur l'énergie photovoltaïque) et de l’Université de Picardie (laboratoire menant des recherches sur les batteries) au Global Climate and Energy Project de l’Université de Stanford, financé par le mécénat de quatre grands groupes mondiaux (Toyota, Schlumberger, Exxon Mobil, General Electric).

Cependant, les investissements publics dans la recherche appliquée doivent reposer sur des considérations beaucoup plus sélectives, car ils interviennent dans un contexte de concurrence : si une solution alternative s’impose finalement sur le marché mondial, a fortiori sur le marché français, tout le soutien antérieurement accordé au développement de la solution nationale est perdu. Cette situation a été illustrée par le célèbre échec du second « Plan calcul » de 1971, montrant l’impossibilité d’une reconquête nationale d’un marché mondial fortement concurrentiel comme celui des ordinateurs.

Il peut d’ailleurs exister une situation intermédiaire entre celle d’une maîtrise absolue de son marché national, et celle du risque de submersion sous l’offre concurrentielle mondiale : il s’agit du cas où la rentabilité de l’investissement bénéficie certes de l’acquis des commandes publiques nationales, mais dépend aussi, pour une part substantielle, de l’accès à quelques fructueux marchés étrangers. L’équation économique du succès commercial des systèmes d’armes (avion de combat, missile, char) repose souvent sur ce genre d’équilibre ; la viabilité des « marchés potentiels à l’export » devient alors un paramètre crucial. Ce type de démarche repose sur un pari commercial à l’échelle internationale.

La créativité scientifique et la préoccupation économique semblent donc difficiles à concilier, puisque l'une se nourrit d'une mise en commun internationale et l'autre vise à exploiter unilatéralement un avantage. La première est tellement désintéressée qu'elle risque peu d'avoir un effet direct en retour ; la seconde est tellement intéressée qu'elle provoque l'échec à vouloir trop directement un retour.

Le rôle clef de la valorisation

Les analyses sur la valorisation de la recherche permettent de surmonter ces tensions contradictoires. Une démarche d’investissement dans la technologie doit en effet s’efforcer d’anticiper sur les étapes à l’aval de la recherche proprement dite : l’étape de mise au point industriel, puis l’étape de déploiement commercial.

C’est ce qu’expliquent les responsables de recherche à la tête des organismes exemplaires en matière d'exploitation de brevets, Olivier Appert à la tête de l'IFP, Jean Therme à la tête de la Direction de la recherche technologique au CEA : la préoccupation de la valorisation doit se manifester dès le lancement de la recherche. Songer à la valorisation seulement une fois que le résultat est obtenu, c'est prendre le risque d'un temps de retard, dont un concurrent venu d’ailleurs peut profiter pour s'imposer en créant une situation commercialement irréversible.

A partir de là, dès lors qu'un axe de recherche est repéré comme prioritaire du point de vue de l'intérêt national, il apparaît essentiel de le gérer dans une perspective de valorisation : les chercheurs ne doivent plus être laissés livrés à eux-mêmes, avec comme seule perspective l'aléatoire reconnaissance gagnée à la faveur d'une publication internationale; ils doivent être accompagnés d'une structure qui les aident à développer le réflexe de la protection de la propriété intellectuelle.

De grands établissements comme le CEA et l'IFP se sont donnés les moyens logistiques de cet accompagnement, qui n'empêche pas les chercheurs de bénéficier à titre personnel d'une légitime renommée au sein de la communauté scientifique internationale, comme le montre l'exemple d'Yves Chauvin, prix Nobel de chimie en 2005, après une longue carrière à l'IFP.

A côté des grands établissements scientifiques et technologiques, les universités peuvent aussi fonctionner selon le modèle de la valorisation au plus près de la recherche, et Claude Birraux, comme rapporteur pour avis de la loi de programme pour la recherche du 18 avril 2006, avait cité à la tribune le modèle très performant de l'Université de Louvain-la-Neuve (UCL), en Belgique. L'interface entre les unités de recherche et le monde extérieur y est assurée par une société anonyme filiale de l'université, la SOPARTEC, qui se charge du dépôt des brevets, de la gestion des licences, des partenariats avec les entreprises, de la création des structures d'essaimage (spin-off) avec l'appui des soutiens régionaux.

Quel qu'en soit le cadre, cet effort particulier de valorisation s'impose dès lors qu'un domaine est désigné comme prioritaire, indépendamment de l'état intrinsèque des connaissances sur le domaine, qu’elles relèvent plus de la recherche fondamentale ou plus de la recherche appliquée. L'exemple des recherches sur l'énergie nucléaire montre bien que le processus de valorisation peut très bien s'appliquer à une recherche en amont, s'il s'agit d'une grande priorité nationale.

La prise en compte des retombées économiques donnent donc une dimension encore plus sélective à l’exercice d’élaboration d’une stratégie de la recherche, car il s’agit non seulement d’arbitrer entre différents moyens dédiés à la recherche, mais encore entre différents moyens dédiés à la valorisation.

*

* *

L’évaluation qui suit, concernant la « stratégie nationale de recherche énergétique », se compose de deux parties reprenant les deux niveaux classiques d’analyse sur la forme, puis sur le fond.

Les critiques sur la forme mettent l’accent sur la faiblesse de la méthodologie, la formulation peu explicite et mal explicitée des priorités, et le défaut de validation officielle par les autorités politiques de l’État.

Les réflexions sur le fond prennent en compte, d’un côté, les évolutions engagées depuis l’impulsion donnée par le « Débat national sur l’énergie » en 2003, dont le document gouvernemental de mai 2007 fournit, thème par thème, une excellente synthèse, et de l’autre, les apports du Grenelle de l’environnement à la recherche en matière d’énergies renouvelables, comme le fonds de soutien aux démonstrateurs industriels.

Vos rapporteurs souscrivent à l’accentuation des efforts, en complément du maintien de la primauté scientifique de la France en matière nucléaire et de sa force technologique en matière pétrolière, sur l’énergie photovoltaïque, les biocarburants de deuxième génération, et le stockage d’énergie. Ils partagent en outre l’intérêt signalé par le « Plan national de développement des énergies renouvelables de la France » du 17 novembre 2008, pour les énergies marines.

Les progrès sur les stockages d’énergie de masse leur apparaissent comme une condition essentielle du développement des énergies renouvelables, et ils retiennent à cet égard une idée originale d’atolls de stockage en mer, bien adaptés pour compléter un parc d’éoliennes off-shore. Car la nature ne produit la plupart des énergies renouvelables que par intermittence, et l’homme cherche à compenser cette discontinuité depuis qu’il se chauffe et s’éclaire.

I. LA FORME DE LA STRATÉGIE

Les divers contacts pris par vos rapporteurs, d’abord avec les membres du comité de pilotage, ensuite avec diverses personnalités auditionnées, ont confirmé leur impression que le document de mai 2007, quoique non dépourvu de qualités documentaires, ne correspondait pas véritablement à ce qu’on pouvait attendre d’une stratégie nationale de recherche. Les travaux menés dans le cadre du Grenelle de l’environnement ont ouvert la voie à une deuxième version du document qui pourrait sans doute mieux répondre à ce qu’a voulu le législateur en instituant cet exercice de planification stratégique.

A. LE DÉCALAGE AVEC LES ATTENTES

Dans un document de planification stratégique, il est légitime de s’attendre à trouver une liste des « thèmes prioritaires », comme le prévoit la loi du 13 juillet 2005. Tel n’est pas véritablement le cas de celui publié en mai 2007, où la partie proprement stratégique prend plutôt la forme d’une synthèse de six pages présentant, selon un plan certes bien structuré, un bilan de l’ensemble des recherches en cours. Le décalage avec les attentes est également patent s’agissant de la présentation d’une « articulation entre les recherches publique et privée ».

1. La liste des « thèmes prioritaires »

La lecture du document de 144 pages intitulé « Rapport sur la stratégie nationale de la recherche dans le domaine énergétique » ne laisse pas de surprendre, car l’essentiel de son contenu (p.19 à 120) est constitué d’une série de fiches, regroupées dans la cinquième partie, « Approche thématique », contenant des synthèses, au demeurant fort intéressantes, sur les différentes pistes de recherche suivies dans le domaine de l’énergie.

Cette approche exhaustive est justifiée par la nécessité d’« explorer les voies qui peuvent être prometteuses pour le futur du mix énergétique mondial. » (p.10).

La partie proprement programmatique tient dans les six pages de la quatrième partie, « Orientations stratégiques », qui structure la démarche d’ensemble de l’effort de recherche autour de deux axes : le développement de ressources énergétiques non émettrices de gaz à effet de serre, d’une part, et l’amélioration de l’efficacité énergétique, d’autre part.

Sous ces deux en-têtes, figure la liste des principaux thèmes de recherche en cours :

- d’un côté, la fission nucléaire de quatrième génération, l’exploitation de la biomasse, l’énergie photovoltaïque, et le captage et stockage du gaz carbonique ;

- de l’autre, le stockage de l’énergie, la réduction de la consommation d’énergie dans les bâtiments et les transports, le développement de la pile à combustible et de la production d’hydrogène, et l’étude de réseaux de distribution « intelligents » combinant au mieux les demandes et les offres décentralisées d’énergie.

La fusion thermonucléaire est mentionnée et renvoyée à une perspective temporelle plus lointaine que 2050.

Il n’y a pas d’ambiguïté sur le fait que ces six pages tiennent lieu de stratégie nationale de recherche énergétique, puisque l’ancien site Internet de la DGEMP2 les présente sous l’intitulé : « La synthèse de la stratégie nationale sur la recherche dans le domaine de l’énergie. »

Pourtant, la forme rédactionnelle retenue se place elle-même en deçà de l’ambition de fixer une stratégie, puisqu’elle reste dans une tonalité de document préparatoire : « quelques domaines prioritaires peuvent être identifiés », est-il écrit deux fois. Il n’est même pas indiqué si l’ordre dans lequel les thèmes sont cités correspond ou non à une forme de classement.

Cette prudence est à rapprocher du ton plus sûr adopté par le rapport du Comité opérationnel sur la recherche du Grenelle de l’environnement lorsqu’il aborde « la question énergétique » :

« Les priorités nouvelles sont claires : développement des efforts de recherche notamment sur le solaire, la capture des gaz à effet de serre, les biocarburants de seconde génération, avec des actions transversales (qu’on retrouve dans le domaine des transports) sur le stockage de l’énergie (batteries), l’électronique de puissance et les matériaux. » (p.8).

Le ton est différent parce que certainement l’assise intellectuelle est plus solide : d’un côté, il s’agit sans doute de l’ébauche d’un document qui aurait dû avoir une portée politique ; de l’autre, il s’agit d’une réponse pleine d’élan et d’allant d’un comité de personnalités qualifiées, auxquelles une lettre de mission ministérielle demande directement de « décliner de façon opérationnelle les conclusions du Grenelle en matière de recherche […] et de proposer en conséquence une stratégie nationale de recherche sur les thématiques suivantes : changement climatique ; nouvelles technologies de l’énergie ; transports propres ; soutien aux démonstrateurs technologiques ; bâtiments écologiques ».

La liste des priorités de cette autre stratégie est à peu près la même que celle de mai 20073 sous réserve de trois nuances :

- la pile à combustible n’est mentionnée au titre de la propulsion des véhicules que pour les transports lourds ou publics ;

- l’accent est mis sur l’importance de la recherche sur les composants de puissance pour la gestion de l’énergie ;

- une simple veille technologique est préconisée pour les énergies éoliennes, géothermiques et marines.

Mais, globalement, il s’agit déjà d’une stratégie à la fois plus affirmée et plus affinée.

Fait défaut dans les deux cas, au-delà des analyses et explications ad hoc qui justifient la mise en avant de chacun des domaines présentés comme prioritaires, une démarche systématique par critères, qui permette de donner un fondement objectif à la répartition des moyens budgétaires entre les différentes priorités et, éventuellement, à une évolution de cette répartition.

En outre, s’agissant d’un domaine où la dimension temporelle est cruciale, il manque une présentation par « Road Map », permettant d’avoir une vue synthétique sur l’émergence successive des technologies.

2. Les caractéristiques attendues d’une stratégie

La lecture des six pages de synthèse sur la stratégie nationale de recherche énergétique ne permet pas de retrouver ce qui fait habituellement les traits caractéristiques d’une stratégie :

- d’abord, l’affirmation politique déterminée des orientations choisies ;

- ensuite, la mention des critères pris comme références pour établir ces orientations ;

- enfin, les travaux ayant permis de choisir les orientations au vu des critères retenus.

Une stratégie a en effet pour fonction de fournir un guide pour l’avenir, et elle n’est utile qu’en étant validée, expliquée, et justifiée.

Or, la stratégie énergétique de mai 2007 :

- n’est pas validée, car les orientations choisies ne sont pas politiquement soutenues.

On s’attendrait à ce qu’une autorité politique prenne la responsabilité d’endosser la liste des orientations évoquées ; on découvre, au bas de la page 11, que le rapport a été préparé par les services des deux ministères chargés de la recherche et de l’industrie, donc qu’il ne s’agit que d’un document administratif, sans dimension politique. Cependant, le législateur n’a pas voulu un document administratif, puisqu’il a précisé que le ministre chargé de l’énergie et le ministre chargé de la recherche « arrêtent » la stratégie.

Les circonstances politiques de mise en place d’un nouveau Gouvernement au printemps 2007 expliquent sans doute en partie cette absence d’endossement politique. Il paraît évident que la deuxième version de la stratégie doit correspondre à une feuille de route fixée explicitement par les deux ministres concernés, ou mieux encore, par le Gouvernement, le Premier ministre lui conférant la force de tout document portant sa signature. C’est un point de procédure qui sera approfondie plus loin.

- n’est pas expliquée, car les critères de choix ne sont pas explicités.

Certes, le rapport rappelle, dans sa troisème partie, les éléments du « contexte politique et législatif », et la page 9 en particulier recense les « principales orientations de la politique énergétique française ». Mais on pourrait s’attendre à ce que ces diverses indications soient transformées en critères opérationnels de choix, permettant la construction d’une grille d’analyse grâce à laquelle toutes les pistes de recherche pourraient faire l’objet d’une analyse objective.

Seuls deux critères sont effectivement explicités en haut de la page 12, et sont tout à fait fondamentaux :

Ø l’indépendance énergétique ;

Ø la lutte contre le changement climatique.

Mais ce début de grille d’analyse devrait être complété par d’autres critères permettant d’apprécier l’intérêt des différentes pistes de recherche. On peut en citer par exemple trois :

Ø « la date probable de [] déploiement sur les marchés », critère temporel retenu par le rapport Chambolle4, mais aussi mis en avant par M. Raymond Leban5, citant en exemple la « maturité technologique » dans un rapport du World Business Council for Sustainable Development ;

Ø le poids relatif de « l’intérêt sociétal » et de « l’intérêt sectoriel » qui, selon Jean-Paul Langlois, doit déterminer le degré de l’engagement de l’État ;

Ø « les risques » et « les enjeux », critères représentatifs de l’espérance économique de gains, dont M. Jean-Louis Beffa a signalé qu’ils étaient d’usage courant dans les démarches stratégiques conduites par les entreprises et les pays étrangers.6

- n’est pas justifiée, car les orientations ne ressortent pas de l’analyse de critères.

On voudrait trouver dans le rapport un commentaire sur la manière dont chaque piste technologique se trouve appréciée à l’aune d’une grille de critères de référence. Cette partie devrait même constituer l’essentiel du rapport, retraçant les diverses consultations ayant permis de nourrir cette appréciation. A cet égard, le rapport mentionne bien, en bas de la page 11, que « les acteurs concernés ont été sollicités sous diverses formes », faisant référence en particulier à l’organisation de quelques « tables rondes » thématiques, mais la retranscription des échanges n’est pas fournie.

A l’inverse, le rapport Chambolle, pour justifier les priorités qu’il affichait, s’est appuyé sur le contenu d’une série de grilles d’évaluation. Le rapport du World Business Council for Sustainable Development, mentionné précédemment, propose en annexe, technologie par technologie, un commentaire détaillé d’appréciation au regard des critères préalablement retenus. Au Department of Energy comme au Global Climate and Energy Project 7, les travaux d’appréciation de l’état des différentes technologies dans le cadre de la planification de l’effort de recherche donnent lieu à l’organisation de « Workshops », réunissant des spécialistes du domaine concerné, et les échanges sont publiés.

Le rapport de mai 2007 apparaît donc entaché d’un déficit méthodologique qui le prive d’une véritable portée stratégique, même s’il constitue incontestablement un document de référence pour une information synthétique sur les différentes pistes technologiques suivies dans l’énergie.

En fait, son élaboration pourrait s’inspirer d’une approche systématique de type « atouts/attraits » utilisée par certains exercices de prospectives, comme les documents « Technologies clés » 2000, 2005 et 2010, réalisés depuis 1995, tous les cinq ans, par la direction générale des entreprises, sous l’autorité du ministre de l’industrie qui en signe la préface.8

Le rapport sur la « stratégie nationale de recherche énergétique » fait d’ailleurs lui-même état de son déficit méthodologique en conclusion de la synthèse présentée en quatrième partie (en bas de la page 17) :

« Il s'agit en effet du premier exercice du genre qui demande encore à être approfondi. Il conviendrait en particulier de mieux cerner le poids respectif des différents domaines et de définir plus précisément les trajectoires industrielles associées. Ce travail d'approfondissement pourrait être assuré dans le cadre d'une déclinaison de la stratégie menée par les acteurs du domaine impliqués dans les différents champs techniques.

En particulier, le haut conseil de la science et de la technologie ainsi que les agences publiques en charge de la recherche pourraient apporter une contribution importante à cette transcription de la stratégie dans la pratique.

En termes de processus, le présent rapport pourrait être soumis à une large discussion, conduisant à préciser les analyses et à mobiliser les acteurs autour de quelques thèmes, favorisant ainsi les processus d'organisation de la recherche. A l'issue de cette étape, une nouvelle version tenant compte des apports de chacun des acteurs pourrait être produite, conduisant à une focalisation accrue sur les thèmes retenus comme indispensables à l'issue de cet examen. »

Dont acte ! Vos rapporteurs reconnaissent bien volontiers la difficulté du « premier exercice du genre », et souscrivent au besoin d’une mobilisation plus large de la communauté scientifique et technologique, y compris dans le secteur privé, pour parvenir à une « focalisation accrue » de la stratégie.

On peut du reste estimer que le Grenelle de l’environnement, et notamment les travaux du comité opérationnel sur la recherche de janvier à juin 2008, ont répondu pour partie à ce souhait d’une « large discussion », et du moins en ont fourni un modèle, même si le champ couvert s’étendait bien au-delà du domaine de l’énergie.

3. L’articulation entre les recherches publique et privée

Le premier alinéa de l’article 10 de la loi du 13 juillet 2005 mentionne que la stratégie nationale de recherche énergétique « organise l’articulation entre les recherches publique et privée ». Le verbe « organise » a un sens fort : il ne s’agit pas seulement de décrire les possibilités d’une coopération, mais d’aller jusqu’à la structurer, en intégrant l’effort des entreprises dans la stratégie nationale.

Le rapport traite de cette « articulation » de deux manières :

1°) La sixième partie, relative aux « acteurs de la recherche énergétique », présente, un à un, de manière synthétique, tous les mécanismes publics de soutien à la recherche pouvant bénéficier aux entreprises : ANR, Oseo, pôles de compétitivité, Réseau des technologies pétrolières et gazières, et ancienne AII (absorbée par Oseo au 1er janvier 2008) ;

2°) Les fiches thématiques de la cinquième partie recensent, au cas par cas, les contributions des acteurs privés à l’effort de recherche. Ainsi, la fiche relative au « solaire photovoltaïque » rappelle l’implication de Total, EDF, Saint-Gobain dans ce domaine, à travers des organismes de recherche (IRDEP pour EDF), des projets ANR (Saint-Gobain) ou des filiales (Photovoltec, Tenesol, Atotech pour Total).

Mais il ne s’agit là que d’informations descriptives a posteriori sur l’état des efforts combinés des secteurs public et privé. Or, non seulement ce tableau n’est pas complet, car il manque un chiffrage de l’implication quantitative des entreprises dans la recherche en énergie9, mais surtout il ne correspond pas à la demande du législateur qui a voulu que la stratégie « organise l’articulation entre les recherches publique et privée ».

De fait, on peut s’interroger sur la possibilité de satisfaire une telle demande dans un contexte d’économie de marché très concurrentielle. En effet, la possibilité d’une articulation des recherches publique et privée dépend essentiellement dans ce contexte de l’initiative des entreprises. Or, plusieurs éléments de circonstance peuvent amener celles-ci à mesurer leur effort de coopération :

- d’abord, une coopération avec le secteur public oblige à une certaine transparence, ne serait-ce qu’en raison des procédures de contrôle qui entourent la mobilisation des fonds publics. Or, le secret sur leurs axes de recherche revêt parfois une dimension vitale pour les entreprises. La fin de non-recevoir, parfaitement explicite à cet égard, qu’a opposée la société BatScap, filiale de Bolloré en pointe dans la recherche sur les batteries au lithium, à la demande d’audition de vos rapporteurs, en porte un témoignage flagrant. M. Bernard Duhem, secrétaire permanent du PREDIT, auditionné le 17 avril 2008, a fait en outre part à vos rapporteurs de son sentiment que certaines petites entreprises privilégiaient les aides régionales durant les premières années de leur développement à dessein, afin de préserver plus facilement l’originalité de leur démarche ; en effet, la participation à des mécanismes de soutien national de recherche assure une visibilité qui déclenche plus vite l’alerte chez les concurrents potentiels. Christian Ngô, qui a exercé une mission de conseil auprès du gouvernement vietnamien, a d’ailleurs signalé que la participation à un pôle de compétitivité constitue paradoxalement un risque, car c’est une manière de faciliter la tâche de veille pour des entreprises concurrentes, surtout celles qui se trouvent très éloignées géographiquement ;

- ensuite, toute coopération entre recherches publique et privée élargie à plusieurs entreprises potentiellement concurrentes crée pour chacune la tentation d’un attentisme rationnel ; car chacune a intérêt à ce que les autres fassent un effort d’investissement pour faire progresser une recherche dont toutes profiteront de toute façon. D’après certains interlocuteurs de vos rapporteurs, les programmes communautaires de recherche sont malheureusement structurés d’une manière qui, parfois, encourage ce genre de comportement.

Ainsi, il paraît difficile pour des représentants de l’État d’impliquer les acteurs privés de la recherche dans une vaste consultation, permettant de recueillir toutes les informations nécessaires à l’organisation d’un effort collectif optimisé. Cette phase préliminaire à toute tentative pour instaurer de meilleurs mécanismes d’articulation avec la recherche publique se heurte à des obstacles structurels, liés à des comportements rationnels en situation concurrentielle. Les services ministériels en charge du rapport de mai 2007, comme vos rapporteurs à l’occasion de précédentes missions, en ont fait l’expérience.

Les entreprises publiques vont certes accepter de se prêter à une coopération voulue par leur actionnaire principal ; et, par exemple, les recherches sur les réacteurs nucléaires de quatrième génération reposent sur une bonne entente entre les partenaires français. Par ailleurs, une situation de rattrapage, avec des enjeux de secret industriel moindres, peut également créer une adhésion spontanée à un effort coopératif de la part des grands acteurs privés ; il sera ainsi certainement possible d’obtenir l’union sacrée des industriels français pour un rattrapage du retard dans le domaine de l’énergie solaire. Mais une démarche générale systématique relevant d’une sorte d’exercice de planification paraît en revanche très difficile.

En dépit de cette situation structurelle d’asymétrie d’informations entre l’État et les acteurs privés, il existe cependant une manière de créer les conditions d’une articulation minimale entre les recherches publique et privée ; elle a été rappelée à vos rapporteurs par M. Alain Bugat, Administrateur général du CEA lors de son audition du 19 juin 2008 : elle consiste à mener une politique publique cohérente et déterminée. Car une démarche de l’État claire et forte fixe un cap pour les anticipations des investisseurs, et a un effet d’entraînement sur la recherche privée. Or, une fois l’engagement des acteurs acquis, une concertation pragmatique, et non pas programmatique, pour organiser un partage des tâches avec la recherche publique, au cas par cas, dans chaque domaine concerné, est beaucoup plus facile à instaurer, sous réserve qu’existent les instances de pilotage adéquates.

En conclusion, la faiblesse du rapport de mai 2007 quant à l’organisation de l’articulation entre les recherches publique et privée révèle certainement plus une difficulté fondamentale qu’une insuffisance d’implication des rédacteurs du rapport. Cette articulation doit s’envisager d’une manière pragmatique, au niveau le plus opérationnel, comme en donnent l’exemple le PREDIT et le PREBAT. La meilleure manière de susciter une envie de coopérer des acteurs privés consiste à inscrire l’effort de recherche publique en énergie dans le cadre plus général de politiques cohérentes et déterminées.

La deuxième version de la stratégie nationale de recherche énergétique devrait cependant fournir, autant que possible, plus d’indicateurs chiffrés sur l’implication du secteur privé dans cette recherche, de manière à permettre d’apprécier son poids global, sa dynamique d’ensemble et son orientation sectorielle. Sur ce point, vos rapporteurs font écho à la demande formulée en conclusion par le rapport du comité opérationnel du Grenelle de l’environnement sur la recherche, en ce qui concerne « une évaluation fiable sur la répartition thématique des dépenses françaises de recherche et développement » (p.21). Ils souhaitent notamment que cette évaluation intègre de manière précise l’impact du crédit d’impôt recherche.

4. La dimension temporelle

Tout exercice de stratégie inclut un échelonnement des objectifs à atteindre dans le temps. Cependant, comme cela a déjà été souligné en introduction, l’appréciation de la date de disponibilité effective des nouveaux systèmes technologiques revêt un caractère particulièrement crucial dans le domaine de l’énergie, pour deux raisons :

- la première tient à ce que cette date de disponibilité est d’autant plus difficile à définir qu’elle est lointaine ; or, le délai d’émergence d’une technologie de l’énergie est particulièrement long, de l’ordre de plusieurs dizaines d’années ; un travail d’expertise visant à apprécier avec justesse cette date constitue dès lors un apport d’autant plus précieux ;

- la seconde résulte de ce que l’adaptation de l’offre à la rapide augmentation tendancielle de la demande d’énergie, liée au dynamisme de la démographie mondiale et à la hausse du niveau de vie dans les pays émergents, va dépendre fortement de la possibilité d’opérer, à temps, le déploiement de ces nouveaux systèmes technologiques.

Le rapport de mai 2007 prend bien en compte cette dimension temporelle en développant à sa manière les deux arguments précédents :

- « Les constantes de temps particulièrement longues dans le domaine de l’énergie, liées tant au cycle de renouvellement des installations et des investissements qu’à la complexité des procédés à élaborer et à la multiplicité des options ouvertes, appellent une implication déterminée des acteurs publics qui apportent une indispensable continuité d'action. » (p. 7)

- « Compte tenu des constantes de temps dans le domaine de la recherche, la disponibilité industrielle et la pleine efficacité de technologies contribuant à réduire les émissions de gaz à effet de serre à l’horizon 2050 supposent de s’engager d’ores et déjà résolument sur la trajectoire correspondante. En particulier, cela implique que, dès que possible et au plus tard avant 2020, les principales options technologiques aient été identifiées et évaluées afin de définir de manière pertinente le bouquet énergétique qui devra être déployé au cours des décennies ultérieures. » (p. 11)

Par ailleurs, la synthèse de six pages valant « stratégie nationale de recherche énergétique » s’efforce effectivement de dater l’arrivée à maturité industrielle des différentes technologies mentionnées. Par exemple : « L’obtention des batteries embarquées permettant une autonomie de 200 kilomètres et commercialisées à un coût compétitif pourrait être envisagé vers 2015 si les espoirs fondés sur les recherches actuelles se matérialisent. » (p. 15)

Cependant, la deuxième édition de la « stratégie nationale de recherche énergétique » devra compléter cet échéancier au cas par cas par deux éléments de synthèse complémentaires, l’un diachronique, l’autre synchronique.

► La synthèse diachronique doit permettre d’apprécier, sur la durée, la cohérence d’un effort technologique permettant d’atteindre successivement les différents objectifs retenus comme prioritaires ; elle suppose la réalisation de ce que les anglo-saxons appellent des « Road Maps », c'est-à-dire des « échéanciers technologiques », qui sont déjà d’usage courant dans certains organismes de recherche. Le schéma suivant, réalisé par l’IFP, en donne un exemple pour la technologie des moteurs :


ROAD MAP "MOTEURS-CARBURANTS"

Légende : Les rectangles de taille croissante illustrent la montée en puissance entre l’apparition des premiers modèles et la prise d’une part significative de marché (5 à 10 %).

► La synthèse synchronique vise à vérifier qu’à certaines échéances clefs, typiquement celles de 2020 et 2050 pour le premier exercice de « stratégie nationale de recherche énergétique », l’ensemble des technologies disponibles permettent un ajustement de l’offre et de la demande d’énergie. En somme, cette approche complémentaire décrit une cible en matière de « mix » énergétique à divers horizons. Le schéma suivant, tiré d’une présentation de l’EPRI illustrant l’impact de la technologie du captage et stockage du CO2 sur le « mix » électrique américain, à l’horizon 2050, en fournit un exemple :

L’ÉVOLUTION DU « MIX » ÉLECTRIQUE DES ÉTATS-UNIS

Source : Electric Power Research Institute

Les travaux du Grenelle de l’environnement ont été l’occasion d’étudier des scénarios d’impact du projet de loi de programme dit « Grenelle 1 », qui s’inscrivent directement dans un effort de synthèse mettant en valeur, à diverses échéances, la cohérence des choix stratégiques retenus.

ÉVOLUTION DE LA CONSOMMATION D’ÉNERGIE PRIMAIRE FRANÇAISE

(A gauche : scénario de référence ; à droite : impact estimé du « Grenelle 1 »)

Source : MEEDDAT (DGEC)

Si un « échéancier technologique » relève entièrement du domaine de la recherche, une synthèse synchronique mobilise des informations à la fois sur la recherche et sur le devenir des systèmes technologiques anciens ; elle déborde donc sur le terrain de la politique énergétique, et s’inscrit dans le cadre d’un exercice plus large de prospective sur l’énergie, tel que celui réalisé par le Centre d’analyse stratégique sur les « Perspectives énergétiques de la France à l’horizon 2020-2050 ». En l’occurrence, le rapport « Syrota » est paru en septembre, quelques mois après celui sur la « stratégie énergétique », et d’après les informations recueillies par vos rapporteurs, il n’a pas été possible de coordonner les travaux préparatoires du premier avec ceux du second.

Il serait indispensable que l’équipe interministérielle en charge de la prochaine version de la « stratégie nationale de recherche énergétique » puisse s’appuyer non seulement sur des travaux de prospective sur l’énergie, comme ceux réalisés par l’Académie des technologies10, mais encore sur des moyens de simulation de scénarios, comme ceux mobilisés pour l’étude d’impact du Grenelle de l’environnement.

B. LES LEÇONS DU GRENELLE DE L’ENVIRONNEMENT

Cette mission d’évaluation ne peut pas s’en tenir de manière réductrice à l’examen du rapport de mai 2007. Le contexte de la politique de l’énergie a en effet beaucoup évolué depuis la publication de ce rapport, et le Grenelle de l’environnement notamment a contribué à une mobilisation générale permettant de resituer les efforts de recherche au sein des politiques publiques touchant à l’énergie.

1. La place de la recherche dans la politique de l’énergie

Alors qu’aux États-Unis ou au Japon, la recherche en énergie est gérée comme une composante à part entière de la politique de l’énergie, la France la rattache institutionnellement au monde de la recherche.

Ces deux modalités d’organisation ont chacune leur justification, et celle consistant à considérer l’énergie comme un objet de recherche parmi d’autres, sans marquer son lien avec l’aval industriel de la filière, met implicitement en avant les effets de synergie pouvant intervenir entre les différents domaines de recherche. Du reste, la mise en œuvre de la LOLF a permis de corriger en partie cette séparation artificielle puisque le responsable du programme 188 sur la recherche en énergie est le directeur général de l’administration en charge des questions d’énergie (ancien DGEMP devenu DGEC).

Cependant, le rapport de septembre 2007 du rapport du Centre d’analyse stratégique sur les perspectives énergétiques de la France à l’horizon 2020-2050 (rapport « Syrota ») a mis en évidence que, dans un secteur où les ajustements s’opèrent sur plusieurs dizaines d’années, les choix en matière de recherche doivent se faire prioritairement en cohérence avec le pilotage de toute la filière. Allant même plus loin, il indique clairement que cette cohérence doit prendre forme au niveau des arbitrages budgétaires entre le présent et le futur :

« L’arbitrage à réaliser au niveau des dépenses publiques entre le soutien aux actions immédiates d’investissement et le soutien aux actions de R&D qui permettront à notre pays de maîtriser les technologies d’avenir indispensables à son développement durable, est un élément clef de toute politique énergétique. » (p.147).

Le Haut Conseil de la science et de la technologie lui aussi, dans son premier avis du 4 avril 2007 relatif à « l’effort scientifique et technologique de la France en matière énergétique », après avoir conseillé de « maintenir les technologies nucléaires au meilleur niveau », a mis en avant un besoin d’arbitrage, en soulignant « le déficit d’arbitrage entre les technologies alternatives, domaine dans lequel les recherches doivent être conduites avec détermination. »

L’ajustement du potentiel de production d’électricité de pointe fournit une bonne illustration de ce besoin d’arbitrage entre le présent et le futur, et entre les solutions technologiques. En effet, l’implantation d’une centrale thermique à flammes constitue en ce cas une réponse directe, tandis qu’un investissement équivalent dans la recherche sur le stockage en énergie peut fournir à terme une solution équivalente. Une anticipation de l’évolution de la demande d’énergie dans le cadre d’une stratégie de moyen terme conduit donc à une décision d’investissement différente.

Le Grenelle de l’environnement a conforté ce besoin de cohérence entre l’effort de recherche et l’action politique touchant à l’énergie, de deux manières :

- d’une part, les conclusions des tables rondes tenues du 24 au 26 octobre 2007 ont conduit à créer, à côté du comité opérationnel sur la recherche, plusieurs comités opérationnels touchant aux questions de l’énergie à la fois sous l’angle de la recherche et des politiques publiques. On peut mentionner en particulier ceux relatifs aux « Bâtiments neufs publics et privés » (chantier 1), « Bâtiments existants » (chantier 3), « Véhicules performants » (chantier 8), « Énergies renouvelables » (chantier 10) ;

- d’autre part, le comité opérationnel sur la recherche (chantier 33) a souligné que la nécessité de « s’adapter » devait conduire à resituer l’effort de recherche dans une démarche plus large consistant à « développer observation et modélisation », « cartographier les enjeux », « maîtriser le coût des choix », et à mieux anticiper l’acceptabilité sociale des projets, par le moyen notamment d’une plus intense sollicitation des sciences humaines et sociales. Cela revient à faire de la recherche une composante de la « gouvernance de l’adaptation », devant conduire en particulier à déterminer parmi les mesures à prendre, celles qui « doivent relever principalement de la sphère individuelle ou collective (taxe à la consommation ou à la production, par exemple) ».

Il est un cas où l’intégration de la recherche à une démarche plus générale de « gouvernance de l’adaptation » paraît particulièrement importante aux yeux de vos rapporteurs. Il se produit lorsqu’il s’agit de favoriser le déploiement de nouvelles technologies dont le succès dépend crucialement de l’adhésion du grand public, comme l’énergie solaire. Il est alors effectivement essentiel d’assurer la cohérence entre, d’un côté, l’effort de recherche, et de l’autre, la mobilisation des filières professionnelles en vue de garantir la disponibilité et la fiabilité des services d’installation et de maintenance. Une action des pouvoirs publics parfaitement coordonnée sur ces deux plans est une condition indispensable pour faire jouer au mieux les effets en retour stimulants, pour la technologie, d’un marché dynamique, comme cela s’est produit dans le domaine des communications électroniques (téléphone mobile, Internet).

De là, l’absolue nécessité de gérer la recherche en énergie dans le cadre plus large des enjeux de la filière. A cet égard, le maintien d’une responsabilité conjointe des deux ministères en charge de l’industrie et de la recherche peut fonctionner sans avoir besoin de créer un « département de l’énergie » à la française. Mais il serait néanmoins utile d’instituer une autorité en mesure d’engager sa responsabilité sur les arbitrages levant les dilemmes mis en évidence par le rapport « Syrota », appelant des arbitrages entre le présent et le futur, ou par le Haut Conseil de la science et de la technologie, s’agissant des « technologies alternatives ».

À cet égard, vos rapporteurs estiment que la fonction du « Haut commissaire à l’énergie atomique » devrait être élargie pour créer un « Haut commissaire à l’énergie ».

La réforme serait d’autant plus facile à réaliser que, d’ores et déjà, les missions du Haut commissaire à l’énergie atomique dépassent, en dépit du titre qu’il porte, le seul champ de l’énergie nucléaire. L’article 5 du décret n°70-878 du 29 décembre 1970 relatif au Commissariat à l’énergie atomique indique en effet qu’il « peut saisir directement le comité de l’énergie atomique et les ministres intéressés de ses propositions concernant l’orientation générale scientifique et technique qui lui parait souhaitable » ; en outre : « Il peut être chargé de diverses missions, notamment dans le domaine de l’enseignement. ». Et M. Bernard Bigot s’est déjà illustré dans ces missions de portée plus générale, en démontrant l’intérêt stratégique pour notre pays des biocarburants de deuxième génération, et en rendant un rapport au Gouvernement sur l’organisation de l’enseignement supérieur sur l’énergie.

Il conviendrait cependant de compléter cette structure de gouvernance de toute la filière de l’énergie, d’instances de pilotage spécifiques pour la recherche en énergie.

2. Le besoin d’instances de pilotage

La « stratégie nationale de recherche énergétique » nécessite un dispositif de pilotage, car il faut que le temps de l’action succède à celui de la réflexion.

Le processus du Grenelle de l’environnement en fournit là encore l’illustration : la phase initiale de large consultation de l’automne 2007 a défini les axes de travail des comités opérationnels, dont les conclusions ont nourri les deux projets de loi, l’un « de programme », l’autre « d’engagement ». Maintenant que vient le temps de l’action, une double structure permet de suivre la mise en œuvre :

1°) Le Comité de suivi du Grenelle de l’environnement maintient le dialogue entre l’État et les quatre autres acteurs ayant participé à la phase initiale de réflexion (syndicats, patronat, collectivités territoriales, ONG). Il se réunit environ toutes les six semaines, et se trouve pérennisé par l’article 1er du projet de loi « de programme » : « L'État élabore la stratégie nationale de développement durable et la stratégie nationale de la biodiversité (…) L'État assure le suivi de la mise en oeuvre de cette stratégie au sein d'un comité pérennisant la conférence des parties prenantes du Grenelle de l'environnement ».

2°) Des coordinateurs ont été nommés pour veiller à atteindre certains objectifs : le Premier ministre a ainsi confié, en janvier 2009, à M. Philippe Pelletier, le pilotage du « programme de réduction des consommations énergétiques et des émissions de gaz à effet de serre des bâtiments », à travers la mise en place d’un Comité stratégique du "Plan Bâtiment Grenelle". M. Jean-Louis Legrand a été désigné, en février 2009, « coordinateur interministériel » du programme sur les « véhicules décarbonnés » (électriques ou hybrides rechargeables), dont le Président de la République avait fait l’annonce le 9 octobre 2008. La Poste a reçu mission en juillet 2008 de coordonner l’effort d’investissement dans la voiture électrique de la vingtaine des grands utilisateurs publics et privés de flottes captives, devant se traduire par des appels d’offre pour l’achat en commun de 100.000 véhicules d’ici fin 2012.

Pour la « stratégie nationale de recherche énergétique », l’élaboration du rapport correspondait au temps de la réflexion ; un temps de la mise en œuvre doit suivre, s’appuyant également sur des instances de pilotage en situation de responsabilité vis-à-vis des objectifs définis comme prioritaires. Ces instances de pilotage doivent intervenir à deux niveaux, comme le Grenelle de l’environnement en donne l’exemple :

- un conseil de suivi d’ensemble ;

- des coordinateurs pour les projets prioritaires.

► S’agissant du suivi d’ensemble de la mise en œuvre d’une stratégie de recherche, le Japon dispose d’un modèle, le Council for Science and Technology Policy (CSTP), dont l’expérience a pu être analysée par vos rapporteurs grâce à l’audition, à Tokyo, de Mme Yuko Harayama, professeur à l’Université de Tohoku, et membre du conseil d’administration de Saint-Gobain. Mme Harayama a été membre du CSTP pendant deux ans ; c’est une spécialiste de l’économie de la science et de la technologie.

Le CSTP se compose pour moitié de personnalités scientifiques, pour l’autre moitié de ministres en exercice concernés par la recherche ; il se réunit environ tous les deux mois, sous la présidence physique effective du Premier ministre. Il s’agit quasiment d’un conseil des ministres restreint régulier, élargi à des universitaires ou des industriels reconnus.

Il assure l’élaboration, et l’évaluation au niveau de la mise en oeuvre, de grands plans quinquennaux pour la recherche, dont le premier, mis en place par une loi sur la science et la technologie de 1995, a couvert la période 1996-2000. Le CSTP a été institué en janvier 2001, et a pris en charge le deuxième plan (2001- 2005), puis le troisième (2006-2010) actuellement en cours de mise en œuvre.

Le CSTP couvre l’ensemble des domaines de recherche scientifique et technologique, et de ce point de vue, il s’inscrit plus dans une démarche du type de la « stratégie nationale de recherche et d'innovation » lancée par le Président de la République, le 22 janvier dernier, que de la très spécifique « stratégie nationale de recherche énergétique », prévue par la loi du 13 juillet 2005.

Cependant, deux enseignements peuvent être retirés de ce modèle :

- d’abord, la force d’une stratégie vient de ce qu’elle est entérinée par les plus hautes autorités de l’État. La présence du Premier Ministre au CSTP montre que les priorités de recherche inscrites dans le plan quinquennal sont pleinement entérinées par le Gouvernement japonais. A l’inverse, la « stratégie nationale de recherche énergétique » de mai 2007 se présente comme un document administratif sans portée politique. Les deux auteurs de ce document aux termes de l’article 10 de la loi du 13 juillet 2005, à savoir les ministres chargés de l’industrie et de la recherche, n’ont même pas endossé son contenu par une courte préface. Or, la loi énonce qu’ils « arrêtent et rendent public » le document, ce qui renvoie à une procédure administrative très précise, qui n’a pas été respectée. De fait, il semblerait nécessaire à vos rapporteurs que la « stratégie nationale de recherche énergétique » soit présentée et adoptée en Conseil des ministres, avant d’être publiée au Journal Officiel par arrêté conjoint des deux ministres précités ;

- ensuite, il apparaît indispensable de confier le suivi de la mise en œuvre à une instance collégiale. La loi confie d’une certaine façon cette mission à l’OPECST, car le deuxième alinéa de l’article 10 de la même loi prévoit que le Gouvernement lui présente chaque année les conclusions d’un rapport « sur les avancées technologiques résultant des recherches qui portent sur le développement des énergies renouvelables et la maîtrise de l’énergie et qui favorisent leur développement industriel ». Mais ce mécanisme n’a pas fonctionné, puisque le Gouvernement n’a pour l’heure transmis au Parlement aucun rapport répondant à cette prescription législative, bien qu’un document soit effectivement en préparation. Outre que les services concernés du Gouvernement ont été fortement mobilisés par le Grenelle de l’environnement, cette défaillance révèle sans doute un déficit de structure. Vos rapporteurs, se référant au modèle de la « Commission nationale d’évaluation » (CNE) institué puis complété par les deux lois sur la gestion des déchets radioactifs du 30 décembre 1991 et du 28 juin 200611, suggèrent qu’une commission similaire couvre le champ des nouvelles technologies de l’énergie. Dans ces domaines, comme la CNE actuelle, cette nouvelle commission serait « chargée d’évaluer annuellement l’état d’avancement des recherches et études », et cette évaluation donnerait lieu à un rapport annuel transmis au Parlement, qui en saisirait l’Office parlementaire d’évaluation des choix scientifiques et technologiques. En l’état du droit, une telle commission, composée de personnalités bénévoles peut être mise en place par le Gouvernement de sa propre initiative. Mais elle peut être aussi créée sur le modèle de la CNE par un amendement dans l’un des deux projets de loi relatifs au Grenelle de l’environnement.

Bien que cela dépasse le cadre de ce rapport, vos rapporteurs mentionnent que les mêmes observations appliquées à la « stratégie nationale de recherche et d'innovation » conduiraient assez naturellement à instituer le « Haut Conseil de la science et de la technologie » comme instance collégiale de suivi de la mise en œuvre de cette stratégie de portée plus générale. Le « Haut conseil » est déjà chargé, en vertu de l’article 1er de la loi de programme no 2006-450 du 18 avril 2006 pour la recherche « d’éclairer le Président de la République et le Gouvernement sur toutes les questions relatives aux grandes orientations de la Nation en matière de politique de recherche scientifique, de transfert de technologie et d’innovation. »

En vertu du principe selon lequel un régime spécifique s’applique par priorité sur un régime général, les deux structures de la « stratégie nationale de recherche et d'innovation » et de la « stratégie nationale de recherche énergétique » devraient s’emboîter et se compléter sans difficulté.

► S’agissant de la mise en place de coordinateurs opérationnels, qui rendraient compte de leur action devant l’une ou l’autre des deux « Commissions nationales d’évaluation », et en tant que de besoin, devant l’OPECST, les leçons de l’expérience japonaise confirment qu’ils ne doivent pas être :

- ni trop nombreux, sauf à prendre le risque que leur multiplication finisse par soulever des difficultés de mise en cohérence de leurs actions ;

- ni trop faibles, car ils ont justement pour rôle de transcender les clivages des structures ministérielles déjà en place.

En même temps, une position trop forte des coordinateurs risque d’introduire des rigidités nouvelles dans le dispositif de gestion de la recherche, en activant des mécanismes de « maximisation du pouvoir » ou de « capture par des intérêts privés », bien identifiés depuis le début des années 60 par les analyses économiques de l’école du Public Choice. Selon Mme Harayama, le CSTP doit d’ores et déjà faire face, alors que le Japon n’en est qu’à la mise en œuvre de son troisième plan quinquennal sur la recherche, à certains « goulots d’étranglement » institutionnels de cette nature.

Aussi vos rapporteurs préconisent-ils, pour l’instauration de coordinateurs, la simple désignation officielle de chefs de file parmi les partenaires des programmes de recherche. Cette reconnaissance officielle leur confèrerait un droit et un devoir de réorienter les efforts, s’ils constatent une dérive par rapport aux objectifs. En même temps, leur position d’acteurs de la coopération éviterait la création d’une structure transversale nouvelle risquant à terme de se rigidifier. C’est le modèle romain du « Primus inter pares », qui évite les écueils à la fois de la dispersion et de la tyrannie.

Le coordinateur peut d’ailleurs être en ce cas un établissement public : vos rapporteurs expliqueront dans la seconde partie de ce rapport, s’agissant par exemple des recherches sur la transmutation et les réacteurs de quatrième génération, qu’ils souhaitent voir le CEA placé très officiellement dans cette position.

3. La participation aux programmes internationaux

Globalement, le Grenelle de l’environnement présente un angle aveugle dont on peut considérer qu’il est inhérent à son principe même : dans la mesure où son objet est une mobilisation « nationale », la remise en perspective des efforts à accomplir dans le cadre de la coopération communautaire et internationale est un peu oubliée.

Certes, toute la démarche s’inscrit dans le respect des objectifs de l’Accord de Kyoto.

Mais, en bout de chaîne, au niveau de la déclinaison législative, les choses ne sont déjà plus si claires quand il s’agit par exemple du chauffage des bâtiments, au point que les députés ont éprouvé le besoin de réaffirmer le critère de la diminution des émissions de gaz à effet de serre dans la définition des normes de basse consommation d’énergie posée par le projet de loi de programme relatif à la mise en œuvre du Grenelle de l’environnement.

En outre, la position du Comité opérationnel sur la recherche relative au captage et stockage du gaz carbonique, consistant à justifier l’implication de la France dans les technologies correspondantes en y voyant un « marché potentiel à l’export », entretient une certaine confusion entre l’engagement humanitaire désintéressé, et le soutien commercial sectoriel, alors même que l’élimination directe du gaz carbonique participe sans ambiguïté de la lutte contre le changement climatique. A cet égard, la mention d’une participation déterminée à l’effort communautaire paraîtrait plus appropriée.

Vos rapporteurs voient un intérêt à resituer les objectifs de la politique de l’énergie par rapport à la coopération européenne et internationale, car cette approche permet d’établir une échelle de référence pour l’effort national à fournir. L’idée d’opérer une gradation dans les priorités en prenant en compte la dimension internationale a déjà été utilisée par le rapport Chambolle, qui distinguait les domaines où la France devait viser une position de « leader », de ceux où elle ne pouvait ambitionner qu’une position de « suiveur ».

Reprenant les analyses de Raymond Leban présentées au cours de son audition du 10 avril 2008, vos rapporteurs préconisent une échelle de priorités à quatre degrés, qui revient en quelque sorte à décliner sur deux niveaux la position de « suiveur » :

1. le soutien national pour assurer une position de leader mondial ;

2. la participation à l’effort européen ;

3. la participation à la coopération internationale ;

4. le maintien d’une veille technologique.

L’idée sous-jacente à la distinction entre la coopération internationale et l’effort européen est que le second est plus exigeant en termes d’investissement, dans la mesure où les programmes européens visent généralement à hisser l’Europe au premier rang mondial dans le domaine concerné. La notion d’effort « européen » permet du reste de couvrir la participation à différents types de structures :

- d’un côté, les programmes communautaires proprement dits, du type du « SET Plan », conçu et piloté par la Commission européenne ;

- de l’autre, les partenariats ad hoc entre certains membres de la Communauté européenne, dont Airbus et Ariane sont les modèles les plus en vue, mais qui sont nombreux aussi dans l’énergie nucléaire : Eurotrans12, par exemple, pour la recherche sur la transmutation utilisant un réacteur piloté par un accélérateur de particules.

A cet égard, vos rapporteurs, reprenant une remarque du rapport Chambolle (p.70), regrettent l’éclipse des projets Eureka, qui permettent une collaboration entre les États membres permettant de trouver un équilibre entre la volonté de l’effort collectif et le souci des retombées nationales, puisque le partage des tâches y est d’emblée conçu de manière à ce que chaque État membre puisse retirer un avantage économique direct, en termes d’emploi notamment, de sa contribution. Le rapport Chambolle avait pertinemment suggéré que cette forme de coopération, construite sur un mode « bottom-up », puisse bénéficier d’une aide budgétaire de la Communauté européenne en tant que telle. Ils sont en général plus efficaces que les programmes communautaires proprement dits, conçus quant à eux sur le mode « top-down », et souvent encombrés pour cette raison de subtils équilibres diplomatiques.

La fixation d’un niveau de « veille technologique » correspond au choix de ne pas faire disparaître totalement une compétence, dans le cas où les progrès de la science la remettraient en valeur. Dans le cadre de l’élaboration d’une stratégie, la question se pose en effet de déterminer des domaines devant être placés en retrait, afin de pouvoir dégager les ressources nécessaires au soutien des domaines identifiés au contraire comme prioritaires.

S’il est clair que, d’un côté, un petit pays comme la Finlande doit faire des choix négatifs pour cibler son soutien public sur les domaines de recherche garantissant son avenir économique, et que, de l’autre, les États-Unis, plus grande puissance économique du monde, ont les moyens d’une recherche tous azimuts, la France, puissance de taille intermédiaire, doit trouver un équilibre entre ces deux modèles. Dans la mesure où le modèle américain correspond à un certain gaspillage de ressources, car la couverture exhaustive des différents domaines de recherche s’accompagne de la coexistence de laboratoires intervenant quasiment en concurrence dans certains périmètres13, le « calage » de la France sur une couverture large, mais avec un minimum de doublon et une modulation du soutien en fonction des domaines concernés, peut se justifier.

Comme cela a déjà été observé précédemment, le Comité opérationnel sur la recherche du Grenelle de l’environnement a déjà utilisé le niveau de la « veille technologique » pour affiner l’ordre des priorités de la stratégie qu’il a proposée.

En pratique, les domaines classés comme relevant de la « veille technologique » vont simplement dépendre pour leur financement des mécanismes de sélection de l’Agence nationale de la recherche. A l’inverse, les domaines de recherche faisant l’objet d’une priorité nationale doivent être :

- financés par une structure de financement pérenne, typiquement à travers une prise en charge budgétaire répartie entre les établissements publics de recherche, selon la nature de leur implication ;

- pilotés par un coordinateur, répondant aux critères définis précédemment, dont la responsabilité est clairement et officiellement identifiée.

Les domaines relevant de l’effort européen ou de la coopération internationale bénéficient d’un soutien défini par l’accord politique servant de support au programme concerné, généralement plus ou moins proportionné à la contribution des autres États participants.

*

* *

Pour conclure l’analyse sur la forme du rapport de mai 2007, il s’agit d’un document qui s’efforce certes de répondre à la demande du législateur, mais sans se hausser au niveau de ce qu’on pourrait attendre d’une « stratégie » : les axes prioritaires proposés ne sont pas justifiés, pas hiérarchisés, pas endossés par l’autorité politique ; les points d’appui pour un ajustement de l’allocation budgétaire font défaut. Une présentation et une adoption en Conseil des ministres auraient dû s’imposer comme un formalisme adéquat pour un document d’une telle importance.

Quant à la mise en œuvre de la stratégie, elle nécessite des instances de pilotage que vos rapporteurs veulent légères pour qu’elles restent efficaces : d’un côté, une Commission nationale d’évaluation des nouvelles technologies de l’énergie, inspirée de celle qui a fait ses preuves depuis deux décennies dans le domaine nucléaire ; de l’autre, des coordinateurs officiels désignés, selon le modèle du « primus inter pares », parmi les partenaires de recherche.

L’articulation des recherches publique et privée peut difficilement se concevoir au niveau d’une planification générale ; elle peut en revanche se mettre en place au niveau opérationnel, programme par programme, dès lors que l’État se montre capable d’engager des politiques claires et fortes sur certains axes prioritaires. Un bilan consolidé des moyens engagés, respectivement par l’État et les entreprises, devrait pouvoir être établi a posteriori, pour servir d’indicateur de l’effet d’entraînement de l’effort public de recherche.

II. LE FOND DE LA STRATÉGIE

Une démarche d’évaluation d’une « stratégie » peut difficilement s’abstenir d’une appréciation sur le fond, même si son objet principal vise surtout à déterminer si cette « stratégie » respecte bien certains principes de choix et de prospective, ainsi que les lignes directrices prévues par la loi ayant voulu son élaboration.

Le tableau suivant donne une idée de la répartition moyenne de l’effort de recherche français en énergie au cours des dernières années, réprésentant un montant total de près de 800 millions d’euros :

DÉPENSE PUBLIQUE DE RECHERCHE EN ÉNERGIE

(2006, en millions d’euros constants)

Energie nucléaire 

477

Hydrocarbures fossiles 

106

Efficacité énergétique 

69

Pile à combustible 

53

Energies renouvelables 

52

dont Energie solaire 

26

Biomasse 

21

Energie éolienne 

2

Géothermie 

2

Captage et stockage du CO2

26

Technologies transverses 

12

Stockage de l’énergie 

2

TOTAL

797

Source : DGEMP / SOeS

Sur le fond, les données stratégiques se présentent différemment selon qu’elles concernent la recherche sur les technologies établies, s’appuyant déjà sur des secteurs industriels puissants, ou la recherche sur les technologies nouvelles, concernant des domaines d’industrialisation en devenir. Dans le premier cas, l’adaptation de la stratégie concerne des nuances. Dans le second cas, il s’agit véritablement de marquer des orientations.

A. LES TECHNOLOGIES ÉTABLIES

Le troisième alinéa de l’article 5 de la loi du 13 juillet 2005 est très clair quant à la nécessité de poursuivre un effort prioritaire dans les domaines nucléaire et pétrolier : « La politique de recherche doit permettre à la France d’ici à 2015, d’une part, de conserver sa position de premier plan dans le domaine de l’énergie nucléaire et du pétrole et, d’autre part, d’en acquérir une dans de nouveaux domaines ».

Le rapport sur la stratégie énergétique fait donc logiquement une bonne place aux efforts devant être conduits dans ces deux domaines, et vos rapporteurs n’ont que des nuances à formuler quant aux modalités de la recherche qui y sont conduites.

1. La recherche sur l’énergie nucléaire

La recherche dans le domaine nucléaire est structurée au niveau législatif depuis la loi « Bataille » du 30 décembre 1991, actualisée par la loi du 28 juin 2006, dont Claude Birraux a été rapporteur à l’Assemblée nationale. C’est dire si, d’une part, ce domaine a déjà fait l’objet de débats approfondis quant aux priorités de la recherche, et d’autre part, si vos rapporteurs le connaissent et le suivent de près.

a) Les axes législatifs

La structuration de l’effort de recherche s’organise en ce domaine, en France, à partir de la gestion des déchets nucléaires. Trois axes ont été retenus, fixés par la loi du 30 décembre 1991 et confirmés par la loi du 28 juin 2006 :

1. La séparation et la transmutation des éléments radioactifs à vie longue ;

2. Le stockage réversible en couche géologique profonde ;

3. L’entreposage.

Les recherches sur la séparation et la transmutation des éléments radioactifs à vie longue visent à l’élimination des déchets de haute activité en les utilisant comme combustibles. Elles conduisent, s’agissant de la transmutation, à poursuivre deux voies :

- d’une part, les nouvelles générations de réacteurs nucléaires mentionnées par l’article 5 de la loi du 13 juillet 2005 (quatrième génération) ;

- d’autre part, les réacteurs pilotés par accélérateur, dédiés à la transmutation des déchets (Accelerator Driven Reactor – ADS).

L’objectif est de disposer, en 2012, d’une évaluation des perspectives industrielles de ces filières et de mettre en exploitation un prototype d’installation avant le 31 décembre 2020.

Ces recherches sur la quatrième génération entrent dans le cadre d’un effort international (Gen IV International Forum – GIF) initié en 2000 par le Département de l’énergie américain, auquel la France participe avec la Russie, le Japon, la Chine, la Corée du Sud, le Canada, le Brésil, l’Argentine, la Suisse, le Royaume-Uni, l’Euratom.

Parmi les pistes technologiques explorées, la plus avancée est celle du réacteur rapide refroidi au sodium liquide, car elle a fait l’objet d’une première expérience réussie en 1951 avec le réacteur américain EBR1. En France, le même résultat a été obtenu avec le réacteur Rapsodie, en 1967. Cette piste correspond à l’une des formes de la surgénération, qui visent à produire plus de matières fissiles qu’il n’en est consommé. Les réacteurs Phénix mis en service en 1973, et Superphénix mis en service en 1985 et arrêté en 1998, ont contribué aux recherches dans cette voie.

A côté des recherches sur les déchets nucléaires et les réacteurs de quatrième génération, l’article 5 de la loi du 13 juillet 2005 mentionne le soutien du programme ITER (International Thermonuclear Experimental Reactor), qui vise à la production d’énergie par la fusion nucléaire. Le deutérium et le tritium transformés en un plasma porté à cent millions de degré produisent des atomes d’hélium et une énergie supérieure à celle mobilisée pour le chauffage du plasma. Un réacteur expérimental est en construction à Cadarache depuis début 2007 sous l’égide de l’organisation internationale éponyme, regroupant l’Union européenne, les États-Unis, le Japon, la Russie, la Chine, la Corée du Sud et l’Inde. M. Claude Birraux était rapporteur à l’Assemblée nationale de la loi du 13 février 2008 autorisant l’accord de siège entre la France et ITER.

b) Les inflexions souhaitables

S’agissant de la stratégie de gestion des déchets radioactifs, un suivi régulier en est assuré par l’OPECST, à travers l’audition de la Commission nationale d’évaluation (CNE) instituée par la loi du 30 décembre 1991 et renforcée par la loi du 28 juin 2006. Chaque année, la CNE procède à l’évaluation de « l’état d’avancement des recherches et études relatives à la gestion des matières et des déchets radioactifs », et transmet son rapport au Parlement qui en saisit l’OPECST. Celui-ci auditionne la CNE, sitôt son rapport rendu public.

Vos deux rapporteurs sont donc parfaitement au fait des développements de la recherche sur les trois axes autour desquels s’organise la stratégie de gestion des déchets radioactifs.

M. Christian Bataille préside en outre, depuis novembre 2007, le Comité local d’information et de suivi (CLIS) chargé auprès du laboratoire souterrain de Bure, en vertu de l’article 18 de la loi du 28 juin 2006, « d’une mission générale de suivi, d’information et de concertation en matière de recherche sur la gestion des déchets radioactifs ».

Leurs principales remarques pouvant enrichir le volet nucléaire de la stratégie de recherche en énergie concernent les points suivants :

La désignation de chefs de file

La responsabilité du management de la recherche sur chacun des trois axes mérite d’être précisée, car seule celle relative au stockage réversible appartient clairement à l’ANDRA. Il s’agit de désigner officiellement, pour chaque axe, des « coordinateurs », tels que définis précédemment. S’agissant des recherches sur la séparation et la transmutation, la CNE adresse des recommandations à la cantonade, montrant par là qu’en ce domaine la responsabilité n’est pas bien définie. Il s’agirait officiellement de confirmer la position prééminente du CEA, avec un pouvoir d’orienter l’effort de recherche conduit par les autres partenaires (CNRS, Areva). Par ailleurs, les recherches sur l’entreposage posent une difficulté de coordination entre les différents acteurs de la gestion des déchets, et une responsabilité claire à cet égard doit être confiée à l’un d’eux ; l’ANDRA, située au bout de la chaîne de traitement, est la mieux placée.

L’évaluation des recherches de Tournemire

Des recherches sur le stockage des déchets radioactifs sont poursuivies par l’IRSN dans le tunnel de Tournemire, au Sud de l’Aveyron, sans aucune coordination avec le reste des acteurs français. Ces recherches concernant le stockage dans l’argile ont pu avoir un intérêt jusque dans les années 90 tant que le choix entre différentes solutions de couches géologiques (argile, granit, sel) restait ouvert, mais perdent leur sens depuis que le laboratoire de Bure est ouvert, car c’est la connaissance de la couche d’argile de Bure, et non celle d’un lieu distant de plusieurs centaines de kilomètres qu’il importe désormais d’approfondir dans la perspective de créer un site de stockage. A tout le moins, l’IRSN devrait soumettre les résultats obtenus à l’évaluation par la CNE, conformément à ce que prévoit l’article 9 de la loi du 28 juin 2006.

Le rôle crucial de la séparation

S’agissant des recherches sur la transmutation, il convient d’insister sur le fait que leur finalité première, aux yeux du législateur, réside dans le brûlage de tous les actinides mineurs (neptunium, américium, curium), et non pas uniquement du plutonium. Les réacteurs de quatrième génération doivent fournir une solution pour l’élimination des déchets de haute activité, et non pas seulement élargir les ressources en combustibles par le brûlage du seul plutonium. A cet égard, les recherches sur la séparation, conduites notamment au laboratoire Atalante de centre du CEA de Marcoule, et qui visent à isoler les actinides mineurs au sein des combustibles usés, en vue de les exposer eux aussi à un bombardement neutronique devant assurer leur transmutation, constituent un axe fondamental de la stratégie de gestion des déchets radioactifs, et doivent en conséquence bénéficier de toutes les ressources nécessaires à leur avancée la plus rapide possible.

Le rappel de cette finalité première est essentiel à l’heure de la montée en puissance de la logique marchande dans la gestion managériale des acteurs industriels producteurs de déchets radioactifs, privatisés sinon déjà entièrement privés (EDF, Areva aujourd’hui, GDF-Suez demain), car ceux-ci peuvent être progressivement enclins à considérer leur rôle comme se limitant à fournir de l’énergie, en n’internalisant pas jusqu’au bout toutes les préoccupations d’une gestion complète de l’aval du cycle, et en interprétant de façon restrictive les contraintes imposées par la collectivité publique à cet égard.

La clôture du chantier « Superphénix »

Les recherches sur la transmutation supposent des expérimentations d’exposition à des sources neutroniques, et l’arrêt programmé du réacteur Phénix en 2009 va priver la France du seul outil dont elle dispose à cet égard, rendant la poursuite des travaux français tributaire de l’accès en coopération aux surgénérateurs russe (Beloïarsk) et indien (Kalpakkam). D’où l’idée parfois évoquée de remettre en service le réacteur Superphénix, arrêté depuis 1998.

Les cas de l’interruption en 1985, puis de la reprise en 2007, après des travaux de restauration, du réacteur n°1 de Browns Ferry aux États-Unis (Alabama), suivi de la reprise la même année du chantier du réacteur n°2 de Watts Bar (Tennessee), interrompu en 1985 alors qu’il était achevé à 60%, semblent montrer la voix. En théorie, la partie essentielle de l’installation de Superphénix demeure en place car, si la salle des machines est d’ores et déjà démantelée, la vidange du sodium n’a pas encore commencé. Une ligne électrique spéciale de 20 000 volts permet de maintenir le métal en fusion, le chauffage étant désormais assuré par un dispositif soudé à la cuve de sécurité, et non plus par les pompes primaires.

Mais des dispositions ont déjà été prises pour favoriser la vidange du sodium primaire, via le percement de trous dans les structures internes. En outre, les soudures effectuées sur la cuve de sécurité ont probablement altéré les propriétés mécaniques de celle-ci ; la mise en eau de tous les assemblages de combustibles les a rendu inutilisables, puisqu’inaptes à toute immersion dans le sodium ; enfin, l’arrêt de l’atelier de fabrication des combustibles à Cadarache est devenu lui-même irréversible pour des raisons de sûreté.

Dans ces conditions, la possibilité d’obtenir une autorisation par l’Autorité de Sûreté nucléaire d’une remise en exploitation paraît hautement improbable, car il faudrait :

1°) revenir au dessin de construction, ce qui supposerait des réparations dont la faisabilité et la durée seraient très incertaines ; du reste, les compétences nécessaires ont été dispersées et seraient préalablement à recréer ;

2°) démontrer ensuite que l’installation satisfait de nouveau aux conditions de sûreté prévues initialement. Or, ceci ne serait même pas suffisant, car les exigences en ce domaine ont été relevées depuis l’époque de la conception de Superphénix, entre 1965 et 1975 ; et l’Autorité de Sûreté nucléaire alignerait évidemment ses contrôles sur ceux effectués aujourd’hui sur les projets de réacteurs de génération 3.

Ainsi, à tous points de vue (délai, risque de projet, mobilisation des compétences, préparation de l’avenir), il apparaît nettement préférable de concentrer les moyens financiers et humains disponibles sur la réalisation et la mise en exploitation d’ici 2020, conformément à l’objectif fixé par l’article 3 de la loi du 28 juin 2006, d’un prototype de nature à ouvrir la voie vers la filière de quatrième génération, plutôt que de s’aventurer dans le chemin très improbable d’un redémarrage de Superphénix. M. Alain Bucaille, directeur de la recherche et de l’innovation d’Areva, s’est très clairement rallié à ce point de vue, lors de son audition du 5 juin 2008.

2. La recherche pétrolière

Bien que dépourvue de ressources hydrocarbures fossiles, la France a su construire au fil des décennies une industrie parapétrolière au niveau des premiers rangs mondiaux, lui permettant de sécuriser pour partie ses approvisionnements. Comme le précise l'article 5 de la loi du 13 juillet 2005, il n'y a pas de doute que l'effort de recherche dans ce domaine doit être maintenu pour préserver cette position. Vos rapporteurs souhaitent seulement attirer l'attention sur la nécessité d'apporter plus de lisibilité sur les conditions dans lesquelles l'État veille, selon les termes du même article : "à assurer une meilleure articulation de l’action des organismes publics de recherche et à organiser une plus grande implication du secteur privé."

a) Une position de premier plan

La création en 1924, sous le nom de Compagnie française de pétrole (CFP), d'une société d'économie mixte chargée de gérer les champs de pétrole irakiens reçus au titre des dommages de guerre, suivie de celle, en 1939, de la Régie autonome des pétroles (RAP), pour exploiter les gisements de gaz découverts en Haute-Garonne, ont donné lieu à la naissance respectivement des groupes Total et Elf, fusionnés en 2003 sous le seul nom de Total, aujourd'hui cinquième groupe pétrolier du monde derrière les américains Exxon Mobil et Chevron Texaco, le Néerlandais Shell, et le britannique BP.

Parallèlement, l’initiative des deux frères Schlumberger, Alsaciens ayant fondé la Société de prospection électrique en 1926, dont le siège social a été déplacé aux États-Unis, à Houston, en 1940, a assuré l’éclosion de tout un chapelet de sociétés spécialisées dans les techniques pétrolières, au premier rang mondial desquels se trouvent aujourd’hui la compagnie française CGG-Veritas pour les services d'exploration géophysique, et sa filiale Sercel pour les équipements de détection géophysique. Quant au groupe Schlumberger, il est encore partiellement français, même si son siège reste aux États-Unis : il est environ dix fois plus gros que le groupe CGG-Veritas, et couvre l’ensemble des technologies dites « des services pétroliers ». Il est le numéro  2 mondial dans le domaine de la géophysique via sa filiale WesternGeco.

L'Institut français du pétrole, organisme de recherche créé en 1944, a reçu dès l'origine une mission de valorisation du résultat de ses travaux, qu'il l'a conduit à mener à bien l'essaimage d'un certain nombre d'entreprises qui jouent aujourd'hui un rôle de premier plan sur leur segment de marché. La plus ancienne, Technip, créée en 1958, emploie aujourd'hui 21 000 personnes, et occupe le 5ème rang mondial dans le domaine de l'ingénierie et de la construction d'installations pour l'industrie des hydrocarbures. La société Beicip-Franlab a résulté de la fusion, en 1992, de deux entreprises créées par l'IFP respectivement en 1960 et en 1967; société de conseil et d'études disposant de plus de 200 experts, elle intervient dans plus de 100 pays pour plus de 500 compagnies pétrolières ou institutions, et édite des logiciels de modélisation et de simulation de réservoirs d'hydrocarbures (Athos, Temis, Dionisos) mondialement reconnus. Axens, issue par fusion en 2001 de la direction industrielle de l'IFP et de sa filiale Protacalyse SA créée en 1959, est aujourd'hui l'un des leaders mondiaux des technologies de raffinage et catalyseurs pour la production de carburants propres ; la société commercialise notamment un procédé de raffinage considéré comme la référence pour la production d'essence propre dans le monde.

L'industrie parapétrolière française fait régulièrement l'objet d'une étude préparée par la direction des études économiques de l'IFP, dont la dernière en date couvre l'année 2008. Il en ressort que cette industrie concerne environ 600 entreprises en France ; elle est assez concentrée puisque plus de 90 % du chiffre d'affaires total est réalisé par de grandes entreprises faisant un chiffre d'affaires supérieur à 150 millions d'euros ; elle est massivement orientée vers l'étranger puisque plus de 90 % du même chiffre d'affaires total est réalisé hors du territoire français, avec néanmoins une extraversion moins marquée, inférieure à 55 %, pour les sociétés de moins de 150 millions de chiffre d'affaires ; elle emploie près de 70 000 personnes au total, dont près de 40 % travaillent off shore.

Mais ce n'est pas seulement la réussite sur les marchés internationaux qui a couronné l'effort de long terme du secteur pétrolier français ; le prix Nobel de Chimie décerné en 2005 à Yves Chauvin, ancien ingénieur et directeur de recherche à l'IFP de 1960 à 1985, pour le développement de la "métathèse", procédé de synthèse utilisé quotidiennement dans l'industrie des produits pharmaceutiques et des matériaux plastiques, a montré que toute la filière fonctionnait au meilleur niveau mondial, depuis la recherche fondamentale jusqu'à la mise en oeuvre industrielle.

La France se trouve ainsi, vis à vis des ressources fossiles d'hydrocarbures, dans un schéma similaire à celui du Japon, qui a historiquement compensé son manque de ressources naturelles par la force de son industrie, en constituant la deuxième pétrochimie et la troisième capacité de raffinage pétrolière du monde. On retrouve dans cette similitude de situation l'illustration d'une remarque de Friedrich List dans son ouvrage de 1857 (Le système national d'économie politique) : "C'est la stimulation et la promotion de l'activité intellectuelle, de l'esprit de découverte et du savoir, de la qualification et de la compétence qui sont à la source d'une énergie et d'une force que ne peuvent remplacer les ressources naturelles".

b) Une stratégie cohérente

La stratégie suivie dans ce secteur est dominée par la perspective de la raréfaction progressive, d'ici la fin du siècle, par delà le fameux "pic de Hubbert", des ressources de pétrole et de gaz, accélérée par la croissance très forte de la demande mondiale d'énergie, notamment tirée par la hausse rapide du niveau de vie dans les nouveaux pays industriels. Elle consiste à gagner du temps pour le développement des technologies de substitution, en repoussant autant qu'économiquement possible les limites physiques de l'exploitation des gisements. Elle consiste aussi à préparer l'utilisation de nouveaux carburants dans les moyens de transport.

Cette stratégie demeure ainsi cohérente avec l'objectif du secteur pétrolier français, très dépendant des marchés internationaux, de se trouver en bonne position pour répondre aux évolutions de la demande mondiale.

Elle se trouve résumée par les cinq axes fixés par le contrat d'objectifs de l'IFP pour la période 2006-2010, signé en février 200714 :

- contribuer à une meilleure mise en valeur des ressources pétrolières, notamment par des travaux sur l'évaluation du potentiel pétrolier des gisements et sur les technologies de production offshore (« Réserves prolongées ») ;

- contribuer à l'adaptation du raffinage aux exigences réglementaires et aux évolutions du marché des carburants (« Raffinage propre ») ;

- encourager l'émergence d'alternatives au moteur à combustion à carburants fossiles par ses travaux sur les motorisations et sur les carburants ("Véhicules autonomes ») ;

- contribuer à la diversification des sources d'énergie, notamment par ses travaux sur les procédés de synthèse de carburants et sur les technologies de production d'hydrogène (« Carburants diversifiés ») ;

- contribuer à l'effort de recherche international sur les procédés de captage, de transport et de stockage géologique du CO2 (« CO2 maîtrisé »).

Ces cinq axes s'inscrivent assez logiquement dans la lignée de ce qui fait la force, depuis cinquante ans, de la recherche pétrolière française, en marquant néanmoins une volonté de rééquilibrage au profit des questions touchant à la transformation et à l'utilisation de l'énergie, plus particulièrement en ce qui concerne les moteurs et les carburants.

Une visite par une délégation de l’OPECST du centre de l’IFP de Lyon, le 4 décembre 2008, a permis de constater l’adéquation des travaux conduits dans les laboratoires avec ces objectifs stratégiques, dans l’esprit comme dans la mise en œuvre.

Cependant vos rapporteurs souhaitent attirer l'attention sur trois points :

- les travaux sur les procédés de captage, de transport et de stockage géologique du CO2 doivent prendre la forme, selon le contrat d'objectifs, d'une contribution à l'effort de recherche international; telle n'est pas la manière dont l'investissement français dans ce domaine est souvent présenté par les parties prenantes; cette différence sera analysée plus loin ;

- le contrat d’objectifs cite, au titre de la recherche exploratoire, la voie de la valorisation chimique du CO2 (p.43). L’effort effectué dans ce domaine mérite d’être mieux mis en valeur, dans la mesure où il s’agit d’une solution complémentaire au stockage ;

- les missions de l'IFP devraient probablement prévoir un effort d'ouverture plus large à certains domaines technologiques nouveaux, sortant du cercle du pétrole et des moteurs, où néanmoins une expérience dans l'élaboration de procédés chimiques industriels serait potentiellement utile.

Vos rapporteurs ont connaissance que les compétences développées par l’IFP dans les géosciences et les techniques de dépollution vont l’amener à poursuivre un investissement technologique déjà engagé vers le domaine de l’eau, pour la gestion des aquifères, la gestion des eaux de production, la gestion des eaux industrielles.

En outre, l’IFP envisage d’ores et déjà une diversification scientifique vers la photochimie et l'électrochimie appliquées à la conversion et au stockage de l'énergie, ensemble d’activités qui intègrent la photodissociation de l'eau, le stockage d'électricité sous forme de composés chimiques liquides, et l'amélioration des batteries par la mise au point d’électrolytes à base de liquides ioniques gélifiés.

Vos rapporteurs suggèrent que cette diversification au fond intègre, après évaluation par l’IFP, un soutien futur éventuel à la valorisation industrielle de deux domaines scientifiques connexes, encore orphelins du point de vue de leur déclinaison économique : d'une part, l'électronique organique, visant à exploiter l'électroluminescence ou l'effet photoélectrique de certains composants organiques ; d'autre part, la chimie des polymères sans carbone (géopolymères) mise à jour par le professeur Joseph Davidovits, dans les années 70, à des fins d'ignifugeage des matériaux de la vie courante, et qui prend une signification nouvelle avec le besoin de trouver à terme un substitut aux matières plastiques d'origine pétrolière.

c) Un dynamisme technologique méconnu

Cependant, il est une dimension de la recherche dans ce secteur qui mérite une amélioration sensible, c'est la communication autour des efforts engagés et des résultats obtenus. Car la seule information venant de ce secteur qui émerge du flux médiatique est le montant du bénéfice de Total, qui dépasse depuis trois ans 12 milliards d'euros, suscitant des interrogations quant à l'origine et à l'emploi de cette somme.

Au cours des débats budgétaires, la question s'est même posée explicitement de la justification, dans le cadre du programme 188, d'une dotation publique de plus de 100 millions d'euros pour la recherche sur les hydrocarbures, alors que l'entreprise qui en semble le destinataire principal paraît disposer de toutes les ressources nécessaires à la poursuite de ses propres efforts de recherche. Ainsi, lors de la discussion de la loi de finances pour 2008, la commission des finances du Sénat a fait adopter, le 7 décembre 2007, un amendement diminuant de 3 millions d’euros les crédits du programme 188. Son rapporteur spécial, M. Philippe Adnot a expliqué que : « Les sociétés pétrolières, à l'heure actuelle, peuvent parfaitement dégager des crédits pour aider l'IFP à conduire et à améliorer ses recherches en profondeur. [Par ailleurs] le déplafonnement du crédit d'impôt recherche servira essentiellement aux très grandes entreprises pétrolières et les fonds qu'elles pourront lever à cette occasion seront très supérieurs aux prélèvements opérés. ». Le président de la commission, M. Jean Arthuis, a lancé « un appel à la responsabilité, à l'engagement des entreprises, notamment dans le secteur du pétrole et du gaz ».

Il convient à cet égard de signaler deux effets d'optique et un manque institutionnel.

Le premier effet d'optique tient en ce que la dotation publique en question correspond au produit d'une ancienne redevance sur les carburants, taxe parafiscale à l’assiette calée sur la TIPP et la TICGN15, dont le produit était identifié jusqu’à fin 2002 au sein d’un compte d’affectation spéciale, le « Fonds de soutien aux hydrocarbures » (FSH). Ce compte d’affectation a été alors supprimé, le circuit de financement étant budgétisé. L’opération était neutre, voire profitable à terme pour l’État qui a compensé la disparition de la redevance affectée par un relèvement de la TIPP, augmentant d’autant le produit des recettes générales, tandis que la dotation budgétaire compensatrice, initialement de 200 millions d’euros, n’a cessé de diminuer ensuite pour représenter 117 millions d’euros dans le budget pour 2009. Cette budgétisation a fait disparaître la réalité d’un financement autonome de la recherche sur les hydrocarbures pour en faire juridiquement une charge publique.

Or, l’analyse de cette charge ne doit pas omettre de prendre en compte, outre ce contexte historique, deux autres éléments importants :

- d’une part, le destinataire de la dotation publique, l’IFP, ne cesse d’augmenter ses ressources propres, résultant pour l’essentiel des rémunérations de ses prestations sur contrats, du paiement des redevances d’utilisation de ses brevets, et du versement des dividendes par ses filiales. Ces ressources propres progressent en tendance de 7% par an depuis 2001, jusqu’à représenter aujourd’hui 45% du montant des ressources totales de l’établissement ; par conséquent, la recherche pétrolière continue d’une autre manière à ne pas dépendre exclusivement des crédits publics ;

- d’autre part, en application notamment des recommandations du rapport Chambolle de juin 2004, le champ des recherches couvert par la dotation publique ne cesse de s’élargir, au point qu’un tiers seulement de cette dotation est dédié effectivement aux recherches sur les hydrocarbures, selon deux axes stratégiques fixés par le contrat d’objectifs : le « raffinage propre » (13%) et les « réserves prolongées » (21%). Deux tiers de la subvention publique servent donc à développer des travaux relevant des nouvelles technologies de l’énergie : « CO2 maîtrisé », et surtout « Carburants diversifiés » et « Véhicules autonomes ». L’IFP fait notamment partie depuis 2006 du réseau des Instituts Carnot au titre de ses activités dans le domaine des moteurs et des carburants pour le transport.

Le second effet d'optique résulte de ce qu'un groupe international comme Total, qui mène beaucoup de projets en partenariats avec des entreprises et des États étrangers, doit fréquemment intégrer ses frais de recherche aux coûts d'exploitation, car ses interlocuteurs ne souhaitent pas contribuer explicitement à de tels frais. De fait, la mise en place d'une exploitation off-shore à des profondeurs sous l'eau inégalées jusque là, ou la mise au point d'un procédé de traitement de schistes bitumineux, intègrent de facto une part de R&D.

M. Pierre-René Bauquis, membre du comité de pilotage, qui a dirigé plusieurs filiales de Total au cours de sa carrière professionnelle, a expliqué aux rapporteurs que le montant des frais de recherche, évalué dans le strict respect de la réglementation, pouvait varier du simple au quadruple, selon la méthode comptable retenue. Le directeur général de Total, M. Christophe de Margerie, a d’ailleurs confirmé cette analyse, le 4 juin 2008, lors d’une audition conjointe, à l’Assemblée nationale, par les deux Commissions des affaires économiques et des finances : « Total consacre environ 1 milliard de dollars à la recherche et au développement, soit une hausse de 20 % en un an, sans compter le 1,8 milliard dépensé dans l’exploration pétro-gazière. Sur le plan comptable, cette seconde somme est passée en investissement, mais il s’agit bien, dans de nombreux cas, de recherche appliquée ; elle augmente de 300 à 400 millions de dollars par an, pour faire face à des défis de plus en plus complexes, en mer profonde ou ailleurs. ».

Le manque institutionnel résulte de la disparition, concomitante de celle du FSH, du Comité des Programmes d'Exploration-Production (COPREP), organe consultatif qui assurait le pilotage du FSH16, à travers l’élaboration d’un plan pluriannuel fixant les orientations stratégiques de la R&D du secteur, en donnant des avis sur les projets candidats à une aide et en assurant un suivi technique détaillé des projets soutenus. Il matérialisait la mobilisation d'un soutien public au profit des PME du secteur parapétrolier, sous le contrôle combiné de l'État, de l'IFP et des grandes entreprises du secteur. L’aide pouvait atteindre 50% du montant de l’investissement, et prenait la forme d’une avance remboursable en cas de succès.

Un « Réseau de recherche sur les technologies pétrolières et gazières » (RTPG) a été créé pour prendre la succession du COPREP, distribuant le même type d’aide, mais avec des moyens d’emblée plus restreints de suivi des projets, notamment s’agissant de l’implication des professionnels du secteur. Il vise comme son prédécesseur à encourager une diffusion de la technologie à destination des sociétés parapétrolières, en particulier des PME. Les rapports annuels de performance pour la réalisation des budgets 2006 et 2007 font état de taux de remboursement de l’ordre de 35%. Depuis 2007, le mécanisme est en voie d’extinction, car plus aucun financement nouveau n’est accordé, les crédits servant seulement à honorer le paiement des factures présentées par les entreprises au titre des projets sélectionnés au cours des années antérieures.

A côté du RTPG, le CITEPH (Concertation pour l’Innovation Technologique dans l’Exploration et la Production des Hydrocarbures), financé par dix grands sponsors industriels avec Total comme chef de file, apporte aussi un soutien d’initiative privée aux petites entreprises parapétrolières, mais avec une efficacité moindre, selon Pierre-René Bauquis, qui a exprimé devant vos rapporteurs son doute quant à la volonté spontanée des grandes entreprises d’irriguer financièrement le tissu des PME qui les entourent, dans la mesure où seul leur intérêt à court ou moyen terme serait pris en compte dans cette configuration, du fait des contraintes financières qui s’imposent à toute structure privée.

Au titre des mécanismes assurant une retombée des crédits budgétaires au profit des PME du secteur parapétrolier, figure encore la participation active de l'IFP à plusieurs pôles de compétitivité, dont celui consacré en région lyonnaise à la chimie et à l’environnement, porté par l'association Axelera, ou le pôle Mov’eo, centré sur les régions Ile de France, Haute et Basse Normandie, prenant en charge des projets concernant l’automobile et les transports collectifs. Au total, l’IFP contribue à l’animation de cinq pôles de compétitivité à vocation mondiale, et trois pôles de compétitivité à vocation nationale.

Bien que les pôles de compétitivité constituent effectivement un bon moyen de drainage du tissu industriel des PME par la recherche publique, vos rapporteurs estiment que le rétablissement d’une organisation spécifique mettant en valeur plus explicitement l'apport du financement public de la recherche pétrolière au développement des PME répondrait à un besoin de lisibilité de l’effort conduit par l’État dans ce domaine. En outre, cette organisation sectorielle aurait l’avantage d’illustrer la volonté stratégique de la France, formulée par le législateur, de conserver une position de premier plan dans le domaine du pétrole, alors même que les ressources en hydrocarbures constitueront encore, en dépit de phénomène du « Peak Oil », un enjeu majeur de la politique de l’énergie au cours des cinquante prochaines années.

Ce retour à un dispositif retrouvant l’esprit du COPREP répondrait encore à l'une des préconisations du rapport de janvier 2008 de la Commission pour la libération de la croissance française, dit "rapport Attali" concernant l'objectif d'"utiliser l’effet d’entraînement des grandes entreprises pour les PME", notamment " pour les aider dans leur conquête des marchés extérieurs". Selon la Commission : "Il ne s’agit pas là de prendre des décisions administratives, mais d’en appeler à des changements de mentalité chez les dirigeants des grandes entreprises. À l’instar de ce qui se fait dans d’autres pays, les grandes entreprises françaises pourraient s’appuyer sur des réseaux puissants de PME en France, qui peuvent leur apporter des sous-traitants fiables, des innovations et des centres de recherches compatibles avec leurs propres activités." Elle en déduit sa proposition de décision n°44 : "Renforcer le programme « Passerelle », qui permet aux grandes entreprises (publiques et privées) souhaitant acheter le produit ou le service d’une PME innovante de bénéficier d’une aide pour financer l’adaptation de l’offre de la PME à leurs propres besoins."

B. LES TECHNOLOGIES NOUVELLES

Le rapport de mai 2007 sur la stratégie de recherche énergétique a le mérite de présenter un panorama très complet de l'ensemble des nouvelles technologies de l'énergie. Toute la difficulté de la stratégie consiste à faire des choix justifiés parmi toutes les possibilités. Vos rapporteurs font leur, à cet égard, cette remarque du rapport Syrota : « Compte tenu des contraintes de financement, des arbitrages sont à faire et il convient de veiller à une optimisation de l’utilisation des fonds publics »17.

La mission d'évaluation de la stratégie ne peut pas conduire à proposer une stratégie complète de substitution. Cependant les travaux conduits par vos rapporteurs leur ont permis de dégager certaines lignes générales, distinguant des domaines devant bénéficier d’un soutien plus actif, et des domaines déjà bénéficiaires d’un soutien suffisant, dans une perspective d'allocation plus efficace des crédits publics.

Au nombre des premières, figurent l’efficacité énergétique, l'énergie solaire, le stockage d'énergie, les biocarburants et les énergies de la mer. Au nombre des secondes, l’énergie éolienne, la pile à combustible et le captage-stockage du gaz carbonique. En fait, chacun de ces domaines se démultiplient eux-mêmes en de nombreux segments, et c'est en général à ce niveau plus fin qu'il convient d'identifier des efforts de recherche à accélérer ou à stabiliser.

1. La recherche sur l’efficacité énergétique

Les tables rondes d’octobre 2007 chargées de formaliser les conclusions se dégageant des consultations du Grenelle de l’environnement étaient très claires sur la priorité à donner à l’efficacité énergétique : « Le bâti consomme 42,5% de l’énergie finale française. La consommation moyenne primaire du parc existant de résidences principales est de 240 kWh/M²/an en 2007 et les émissions de CO2 sont de 93 Mt/an. C’est le gisement principal d’économie d’énergie exploitable immédiatement. Engager un plan thermique de grande ampleur revient à réduire durablement les dépenses énergétiques, dégager des marges de pouvoir d’achat des Français, et répondre à l’enjeu majeur de réduction des gaz à effet de serre. »18

Un article de l’été 2008 de la revue Futuribles19 rappelait que 80% de la consommation d’énergie dans les bâtiments résultent d’usages thermiques (chauffage, eau chaude, cuisson), qui sont aujourd’hui dépendants à 70% des énergies fossiles.

Au cours des auditions, MM. Didier Roux, directeur de la recherche de Saint-Gobain, et Yves Bamberger, son homologue à EDF, ont expliqué aux rapporteurs que les efforts conduits en matière d’efficacité énergétique doivent concerner en premier lieu la conservation de la chaleur, et dans un second temps seulement l’amélioration des conditions de la production de la chaleur au regard de l’objectif d’une double réduction de la consommation d’énergie et de l’émission de gaz à effet de serre.

Il faut en effet faire attention à ne pas courir trop vite au concept de « bâtiment à énergie positive » qui peut par exemple correspondre à une forte déperdition de chaleur surcompensée par une production locale d’énergie renouvelable abondante. Dans un tel cas, les bilans bruts en énergie et en carbone pourraient être positifs au prix d’un bilan économique très dégradé.

a) La conservation de la chaleur

L’isolation constitue la variable clef de la conservation de la chaleur dans les habitations. En milieu industriel, la conservation de la chaleur suppose souvent un réaménagement des processus.

► L’enjeu principal de l’isolation des habitations concerne les bâtiments existants, car il s’agit en ce cas de réaliser des modifications en perturbant au minimum les occupants des lieux, tandis que les perfectionnements apportés aux constructions neuves ne dépendent que d’un effort d’investissement. La mise au point de techniques d’intervention non perturbatrices est essentielle pour atteindre une certaine vitesse de mise à niveau du parc existant, car le flux des constructions neuves ne représente qu’un pourcent de ce parc.

Les progrès technologiques doivent permettre de doubler les parois par des revêtements intérieurs fins, qui ne réduisent pas l’espace habitable, ou mieux encore, extérieurs. EDF possède sur le site de recherche de la Renardière, en Seine et Marne, un bâtiment de test des solutions techniques possibles, dit « ETNA »20, constitué de deux espaces habitables identiques permettant de mesurer les performances, littéralement « toutes choses égales par ailleurs ».

En milieu industriel, l’optimisation de l’utilisation des flux de chaleur suppose un audit ad hoc des processus à l’œuvre, car il s’agit de rediriger chacun de ces flux, une fois qu’ils ont rempli leur fonction, pour récupérer autant que possible l’énergie qu’il leur reste. Ainsi, la chaleur qui se dégage d’un système de rinçage peut être utilisée plus loin dans un dispositif de séchage. Des aménagements de ce type présentent l’intérêt de permettre des économies financières tangibles, qui assurent un rapide retour sur investissement de l’effort de réaménagement des processus. L’industriel peut dans certains cas récupérer sa mise de fonds en deux ans.

Dans ces situations, le progrès technologique se mesure à l’expérience accumulée des experts aidant à la conception nouvelle des processus.

b) La production de chaleur

L’amélioration de l’efficacité dans la production de chaleur dépend souvent d’un recours aux énergies renouvelables, à travers l’installation de capteurs solaires ou l’emploi d’une chaudière à bois. Mais elle passe aussi par des progrès dans les équipements de chauffage à l’électricité : les pompes à chaleur, les dispositifs à induction.

► Les pompes à chaleur fonctionnent comme un aspirateur à calories : celles-ci sont prélevées dans une source froide (air ou eau) pour être libérées dans l’espace à chauffer. Le prélèvement s’opère par le biais de l’évaporation d’un fluide ; la vapeur est aspirée vers l’espace à chauffer ; puis les calories sont libérées en provoquant une condensation de la vapeur. La température de la source froide doit évidemment être supérieure à la température d'évaporation du fluide et celle de la source chaude inférieure à celle de condensation du fluide.

L’énergie électrique mobilisée sert à contrôler les mécanismes de vaporisation, d’aspiration et de condensation. L’intérêt du système consiste en ce que la quantité de calories transportée est supérieure à l’énergie électrique de fonctionnement ; le rapport entre l’énergie totale fournie et l’énergie électrique est appelé « Coefficient de performance » (COP). La technologie actuelle permet couramment d’obtenir des COP de 3, et d’aller chercher des calories dans l’air extérieur jusqu’à des températures de – 10°C.

► Les dispositifs de chauffage à induction exploitent un phénomène découvert par le physicien français Léon Foucault en 1851 : des courants électriques, dits « courants de Foucault », apparaissent dans toute masse conductrice placée dans un champ électromagnétique. En utilisant du courant alternatif pour créer un champ électromagnétique, en le faisant circuler dans une bobine de fil, on peut donc élever la température de la masse conductrice puisque la circulation des « courants de Foucault » dégage de la chaleur (effet Joule).

Ce procédé de chauffage, déjà disponible pour l’usage domestique sous forme de plaques pour la cuisson, se révèle particulièrement intéressant en milieu industriel, car il permet de cibler précisément la zone d’une pièce mécanique à chauffer, en évitant de chauffer toute la pièce, ce qui évite un gaspillage d’énergie, et aussi une inutile modification de structure interne du reste de la pièce. En outre, les délais nécessaires pour atteindre les températures souhaitées sont raccourcis.

c) La mise en oeuvre

L’audition, le 10 avril 2008, de M. François Perdrizet, président du PREBAT, a permis de souligner les difficultés inhérentes à la mise en œuvre des technologies de rénovation. Une offre de service adaptée existe certes pour le réaménagement, à des fins d’économie d’énergie, des installations industrielles, car celles-ci représentent des volumes d’affaires suffisants pour intéresser de grands industriels de la construction. En revanche, le particulier peine à trouver des artisans pouvant lui fournir un service adapté.

La tentation des petites entreprises impliquées dans la rénovation est en effet de vendre des produits, plutôt qu’une expertise recherchant les solutions techniques les plus appropriées. En outre, l’engouement des particuliers pour les progrès réalisés dans les techniques de l’énergie du bâtiment incite certains prestataires à des comportements frauduleux : le doublement du prix des équipements pour « capturer » l’aide fiscale ; le défaussement de responsabilité, par renvoi vers le fournisseur, en cas de défaut de mise en œuvre ; la mise en faillite sitôt que monte le flux des réclamations. De tels comportements sont propres à casser la dynamique de diffusion des nouvelles technologies de l’énergie dans le bâtiment.

Trois pistes sont suivies pour remédier à ces inconvénients :

L’intensification de l’effort de formation des professions concernées est prévue par l’engagement n°11 pris par les tables rondes du Grenelle de l’environnement. Le besoin de créer la spécialité de « rénovateur thermique » est souligné.

Dans son rapport de février 2008, le comité opérationnel du Grenelle de l’environnement en charge de la question des « Bâtiments existants » (chantier 3), après avoir rappelé que 80% des travaux de rénovation dans l’habitat sont actuellement réalisés par des entreprises artisanales, a souligné la dimension stratégique de cet effort de formation : « le défi de la rénovation thermique du bâtiment ne pourra être remporté que si la mobilisation des financements des propriétaires rencontre une offre d'entreprises capables de réaliser les travaux. Le soutien au développement, à la fois quantitatif et qualitatif, de cette offre est donc à soutenir de manière parallèle et coordonnée au soutien de la demande en travaux. » (p.76)

Selon le comité : « Le défi est à la fois quantitatif (augmentation du nombre de nouveaux professionnels à former et renforcement de la formation continue pour les professionnels déjà en activité) et qualitatif (formation des professionnels sur des techniques ou des équipements innovants, développement d’une approche interdisciplinaire) ».

Depuis mai 2008, un groupe de travail spécifique sur la « mobilisation des professionnels du bâtiment » examine les différentes pistes : rénover les diplômes, former les formateurs, définir de nouveaux équipements de formation, introduire des sessions relatives à « l’éco-construction » dans le cadre de la formation professionnelle continue.

L’article 16 du projet de loi de programme relatif à la mise en œuvre du Grenelle de l’environnement prévoit d’engager : « un programme pluriannuel de qualification et de formation des professionnels du bâtiment et de l'efficacité énergétique dans le but d'encourager l'activité de rénovation du bâtiment, dans ses dimensions de performance thermique et énergétique, acoustique et de qualité de l'air intérieur. »

Enfin, dans les missions confiées par le Premier ministre, en janvier 2009, à M. Philippe Pelletier, au titre du pilotage du « programme de réduction des consommations énergétiques et des émissions de gaz à effet de serre des bâtiments » (Comité stratégique du "Plan Bâtiment Grenelle"), l’accent est mis notamment sur la « mobilisation des professionnels (recrutement, formation, qualification, ...) ».

Les grands opérateurs de l’énergie, EDF en tête, sont incités à remédier à ces inconvénients par le mécanisme des « certificats d’économie d’énergie », mis en place par la loi du 13 juillet 200521, qui oblige à réaliser, directement ou indirectement, sur une période de trois ans, un certain quota d’économie d’énergie. Les économies que ces grands opérateurs auront contribué à faire réaliser chez les particuliers peuvent être mises à leur crédit.

Ils interviennent en ce sens de deux manières :

- d’une part, leurs efforts de développement technologique intègrent le besoin de faciliter la prise en main des solutions techniques par les artisans ;

- d’autre part, ils engagent des actions pédagogiques à destination des professions concernées. EDF a ainsi participé, avec l’ADEME et la Fédération française du bâtiment, sous l’égide de l’Association technique « Energie – Bâtiment » (ATEE) qui se donne justement comme objectif de promouvoir l’efficacité énergie, à une opération de sensibilisation devant toucher 50.000 professionnels d’ici la fin 200922.

Il convient aussi de souligner à cet égard l’expérience tout à fait fructueuse de la Fondation « Bâtiment-énergie », créée en 2005, dans la foulée des recommandations du rapport Chambolle, par quatre acteurs majeurs du secteur du bâtiment et de l'énergie - Arcelor, EDF, GDF SUEZ et Lafarge – avec le concours de l’ADEME (Agence de l'Environnement et de la Maîtrise de l'Energie) et du CSTB (Centre Scientifique et Technique du Bâtiment).

Cette fondation lance des appels à projets pour des ouvrages techniques contribuant à la diminution des émissions de gaz à effet de serre par une réduction des consommations d'énergie et un recours accru aux énergies renouvelables. Ces appels à projets mobilisent les différents métiers concernés, et en premier lieu, les architectes, en vue de promouvoir des solutions de construction ou de rénovation combinant efficacité énergétique et élégance artistique.

S’agissant des actions pédagogiques, M. Jean-Louis Beffa a rappelé que la société Saint-Gobain contribue à former des prestataires de qualité à travers les services associés à ses points de vente d’équipement dans le bâtiment : « Point P » et « Lapeyre ».

► Par ailleurs, un dispositif de labellisation est en cours de mise en place, malgré la dispersion des professions concernées.

Lors de son audition du 29 mai 2008, M. François Moisan, directeur de la stratégie et de la recherche de l’ADEME, a indiqué que trois labels « Qualisol », « Qualibois », QualiPV », existaient déjà pour l’installation, respectivement, des capteurs solaires thermiques, des chaudières à bois, et des systèmes photovoltaïques. Ils sont gérés par l’association « Qualit’ENR », soutenue par l’ADEME, qui vise à assurer la qualité d’installation de l’ensemble des systèmes à énergies renouvelables. Par ailleurs, l’Association française pour les pompes à chaleur (AFPAC), en association avec l’ADEME et d’autres partenaires, a lancé en 2007 une opération de certification, qui concerne aussi bien la qualité du matériel, avec le marquage « NF PAC », que la qualité d’installation, avec le label « QualiPAC ».

L’élaboration de labels de qualité fait partie des points examinés par groupe de travail spécifique sur la « mobilisation des professionnels du bâtiment » précédemment mentionné.

d) Les normes thermiques des bâtiments

Les travaux parlementaires autour de l’article 4 du projet de loi de programme relatif à la mise en œuvre du Grenelle de l’environnement ont conduit à envisager de confier une mission à l’OPECST à propos des conditions d’application de la norme thermique prévue pour les constructions neuves à compter de 2012 : 50 kWh/m²/an en énergie primaire.

En pareil cas, vos rapporteurs seront de toute façon amenés, en tant que membres de l’OPECST, à apprécier les travaux de cette mission, si le législateur en retient effectivement le principe. Ils peuvent d’ores et déjà se prononcer quant à quelques axes d’analyse leur paraissant pertinents.

► Il convient tout d’abord de préciser l’enjeu de la discussion, qui ne concerne en fait qu’une partie de la consommation d’énergie finale des résidences principales. La directive 2002/91/CE qui sert ici de référence définit la performance énergétique d’un bâtiment comme « la quantité d'énergie effectivement consommée ou estimée pour répondre aux différents besoins liés à une utilisation standardisée du bâtiment, ce qui peut inclure entre autres le chauffage, l'eau chaude, le système de refroidissement, la ventilation et l'éclairage ». Cette notion recouvre celle de « consommation conventionnelle d’énergie d’un bâtiment » retenue par la réglementation thermique 2005 (arrêté du 24 mai 2006) qui vise « le chauffage, la ventilation, le refroidissement, la production d’eau chaude sanitaire et l’éclairage des locaux ».

L’énergie de cuisson et la consommation spécifique d’électricité hors éclairage, climatisation et ventilation ne sont donc pas concernées ; cela représente au total entre 15% et 20% de l’énergie finale consommée, selon les données publiées par l’ADEME23. Or, pour une consommation d’énergie finale de 42,7 Mtep en 2006, et une surface chauffée d’environ 2,1 milliards de M², la consommation finale énergétique moyenne du parc des résidences principales est de l’ordre de 240 kWh par M² et par an24. Cette partie de consommation d’électricité non directement liée aux caractéristiques du bâtiment représente donc environ 40 kWh par M² et par an d’énergie finale, soit 100 kWh par M² et par an d’énergie primaire.

C’est bien la performance énergétique au sens de la directive que semble viser l’exposé des motifs du projet de loi de mise en œuvre du Grenelle lorsqu’il indique que la consommation moyenne du parc des résidences principales est de 240 kWh d’énergie primaire par M² et par an.

► La norme de 50 kWh par M² et par an vise les constructions neuves, les plus faciles à isoler thermiquement, puisqu’il est possible de leur appliquer les dernières technologies dès le stade de la conception.

L’ADEME précise, dans une note intitulée « Le défi du bâtiment » publiée sur son site Internet, que la consommation moyenne des bâtiments neufs est actuellement de l’ordre de 80 à 100 kWh d’énergie primaire par M² et par an. Elle rappelle aussi que « pour les constructions neuves, grâce aux réglementations thermiques successives, la consommation par a été divisée par 2 à 2,5 depuis 1975 ».

Cela signifie que l’effort à accomplir en quatre ans, d’ici la fin 2012, équivaut à celui réalisé depuis trente-trois ans.

► Une évaluation en énergie primaire tend de toute évidence à pénaliser l’emploi de l’électricité, dont le rendement en énergie primaire est de l’ordre du tiers, compte tenu des pertes de chaleur au moment de la production25. Cependant le recours à une pompe à chaleur avec un coefficient de performance de 3 permet de compenser cet écart pour le chauffage. Une visite de vos rapporteurs au centre de recherche EDF sur l’efficacité énergétique, situé à la Renardière en Seine et Marne, a montré néanmoins que la technologie restait encore en développement, notamment dans le cas du prélèvement de la chaleur dans l’air extérieur à très basse température. La filière de l’électricité se trouve donc plus spécialement en difficulté pour répondre à des critères exigeants dans les zones les plus froides.

► Une modulation « en fonction de la localisation, des caractéristiques, de l’usage », ainsi que l’a prévu le projet de loi initial, semble donc indispensable. Elle est du reste déjà inscrite dans la réglementation actuelle, car l’article 37 de l’arrêté du 24 mai 2006 fixe la limite maximale de consommation en tenant compte du type de chauffage et de la zone.

PERFORMANCE ÉNERGÉTIQUE SELON LA RT 2005

Type de chauffage

Zone

Cep Max

Combustibles fossiles

H1

130

H2

110

H3

80

Chauffage électrique
(y compris les pompes à chaleur)

H1

250

H2

190

H3

130

Cep : consommation d’énergie primaire, en kwh/ m² et par an

Les zones H1, H2, H3 résultent d’une répartition des départements opérée par le même arrêté. Une telle modulation est parfaitement conforme à la directive 2002/91/CE qui prévoit : « Ces exigences doivent tenir compte des conditions générales caractérisant le climat intérieur, afin d'éviter d'éventuels effets néfastes tels qu'une ventilation inadéquate, ainsi que des particularités locales, de l'utilisation à laquelle est destiné le bâtiment et de son âge. »

► La directive 2002/91/CE s’inscrit principalement, selon son troisième considérant, dans une perspective de lutte contre le changement climatique par l’amélioration de l’efficacité énergétique : « L'amélioration de l'efficacité énergétique représente un volet important du train de politiques et de mesures nécessaire pour respecter le protocole de Kyoto ». Et, effectivement, dans le cas où l’électricité est largement d’origine thermique, l’amélioration de la performance énergétique des bâtiments évaluée en énergie primaire converge avec la lutte contre le réchauffement climatique. En effet, il est globalement trois fois plus efficace de chauffer directement un bâtiment avec un combustible, que de le chauffer avec de l’électricité produit à partir de ce même combustible, puisqu’une centrale thermique disperse les deux tiers de l’énergie de production d’électricité en chaleur ; si ce combustible est d’origine fossile, l’économie des deux tiers ainsi réalisée se transforme donc en autant d’économie d’émission de dioxyde de carbone. Autrement dit, un chauffage par l’électricité d’origine fossile dissipe trois fois plus de gaz à effet de serre qu’un chauffage par chaudière.

Tel n’est cependant pas le cas en France, où 90% de l’électricité est d’origine non carbonée. Toutes choses égales par ailleurs, en moyenne sur l’année, comme la production de l’électricité à partir d’énergie fossile mobilise l’équivalent de trois fois sa valeur énergétique, c'est-à-dire trois fois 10% (donc 30%) de l’énergie équivalente à un chauffage direct d’un bâtiment par l’utilisation de la même énergie fossile en chaudière, un chauffage par l’électricité en France dissipe trois fois moins de gaz à effet de serre qu’un chauffage par chaudière utilisant de l’énergie fossile.

En France, contrairement à ce qui prévaut dans la plupart des autres pays membres de la Communauté européenne, l’usage de l’électricité dans les bâtiments permet de mieux assurer le respect du protocole de Kyoto. Il n’y a qu’un chauffage à partir d’énergies renouvelables qui soit plus efficace encore pour limiter les émissions de gaz carbonique. Or, un calcul de performance énergétique en énergie primaire défavorise l’électricité sans apporter aucun avantage aux énergies renouvelables par rapport aux énergies fossiles.

De là, l’importance d’introduire une modulation des critères de performance énergétique en fonction des émissions de CO2, prévue par le deuxième alinéa de l’article 3 de la directive 2002/91/CE, et aussi par le projet de loi initial.

► En conclusion, vos rapporteurs souscrivent totalement aux modifications apportées par l’Assemblée nationale visant à mettre l’accent sur la nécessité d’une modulation prenant en compte d’un côté, les différentes zones climatiques, et de l’autre, les émissions de CO2. Dans ce dernier cas, il conviendra de distinguer les trois cas des énergies renouvelables, de l’électricité et des énergies fossiles. Le respect en moyenne de la cible de performance énergétique imposera de fixer un objectif plus exigeant, nettement inférieur à 50 kWh par m² et par an, dans les configurations particulièrement favorables : ce pourrait être l’occasion de promouvoir des « maisons passives » consommant moins de 15 kWh par m² et par an, comme celles réalisées à Formerie dans l’Oise.26

*

* *

Compte tenu de son importance stratégique, la R&D sur l’efficacité énergétique, sur les bâtiments à basse consommation d'énergie et à énergie positive, ainsi que sur l'optimisation énergétique et fonctionnelle des procédés industriels, constitue fort opportunément l’un des axes majeurs autour desquels s’organise le projet de pôle technologique à vocation mondiale sur les thèmes « Climat, énergie, environnement » (PCEE) du Campus de Saclay, à l’étude en ce début d’année 2009, suite à l’annonce faite le 7 novembre 2008 par le secrétaire d'État chargé du Développement de la région capitale, M. Christian Blanc (Cf. annexes).

La recherche sur l’efficacité énergétique est une priorité nationale bien identifiée, et mobilisant déjà activement tous les acteurs concernés.

La qualité des services d’installation et de maintenance jouera un rôle essentiel dans la vitesse de déploiement des procédés d’économie d’énergie.

La réglementation doit encourager l’efficacité énergétique sans préjudice de la lutte contre l’effet de serre.

2. La recherche sur l’énergie solaire

Excédant d’environ 10.000 fois le besoin mondial actuel, le rayonnement solaire constitue de loin l'énergie renouvelable la plus abondante, d’ailleurs sous toutes les latitudes puisque c'est moins la température ambiante qui est en jeu que la luminosité : un climat chaud mais lourdement nuageux est moins propice au recueil de l’énergie du soleil qu'un ciel d'azur dégagé par une violente bise glacée. Comme le professeur Jean-Marie Chevalier l’a rappelé à vos rapporteurs le 5 juin 2008, le niveau d'ensoleillement ne varie en fait que d'un facteur trois entre les zones équatoriales et les zones polaires.

La France a accumulé un retard dans le développement de l'énergie solaire, après quelques initiatives dans les années 70 : le Président Valéry Giscard d'Estaing avait notamment créé un Commissariat à l'énergie solaire (COMES) en 1978, qui a fusionné en 1982 avec l’Agence française pour la maîtrise de l’énergie, devenue l'ADEME en 1993. Elle a réagi depuis 2006 avec la mise en place d'un tarif de rachat très avantageux de l'électricité photovoltaïque, et la création de l'Institut national de l’énergie solaire (INES) à Chambéry.

La politique française dans ce domaine vise à un rattrapage des deux pays qui se détachent nettement, le Japon et l'Allemagne. Le Japon doit son large parc photovoltaïque à sa constance dans l'effort pour soutenir cette technologie depuis le début des années 70, en dépit du surcoût que cela imposait durant les années du contre-choc pétrolier. L'Allemagne a engagé une politique de soutien très active, basée sur un tarif élevé de rachat de l’électricité photovoltaïque, depuis l’adoption en 2000 de la loi sur les énergies renouvelables ; elle a encouragé le développement d'une activité industrielle de production de panneaux solaires dans les länder de l'ex-RDA, en y profitant des bas coûts de production.

Les États-Unis opèrent aussi de leur côté un rattrapage rapide en s'appuyant sur le dynamisme des "Clean-Tech", ces jeunes pousses industrielles nées souvent d'une reconversion des acteurs de l'électronique : dans la Silicon Valley, l'effet photoélectrique prend pour ainsi dire le relais de l'effet transistor.

a) Les différents procédés de conversion

Les modes d'utilisation de l'énergie solaire se dédoublent en deux grands ensembles :

- d’une part, les technologies basées sur l'effet thermique des rayons lumineux ;

- d’autre part, celles basées sur l'effet photovoltaïque.

► L'énergie solaire thermique est exploitée de manière peu concentrée pour du chauffage d’eau ou de bâtiments, et, sous forme très concentrée, grâce à un système optique de focalisation, pour produire de l’électricité dans une centrale thermique. Dans ce second cas, la vapeur actionnant les turbines provient d’un échange entre une source d’eau et le liquide caloporteur exposé au rayonnement concentré.

Plusieurs centrales solaires ont été mises en service dans le monde, aux États-Unis et en Espagne plus particulièrement. En France, des recherches ont été conduites dans ce domaine au début des années 80 suite à la construction de la centrale Thémis, située dans les Pyrénées ; elles ont été interrompues. Le plan de novembre 2008 pour le développement des énergies renouvelables prévoit la construction d’ici 2011 d’au moins une centrale solaire dans chaque région française, pour une puissance cumulée de 300 MW. Cette forme de capture concentrée de l’énergie solaire demeure toutefois réservée plutôt aux pays sans nuage.

Par ailleurs, les capteurs solaires de chauffage domestique équipent près de 40 millions de foyers dans le monde, la plupart d’entre eux en Chine. Quatre mètres carrés permettent de répondre aux besoins en eau chaude d’une famille de quatre personnes ; dix à vingt mètres carrés assurent le chauffage d’une maison individuelle. L’Europe dispose d’un parc installé de 20 millions de mètres carrés, dont 9 millions en Allemagne, et moins d’un million en France. Le Plan "Face Sud", prévu par l’article 12 de la loi du 13 juillet 2005 de programme fixant les orientations de la politique énergétique, vise un marché annuel de 200.000 chauffe-eau solaires et de 50.000 toits photovoltaïques à l'horizon 2010. Les efforts technologiques portent essentiellement sur la mise au point de composants s’intégrant mieux au bâti ; il s’agit moins de recherche proprement dit que d’innovation de produit ; la technologie très adéquate des tubes à vide, qui permet une utilisation réversible à des fins de climatisation, est dominée par l’industrie chinoise.

Le développement de l'électricité photovoltaïque, en revanche, dépend encore crucialement des progrès de la recherche, car son prix reste encore très élevé en comparaison de celui de l’électricité fournie par le réseau. Il n’y a guère que dans les pays où ce dernier prix est structurellement élevé (Japon, Californie, Italie), en raison notamment d’une forte dépendance énergétique, que la parité de prix se trouve presque réalisée. En France, où le prix de réseau demeure bas grâce à l’énergie nucléaire et hydraulique, l’écart est de l’ordre d’un facteur cinq.

b) L’arbitrage thermique / photovoltaïque

Les deux options sont en concurrence aussi bien pour l’énergie solaire de chauffage que pour celle de concentration.

► Jean Therme, directeur du CEA - Grenoble et créateur de l’INES, a indiqué son sentiment que les progrès dans l’isolation des bâtiments favorisait plus le développement de l’énergie solaire photovoltaïque que celui de l’énergie solaire thermique.

En effet, pour un bâtiment consommant moins de 120 kWh par mètre carré et par an, un système de chauffage thermique alimenté en biomasse (avec des granulés de bois, par exemple) est préférable à un système solaire thermique, car il a l'avantage d'être peu coûteux, d'avoir une contribution très faible à l'effet de serre, et de couvrir les besoins de chauffage en pointe, alors que le système solaire thermique ne fonctionne qu'en chauffage de base, à hauteur de 40% du besoin total, et rend donc nécessaire, de toute façon, un second système de chauffage pour les pointes de consommation. Or, un double système de chauffage multiplie les causes de fuites et de pannes, et double le coût de l'installation.

Pour une consommation de moins de 50 kWh par mètre carré et par an, une climatisation devient nécessaire, car il faut évacuer l'énergie dégagée par la cuisson des aliments; le meilleur système devient alors la pompe à chaleur réversible branchée sur le réseau, ou mieux encore, sur l'électricité photovoltaïque; un bâtiment de 100 mètres carrés consomme alors au maximum 5 000 kWh, ce qui correspond à une besoin d'énergie d'environ 1300 kWh pour une pompe à chaleur avec un coefficient de performance (COP) égal à 3, énergie qui peut être fournie par une surface photovoltaïque de 10 mètres carrés.

Pour une consommation inférieure à 20 kWh par mètre carré et par an, le bâtiment se transforme en véritable bouteille thermos : un petit radiateur électrique suffit pour le chauffage, et pour des raisons d'hygiène, la fonction critique devient la ventilation, nécessitant alors un système VMC double flux. Celui-ci fonctionne avec un échangeur qui réchauffe en hiver l'air neuf frais entrant et limite en été l'entrée des calories. Là encore, une surface photovoltaïque de quelques mètres carrés suffit pour fournir l’électricité nécessaire.

Au total, l’équipement solaire thermique ne se justifierait vraiment que pour les bâtiments consommant plus de 120 kWh par mètre carré et par an. Les pays qui ont une avance dans l'usage de l'énergie solaire délaisse d’ailleurs de plus en plus le chauffage solaire thermique : les PassivHaus allemandes ne fonctionnent qu'à l'énergie photovoltaïque, comme les nouvelles générations de maisons en bois au Japon.

► L’augmentation du rendement des procédés photovoltaïques leur permet par ailleurs de venir concurrencer, depuis quelques années, les systèmes thermiques de concentration : le Portugal dispose à ce jour, à Arnareleja, de la plus grande centrale solaire photovoltaïque au monde, d’une puissance de 46 MW ; une autre centrale photovoltaïque de 62 MW, située à Moura, doit entrer en service en 2009.

c) Les trois pistes photovoltaïques françaises

Le rapport sur la stratégie nationale de recherche en énergie de mai 2007 mentionne l’existence de petites équipes françaises travaillant d’un côté, au développement de l’énergie solaire de chauffage (p.60) et de l’autre, à une reprise des expérimentations sur les centrales solaires, avec l’intention de développer une compétence qui pourrait être valorisée à l’exportation (p.65).

Vos rapporteurs ne voient que des avantages à la poursuite de ces efforts, mais souhaitent que ceux engagés sur la voie photovoltaïque fassent l’objet d’un soutien appuyé.

Trois filières de recherche sur l'énergie photovoltaïque se distinguent en France, correspondant à des degrés de maturité différente vis à vis du passage au stade industriel :

- la filière du silicium métallurgique, portée par l'INES ;

- la filière des couches minces, étudiée à l'IRDEP ;

- la filière organique, faisant l’objet d’un effort dispersé.

► Dans la multitude des états possibles du silicium permettant d’optimiser l’effet photovoltaïque (amorphe, monocristallin, multicristallin, ruban), l’INES, regroupant les forces combinées du CEA et du CNRS, a su trouver une piste originale, mobilisant un avantage comparatif français : celle du silicium dit « métallurgique » (projet Photosil).

Ainsi que Jean Therme l’a indiqué à vos rapporteurs, l’exploitation de cette piste a été inspirée par deux constats :

- d’abord, la certitude de la prééminence durable du silicium comme support photovoltaïque ; sa part de marché atteint aujourd’hui 90%, et risque peu de décliner, même si le marché des cellules photovoltaïques croît globalement à une vitesse de plus de 30% par an, car aucun goulot d’étranglement ne viendra bloquer ce développement : le silicium est le quatrième élément le plus abondant sur la planète ;

- ensuite, Pechiney disposait dans le Sud-Est de la France de quatre usines produisant du silicium «métallurgique» (deux en Savoie, une en Isère, une dans l'Ain), qui permettait auparavant de fabriquer de l’alpax, alliage de fonderie à base d'aluminium contenant 13 % de silicium. Ces usines ont été rachetées par Ferropem, filiale du groupe espagnol FerroAtlantica.

L’idée était de purifier ce silicium dit «métallurgique», présent aussi dans les pâtes de silicone (mastics), en vue notamment de réduire sa teneur en phosphore et en bore, par un procédé utilisant une torche plasma. Les rendements photovoltaïques ainsi obtenus par l’INES atteignent 15,5%, alors que la performance de référence obtenue avec du silicium microélectronique est de 16,6%. L’américain Dow Corning, qui purifie lui-aussi du silicium « métallurgique », n’a pas dépassé jusqu’ici 14,2%.

Pour étudier l’industrialisation de la production des cellules photovoltaïque, l’INES s’est associé une unité appelée « LabFab », permettant de fabriquer des petites séries ; elle est gérée par la société PV Alliance, constituée par un partenariat entre Photowatt (40 %), le CEA (20 %) et EDF Energies Nouvelles (40 %), selon une configuration qui vise à garantir son ancrage en France.

Par ailleurs, l’INES a mis en place des bancs de tests des systèmes photovoltaïques (cellules ou modules), intégrant du stockage sur batterie. Ces équipements, gérés en ce cas avec le concours du CSTB et du Laboratoire national de métrologie et d’essais, servent aussi à la certification des matériels.

Le dynamisme de l’INES bénéficie d’ores et déjà d’une reconnaissance internationale, puisqu’il a reçu un prix le mettant en position de laboratoire de référence européen sur le stockage électrochimique de l’énergie, notamment parce qu’en testant tous les systèmes existants, il est parvenu à établir une bibliothèque de solutions pour les situations d’utilisation de manière stationnaire ou en mobilité. Il a reçu une autre récompense pour sa maîtrise du rendement de conversion des cellules au silicium métallurgique. L’INES est désormais reconnu comme un des quatre premiers pôles de recherche européen sur l’énergie photovoltaïque, avec l’Institut Frauhofer allemand, l’IMEC belge et l’ECN néerlandais.

Vos rapporteurs souhaitent vivement que ce dynamisme puisse continuer à bénéficier d’un soutien déterminé de l’État.

► Vos rapporteurs ont pris conscience du rayonnement scientifique international de l’IRDEP (Institut de recherche et de développement sur l’énergie photovoltaïque) à Stanford, lorsqu’ils ont rendu visite au directeur général du Global Climate and Energy Project, Sally Benson, et ont appris que l’IRDEP était un des correspondants français de ce laboratoire de recherche fondamentale prestigieux, financé par quatre des plus grandes firmes industrielles d’envergure mondiale : Schlumberger, General Electric, Toyota et ExxonMobil.

L’IRDEP est un laboratoire commun à EDF R&D, au CNRS et à l’Ecole nationale supérieure de chimie de Paris. Implanté sur le site EDF de Chatou, il est chargé de mener à bien le projet CISEL (Cuivre Indium Sélénium Electrodéposé), lancé en 1998. Ce projet vise à fabriquer des couches minces photovoltaïques par un procédé électrolytique, avec l’objectif d’atteindre un rendement de 8 à 10%, et d’abaisser le coût de production du watt crête27 à moins de 1 euro.

L’avantage en termes de coût est en effet double :

- d’une part, la technologie de la couche mince permet en elle-même d’utiliser une tranche plus fine de matériau actif ;

- d’autre part, le dépôt de ce matériau actif sous pression atmosphérique, grâce à un procédé électrolytique, permet d’éviter des procédés plus chers de fabrication sous vide.

Le projet CISEL doit aller jusqu’à démontrer la faisabilité industrielle du procédé, et c’est le stade auquel il est parvenu aujourd’hui, car il s’agit maintenant de rendre reproductible en fabrication la performance atteinte.

De là, le besoin de mettre en place un "LabFab", sur le modèle de ce qu’a fait l’INES. Une jeune entreprise innovante, du nom de NEXCIS, a été créée à cette fin sur le site de Rousset, près d’Aix-en-Provence ; elle s’appuie sur un partenariat entre EDF SA, EDF Energies Nouvelles, STMicroelectronics et IBM, et bénéficie du soutien de la Région PACA.

Vos rapporteurs ne peuvent qu’apporter leur soutien à ce projet. Celui-ci pourrait être renforcé par la constitution d’un pôle de recherche visant à une rupture technologique dans le domaine des couches minces, par la découverte d’une nouvelle combinaison de semi-conducteurs permettant un saut de rendement, à l’image de ce qui s’est produit dans l’histoire récente de la recherche sur les matériaux supraconducteurs, ainsi que l’a expliqué à vos rapporteurs M. Didier Roux, directeur de la recherche de Saint-Gobain.

Il faisait référence à la percée scientifique de Georg Bednorz et Alexander Müller en 1986, au laboratoire de recherche d’IBM à Zürick : celle-ci a permis de relever d’un coup la température du phénomène de supraconductivité, qu’il semblait impossible de faire progresser depuis 1973. Ce succès leur a valu le prix Nobel dès l’année suivante.

Cette démarche de recherche de rupture devrait être conduite en continuant à suivre les progrès des Clean’Tech américaines, car une percée technologique risque toujours de survenir dans le foisonnement créatif que celles-ci entretiennent, en mobilisant souvent de solides compétences scientifiques acquises dans le monde voisin de la microélectronique. Vos rapporteurs ont pris la mesure de cette créativité en rendant visite au fameux Palo Alto Research Center (PARC) de Xerox, qui s’attache à transposer les technologies de la micro-informatique au domaine de l’énergie solaire. Les structures de recherche d’EDF et de Saint-Gobain ne s’y trompent d’ailleurs pas, qui ont chacune des dispositifs de veille en Californie, prenant appui sur des partenariats locaux.

C’est justement l’un des objectifs du projet de pôle technologique à vocation mondiale sur les thèmes « Climat, énergie, environnement » (PCEE) du Campus de Saclay de regrouper les forces françaises de recherche (dont le CEA et EDF R&D) sur le thème des couches minces photovoltaïques (Cf. annexes).

► La troisième voie de recherche active en France dans le domaine de l’énergie photovoltaïque concerne la filière organique, utilisant les propriétés de conduction de certains polymères.

Le rapport sur la stratégie de recherche en énergie de mai 2007 ne la mentionne pas en tant que telle. Il est vrai qu’elle en est encore au stade du laboratoire, avec des rendements ne dépassant pas 5%, et une durée de vie très faible. Pourtant, les cellules photovoltaïques « plastiques » présentent des caractéristiques intéressantes, car elles sont légères, et surtout flexibles. En outre, comme elles peuvent être obtenues par synthèse chimique, elles permettraient probablement de produire en masse des cellules photovoltaïques à très faible coût.

Les unités de recherche concernées sont très dispersées en France, constituées de petits groupes n’ayant pas la taille critique pour postuler dans de bonnes conditions aux appels à projet français ou communautaires. En cas d’avancée intéressante, cet isolement risque de les amener à privilégier la publication sur le brevet, avec une probabilité de récupération industrielle à l’étranger.

Sans aller jusqu’au regroupement géographique, il serait certainement efficace de renforcer le réseau que ces unités ont commencé à tisser entre elles (réseau « Nanorgasol »), en s’inspirant d’exemples similaires, comme par exemple le réseau Alistore dans le domaine de la recherche sur les batteries au lithium. Leurs demandes d’achat d’équipements lourds (bâtis de fabrication et de caractérisation) en seraient probablement mieux rationalisées.

Ce réseau pourrait s’agréger les unités de recherche sur les diodes électroluminescentes organiques pour constituer un ensemble cohérent autour du domaine de « l’électronique organique ». Il serait aussi utile de l’amener à développer des liens avec un organisme de recherche disposant déjà, sur des domaines voisins, d’une solide expérience dans la valorisation industrielle. A cet égard, si le CEA, avec l’INES, membre du réseau « Nanorgasol », apparaît comme un interlocuteur naturel pour sa connaissance de la filière et son dynamisme exemplaire dans le domaine de la valorisation, l’IFP serait peut-être un peu mieux placé du point de vue de l’expérience sur les technologies de fabrication à mobiliser, puisqu’une industrialisation des cellules « plastiques » relèverait d’un procédé de chimie organique.

d) Les conditions d’un déploiement massif

Même si cet aspect relève apparemment plus de la politique de l’énergie que de la recherche en énergie, vos rapporteurs souhaitent souligner trois aspects clefs de la réussite du déploiement de l’énergie solaire en France. Cette réussite n’est d’ailleurs pas sans conséquence sur l’effort de recherche, car les moyens financiers supplémentaires qu’apporte le succès commercial permettent une poursuite de l’effort d’amélioration de la technologie : le secteur du téléphone portable en fait foi, dont l’évolution technologique a été à la mesure de la vitesse de diffusion dans la population.

Ces trois conditions de la réussite du développement de l’énergie solaire concernent :

- d’abord, la qualité de l’offre de services d’installation et de maintenance ;

- ensuite, la simplification des procédures pour les petites productions ;

- enfin, l’adaptation du réseau électrique.

► La qualité de l’offre de services d’installation et de maintenance pose les mêmes difficultés dans le domaine de l’énergie solaire que dans celui de l’efficacité énergétique, examiné précédemment. Elle suppose une mobilisation des professions concernées, une implication des grandes entreprises, et l’édiction de normes sous le contrôle de l’ADEME.

En l’occurrence, l’installation des équipements solaires thermiques est couverte depuis 1999 par la norme Qualisol, mise en place à la faveur du « Plan soleil » de l’ADEME. 11 500 installateurs ont adhéré à ce dispositif volontaire, garanti par des audits des travaux effectués. La norme QualiPV fonctionne de manière identique pour les équipements photovoltaïques raccordés au réseau ; créée en octobre 2007, elle bénéficiait déjà du ralliement volontaire de 2 500 prestataires en décembre 2008.

Des organismes professionnels, comme la Chambre syndicale des entreprises d'équipement électrique de Paris et sa région (CSEEE), ont mis en place des filières de formation couvrant le domaine de l’installation des équipements photovoltaïques.

Au Japon, vos rapporteurs ont appris que l’effort de formation des techniciens d’installation, selon une logique d’intégration verticale, reposait entièrement sur les grandes entreprises produisant des panneaux solaires (Sharp, Kyocera, Sanyo, Mitsubishi). Saint-Gobain, on l’a vu, s’inscrit dans ce type de démarche.

► La simplification des procédures pour les petites productions, inscrite au Plan national de développement des énergies renouvelables, fait l’objet d’une mise en œuvre rapide.

Les cinq démarches administratives nécessaires jusque là pour installer des panneaux photovoltaïques vont être réduites à deux pour les particuliers : une autorisation au titre du droit de l’urbanisme délivrée par la collectivité territoriale compétente, et une démarche auprès du distributeur d’électricité. Déjà, depuis août 2008, la procédure de déclaration d’exploitation de panneaux solaires électriques peut s’effectuer sur le site Internet « AMPERE ».

Les mêmes particuliers ont été exonérés par la loi de finances rectificatives pour 2008 de l’imposition au titre des bénéfices provenant de la revente d'électricité, sous la condition que la puissance des panneaux photovoltaïques n'excèdent pas 3 kilowatts-crête (soit environ 30 m² de panneaux).

Une étude juridique et fiscale a été engagée afin favoriser le développement d’offres de services dites «intégrées», dans lesquels des professionnels compétents apportent à la fois des prestations de conseil, font leur affaire de l’installation des équipements, de leur financement, et apportent une garantie. Les dispositions pertinentes seront présentées sous forme d’amendements au projet de loi dit « Grenelle 2 »

► La question de l’adaptation du réseau électrique concerne la revente à EDF de l’électricité photovoltaïque produite. Tant que les quantités correspondantes restent limitées, le réseau peut spontanément les intégrer. Mais un apport d’un certain débit d’énergie peut nécessiter une adaptation des équipements de distribution ; c’est une des raisons pour lesquelles l’article 6 de la loi n°2000-108 du 10 février 2000 relative à la modernisation et au développement du service public de l'électricité (loi « Bataille ») prévoit qu’un régime d’autorisation prend le relais du régime de déclaration au-delà d’une puissance installée de 4,5 MW.

A terme, si les demandes de raccordement se comptent en centaines de milliers, c’est une autre manière de gérer le réseau qu’il faudra introduire pour équilibrer au mieux les flux de consommation et de fourniture, et ce type d’adaptation est au cœur des recherches sur les « réseaux intelligents » (Smart Grids).

Au sein de la Communauté européenne, bien qu’elles figurent explicitement comme une des priorités du Plan stratégique pour les technologies énergétiques de novembre 2007 (SET Plan), ces recherches semblent avoir un peu de mal à s’organiser. La plateforme de coopération créée sur ce thème en 2005 (European Technology Platform for Electricity Networks of the Future), après avoir défini ses objectifs, en est encore, en ce début d’année 2009, à construire un programme opérationnel. M. Dominique Maillard, président de RTE, a d’ailleurs signalé à vos rapporteurs que le concept de « Smart Grids » était assez difficile à circonscrire, car il pouvait intégrer des préoccupations assez larges de sécurité et de fiabilité du réseau. M. Alain Bucaille, directeur de la recherche d’Areva, groupe dont le tiers du chiffre d’affaires est réalisé dans la distribution d’électricité depuis le rachat de l’activité “Transmission et Distribution” d’Alsthom en 2003, a signalé qu’il s’agissait d’un thème de recherche sur lequel il était difficile pour l’instant de construire des collaborations.

Les réseaux intelligents du futur constituent l’un des axes de recherche envisagés pour le projet de pôle technologique à vocation mondiale sur les thèmes « Climat, énergie, environnement » (PCEE) du Campus de Saclay (Cf. annexes).

La recherche sur l’énergie photovoltaïque constitue une priorité nationale, et les efforts déjà accomplis pour rattraper le retard de la France dans les technologies du silicium et des couches minces doivent être complétés par une organisation de la filière organique.

La qualité des services d’installation et de maintenance constitue un enjeu essentiel de la réussite commerciale de ces technologies.

3. La recherche sur le stockage d’énergie

La fonction du stockage d’énergie, et en pratique, du stockage d’électricité, est essentielle pour la promotion des économies d’énergie et la réduction des émissions de gaz carbonique, car elle permet d’une part d’accroître l’efficacité énergétique, en rendant possible un meilleur ajustement temporel de l’offre et de la demande d’énergie, et d’autre part d’alimenter des systèmes de substitution aux énergies fossiles, notamment dans les transports.

Les techniques de stockage de l’énergie sont multiples, mais deux d’entre elles doivent faire l’objet d’un soutien particulier, car elles bénéficient de la double caractéristique d’avoir déjà fait leurs preuves, et d’offrir des marges sensibles de progression à moyen terme : d’un côté, les batteries rechargeables ; de l’autre, les « stations de transfert d'énergie par pompage » (STEP).

a) La poursuite de l’amélioration des batteries

Le rapport sur la stratégie en énergie de mai 2007 souligne à juste titre la nécessité de « développer prioritairement » l’hybridation entre le moteur thermique et le moteur électrique grâce aux progrès réalisés dans les domaines des batteries et des super condensateurs. La cible technologique est la mise au point du « véhicule hybride rechargeable ».

Deux avancées importantes fondent cette approche :

- d’une part, le saut de performance réalisé, au niveau des batteries, grâce à la technologie Lithium Ion ;

- d’autre part, le succès, à partir de 2004, de la Prius de Toyota, modèle utilisant une batterie Nickel-Métal Hydrures (NiMH), qui a conféré une forte crédibilité à la piste de l’hybridation.

Jusqu’à la fin des années quatre-vingt, les deux principales technologies répandues sur le marché étaient les accumulateurs au plomb et les accumulateurs Nickel Cadmium. Ils se caractérisent par une grande fiabilité, mais leurs densités d’énergie massiques restent relativement faibles (30 Wh/kg pour le plomb, 50 Wh/kg pour le Nickel Cadmium). La technologie Nickel Cadmium a été utilisée par l'automobile dans les années 90, Renault et Peugeot ayant vendu, en France, environ dix mille véhicules électriques utilisant ce type de batterie.

Mais la croissance du marché des équipements portables a favorisé l’émergence de deux nouvelles filières : les accumulateurs Nickel-Métal Hydrures, permettant d’atteindre une densité d’énergie massique de 70 à 80Wh/kg, qui donc était utilisée par la voiture hybride ; et les accumulateurs au Lithium.

PROGRÈS DANS LA TECHNOLOGIE DES BATTERIES

TECHNOLOGIE

ÉNERGIE MASSIQUE (KWH/KG)

ÉNERGIE VOLUMIQUE (KWH/L)

Pb

30-50

75-120

NiCd

60

180

NiMH

70-90

280-320

Zébra (Na/S)

120

180

Li ion (FePO4)

110-150

190-220

Li ion (CoO2)

180-210

350-500

Li polymère

180-210

350-500

Source : CEA, Liten.

Le lithium est à la fois le plus léger et le plus réducteur des métaux : les systèmes électrochimiques qui l’emploient peuvent atteindre des tensions de 4 V, contre 1,5 V pour les autres systèmes. Cela en fait un candidat idéal pour des batteries offrant des performances inégalées en termes de densités d’énergie massique et volumique. Des recherches en ce sens avait déjà été conduites vers la fin des années soixante-dix, mais en utilisant une électrode négative à base de lithium métallique qui conduisait à la constitution, à la faveur des charges successives, d’un pont de court-circuit. C’est avec l’idée d’utiliser une électrode négative à base de carbone que la filière Lithium Ion est née. Sony, après lui avoir consacré des ressources considérables, a pu annoncer en février 1992, le lancement d’une fabrication industrielle. Les premiers accumulateurs offraient des performances limitées : 90Wh/kg. Depuis, celles-ci se sont notablement améliorées pour atteindre 200 Wh/kg, grâce à la diminution du poids et volume des composants annexes, et à l’optimisation des performances des matériaux.

Quatre acteurs jouent un rôle important dans ce secteur en France :

► La société Saft28 est plutôt spécialisée dans la fabrication des batteries de haute technicité, notamment pour des systèmes spatiaux, aéronautiques, militaires. Dans ces domaines, on a recours traditionnellement à des accumulateurs de la filière Nickel Cadmium, mais ceux de la filière Lithium Ion y sont aussi de plus en plus utilisés. L’entreprise a fait son entrée dans le domaine des batteries Lithium Ion pour véhicule hybride à travers une alliance avec l’américain Johnson Controls ; leur filiale commune a passé un contrat d’approvisionnement avec Daimler, et a ouvert une première usine de fabrication à Nersac, près d’Angoulême, en janvier 2008.

► La société Batscap, filiale de Bolloré et d’EDF, travaille sur la filière novatrice des batteries Lithium Métal Polymère en s’appuyant sur son expérience dans la fabrication des films de polymères servant à l’emballage. Cette filière vise une amélioration de la sécurité par le recours à électrolyte liquide sous la forme d’un gel, moins volatile et inflammable qu’un liquide. Le fonctionnement optimal est obtenu à une température comprise entre 60 et 100°C. Batscap développe un procédé mis au point par la société canadienne Avestor, filiale d’Hydro-Quebec qui a fait faillite, mais dont les actifs ont été rachetés par Bolloré. Une partie des recherches s’effectuent sur le site de Quimper. Pour l’instant, aucun produit n’est commercialisé. La société refuse toute communication sur l’avancée de ses travaux pour préserver la réussite de son investissement de longue date, financé sur fonds propres.

Batscap commercialise aussi des super condensateurs, notamment à travers un contrat avec BMW. Les super condensateurs délivrent une grande puissance instantanée, sur de très courtes durées ; ils sont souvent utilisés pour les phases de démarrage pour compenser la faible puissance instantanée des batteries au plomb. Mme de Guibert, directeur de la recherche de Saft, a indiqué à vos rapporteurs que la technologie des super condensateurs utilisée par Batscap est reconnue comme l’une des meilleures au monde selon certaines évaluations américaines.

► Le CEA a fait son entrée dans l’univers des batteries avec une technologie Lithium Ion Phosphate de Fer (LiFePO4), dans l’esprit de développer un avantage comparatif. La technologie Lithium-Ion s'est en effet développée au profit des appareils portables en utilisant du dioxyde de cobalt à la cathode. Si elle permet d'atteindre de forte densité énergétique, elle présente aussi des risques en termes de sécurité, en cas de chauffage ou de perçage. De plus, le cobalt n'est pas un matériau assez abondant pour faire face à un besoin d'équipement de l'ensemble du parc automobile. Tel n'est pas le cas du phosphate de fer qui, utilisé à la cathode, abaisse d’un quart environ la performance d'une batterie Lithium Ion, mais améliore considérablement ses conditions de sûreté : la batterie au phosphate de fer ne s'enflamme pas lorsqu'on la perce avec un clou. En outre, il en diminue le coût brut de fabrication de moitié. Si l'on ajoute une économie réalisée au niveau des systèmes de commande internes pour gérer les risques, le CEA est en mesure d’afficher un coût de fabrication presque diminué des trois-quarts, 15 euros le kilogramme au lieu de 50 euros pour les batteries Lithium-Ion à dioxyde de cobalt. Cette technologie est exploitée depuis peu dans le cadre d'une start-up, Prollion, dotée d'un « LabFab » permettant de réaliser de petites séries de composants des batteries, voire de les intégrer.

Par ailleurs, le CEA poursuit des recherches de rupture sur les électrodes, visant en 2015 à atteindre une densité massique de 300 Wh par kg, qui permettrait d’abaisser de moitié le poids des batteries nécessaires pour une autonomie de 100 km, de l’ordre de 100 kg aujourd’hui.

► Le réseau Alistore fédère l’ensemble des acteurs français de la recherche fondamentale sur les batteries au lithium : on y compte le laboratoire de son initiateur et animateur, Jean-Marie Tarascon, à l’Université d’Amiens, mais aussi celui de Claude Delmas à l'Institut de chimie de la matière condensée de Bordeaux, le laboratoire Madirel à l’Université de Provence, le laboratoire Cirimat à l’Université de Toulouse, le laboratoire Aime à l’Université de Montpellier et le Laboratoire Iprem à l’Université de Pau. Ce réseau a de surcroît une dimension européenne. Il sert de modèle à la manière dont un ensemble dispersé de chercheurs peut s’organiser pour maintenir un haut niveau de performance, et se trouver mieux à même de développer des liens avec l’industrie. Vos rapporteurs suggèrent notamment une organisation sur ce modèle dans le domaine de l’électronique organique, qui constitue un des aspects de la recherche sur les capteurs solaires.

On peut identifier trois axes sur lesquels la recherche pourrait réaliser des progrès permettant de se rapprocher de la limite théorique de fonctionnement des accumulateurs au lithium :

- l’usage de nouveaux matériaux d’électrodes fonctionnant sur des principes nouveaux et permettant des capacités spécifiques plus élevées (par exemple des nanomatériaux permettant des réactions dites « de conversion », ou des composites) ;

- l’amélioration technologique des boîtiers et de la connectique, des électrolytes et autres composants. C’est ce type de progrès technologique qui a permis à la batterie Lithium Ion de tripler sa capacité en charge depuis sa première diffusion commerciale par Sony en 1992 ;

- l’introduction d’un système électronique interne de gestion optimisée des ressources pour augmenter la performance et la durée de vie de la batterie.

Pour l’instant, la technologie des véhicules rechargeables (« plug-in ») n’est pas disponible à l’échelle industrielle, car elle nécessite des batteries à forte capacité de stockage d’énergie, qui supportent bien la multiplication des cycles de charge-décharge, et doivent répondre en outre aux fortes exigences de sécurité de l’automobile. Même Toyota ne dispose pas de prototype d’une autonomie supérieure à 20 km. Elle n’est mise en œuvre à ce jour que dans des cas particuliers, le plus souvent compatibles avec le transport de batteries très lourdes, comme par exemple le tramway de Nice, dont les accumulateurs sont d’ailleurs au plomb pour des raisons de sécurité.

Néanmoins, les grands acteurs mondiaux du secteur prennent des positions pour investir ce marché futur :

- Au Japon, Toyota a renforcé son alliance avec Panasonic pour développer et produire des nouvelles batteries, et a passé un accord avec EDF afin que ses futurs véhicules hybrides rechargeables soient alimentés avec une électricité non émettrice de gaz à effet de serre ; Renault compte sur les batteries conçues par l'alliance Nissan-NEC ;

- En Allemagne, pour remédier au démantèlement de la société Varta à la fin des années 90, le Gouvernement a favorisé la reconstitution en 2007 d’une force industrielle dans le domaine des batteries autour du groupe Evonik. Par ailleurs, un plan national de développement de la voiture électrique, annoncé en novembre 2008, devrait réunir les constructeurs d'automobiles (BMW, Daimler) et les producteurs d'électricité (E.On, RWE) pour organiser l’alimentation d'un futur parc d’un million de véhicules, ce qui représentera quelques pourcents de la production allemande d’électricité ;

- Les autorités européennes ont lancé divers programmes pour suivre ces évolutions (Ertrac, Eucar, Earpa) et la Commission a prévu, fin novembre 2008, un soutien de 5 milliards d'euros pour le développement des voitures « vertes ».

La mesure n°49 du Plan national de développement des énergies renouvelables présenté le 17 novembre 2008 demande que le CEA mette en place une plateforme technologique permettant d'assurer à la France une indépendance dans l'exploitation de ses avancées technologiques dans le domaine des batteries. Cette mesure est en cours de mise en œuvre avec la création de Prollion, et un accord avec Prayon, industriel belge possédé pour moitié par l'Office chérifien des phosphates (Maroc), pour permettre d'implanter en Isère une unité de fabrication de phosphate de fer optimisé selon le brevet du CEA. Vos rapporteurs ne peuvent que souscrire à ces initiatives.

b) Le déploiement de STEP en mer

Les « stations de transfert d'énergie par pompage » (STEP), c'est-à-dire les retenues d’eau alimentant une turbine, constituent la technologie capable jusqu’à ce jour des stockages d’énergie les plus importants, et permettant de délivrer la plus grande puissance, avec un rendement inégalé de 90% au pompage comme au turbinage, soit un rendement total d’environ 80% sur un cycle de stockage – déstockage. En outre, leur utilisation ne dégage pas de gaz à effet de serre.

Des besoins de stockage de grande ampleur deviennent de plus en plus nécessaires avec l’objectif communautaire de produire au moins 20% de la consommation primaire d’énergie sous forme renouvelable à l’horizon 2020, puisque les principales sources d’énergie renouvelable utilisables sous forme d’électricité, le vent et le soleil, sont fondamentalement intermittentes. Cela concerne surtout les cas d’utilisation des énergies renouvelables en raccordement au réseau, car, en site isolé, des moyens de stockage de moyenne capacité, batterie ou pile à combustible, sont mieux adaptés.

Cependant la construction des STEP suppose la réunion de trois conditions géographiques particulières :

1°) un récipient géologique étanche, typiquement une cuvette glaciaire ;

2°) un approvisionnement en eau, entretenant le bassin auquel s’alimente le pompage ;

3°) un accès au réseau électrique via des lignes à haute tension.

Il faut en outre obtenir l’accord des populations avoisinantes pour l’installation de ces grandes infrastructures. Or, cette dernière condition devient plus exigeante aujourd’hui, et la plupart des sites les plus appropriés ont déjà été équipés. C’est la raison pour laquelle, ainsi que vos rapporteurs l’ont appris en se rendant à Palo Alto, l’Electric Power Research Institute (EPRI), consortium des grands producteurs d’électricité américains et mondiaux, a relancé ses réflexions sur les systèmes de stockage d’énergie à air comprimé (Compressed Air Energy Storage - CAES) permettant notamment de réutiliser à cette fin d’anciens puits de gaz. Cette solution un peu moins efficace présente l’avantage de s’insérer un peu plus facilement dans l’environnement.

► Mais il existe une autre manière de relancer la construction des STEP, et l’idée en revient à un ingénieur, expert mondialement reconnu dans le domaine des barrages, que vos rapporteurs ont auditionné le 12 juin 2008 : M. François Lempérière. Après une longue carrière en entreprise l’ayant amené à diriger divers chantiers à travers la planète, M. François Lempérière assure encore à ce jour la présidence d’un des comités techniques de la commission internationale des grands barrages. Il double sa connaissance de la technologie des barrages d’une expertise dans le domaine de l’énergie marémotrice, qui l’a amené à réaliser récemment des études pour des pays se proposant d’exploiter leurs potentialités à cet égard : la Russie, l’Inde. C’est d’ailleurs à l’occasion d’une étude effectuée, à la demande d’EDF, sur d’éventuels sites possibles pour des centrales marémotrices sur la côte française, qu’il a structuré ses réflexions sur une nouvelle forme de stockage d’énergie de masse.

L’idée de M. Lempérière consiste à construire des STEP en mer, plus particulièrement sur le littoral de la Manche, en profitant de deux circonstances favorables :

- la faible profondeur du plateau continental, qui reste encore d’une vingtaine de mètres à des distances de plusieurs dizaines de kilomètres de la côte, avec des fonds favorables en alluvions sablo-graveleuses ou rocher ;

- la demande relativement plus importante d’électricité dans le Nord de la France, alors justement que les moyens de stockage classiques sont concentrés dans les Alpes.

Cette localisation correspond en outre à une zone de développement de l’énergie éolienne, on-shore surtout pour l’instant, mais off-shore aussi dans l’avenir, pour atteindre l’objectif d’un parc de 25 GW qu’a fixé le « Plan national de développement des énergies renouvelables » du 17 novembre 2008.

Il s’agirait de construire des atolls artificiels, en fait des réservoirs de plusieurs kilomètres carrés, délimités par une digue se refermant sur elle-même et s’élevant de 50 à 100 mètres au dessus de la surface, protégés par une ligne de brises lames. La hauteur d’eau atteinte à l’intérieur du réservoir permettrait de stocker de 2 à 8 GWh par kM²29, pour des puissances de plusieurs GW : le remplissage s’effectuerait par pompage à l’aide du courant électrique qu’il s’agirait de stocker ; le déstockage d’énergie s’effectuerait par déversement de l’eau accumulée sur des turbines, comme dans un barrage hydroélectrique.

Les pompes et les alternateurs seraient reliés au réseau électrique terrestre à travers un câble sous-marin, comme ceux traversant le détroit de Gibraltar ou la Manche.

COUPE D’UN ATOLL DE STOCKAGE D’ÉNERGIE

(1) Niveau de la mer; (2) Niveaux haut et bas du bassin; (3) Brise lame; (4) Digue (sable et gravier); (5) Barrière d’étanchéité; (6) Végétation; (7) Fond naturel (sable et gravier).

Ces atolls de stockage, que M. Lempérière appellent des « lacs émeraudes » pour mettre l’accent sur leur qualité écologique, pourraient être implantés en des endroits ne gênant pas la navigation, et suffisamment au large pour devenir peu visibles depuis la côte. Une solution alternative ou complémentaire serait aussi d’adosser le réservoir à la côte, dans une zone où la construction s’intégrerait à l’environnement.

La construction, à partir de grandes barges, selon des techniques éprouvées puisque régulièrement utilisées pour l’aménagement des ports, serait dans une certaine mesure moins complexe que celle d’une STEP en zone de montagne, où les reliefs du terrain obligent à des aménagements complémentaires importants, pour les accès en haute montagne et les tunnels de liaison entre les deux bassins.

Selon M. Lempérière, la réalisation de digues de 50 mètres au dessus de la surface de l’eau, c’est à dire de 70 mètres de hauteur totale, n’aurait rien d’exceptionnel au regard des performances atteintes dans les barrages, puisque la digue de celui de Nourek, au Tadjikistan, s’élève à près de 300 mètres ; la protection des ports a conduit par ailleurs à bien maîtriser, au fil des siècles, les techniques d’établissement des brises lames.

L’usine marémotrice de la Rance, en service depuis 40 ans, a démontré l’efficacité des procédés assurant la résistance à l’eau salée des ciments et des turbines.


Ainsi la triple difficulté liée à l’existence d’un vaste récipient étanche, d’un bassin approvisionné en eau, et d’une liaison de haute tension avec le réseau électrique se trouve levée, dans des conditions d’atteinte minimale à l’environnement, puisque l’atoll de stockage apparaîtrait au loin comme une île, de surcroît verdoyante puisque le parement extérieur de la digue serait couvert de végétation. L’espace intérieur entre les brises lames et la digue proprement dit peut éventuellement être équipé pour servir de port de pêche ou de plaisance.

L’idée des atolls de stockage d’énergie a suscité l’intérêt de la Commission « Energie et changement climatique » de l’Académie des technologies qui a organisé une audition de M. François Lempérière, le 12 novembre 2008, dans ses locaux du Palais de la découverte.

Les échanges ont mis en avant qu’une piste similaire, celle d’utiliser la mer comme un bassin bas, en pompant l’eau non pas pour remplir un réservoir situé au large, mais pour la ramener dans un bassin haut établi au sommet d’une falaise, a déjà été explorée au Japon, un démonstrateur ayant été même construit sur l’île d’Okinawa. Ce modèle n’est cependant pas transposable en France, car, d’une part, une étude de la société Electrabel a montré que la géométrie du littoral méditerranéen ne s’y prêtait pas, et d’autre part, les falaises de la Manche se trouvent trop à proximité de zones habitées ; la construction d’un bassin haut en mer, selon le modèle de l’atoll, en adossant éventuellement celui-ci à la falaise, paraît plus efficace et plus sûr.

L’effort d’investissement nécessaire à la construction des atolls a été mis en parallèle avec le besoin de construire en Europe de nouvelles lignes à haute tension pour assurer l’équilibre du réseau électrique continental : dans les deux cas, les moyens à mobiliser sont importants, et l’acceptation sociale est déterminante ; si certains projets de lignes à haute tension peinent à se concrétiser, les atolls de stockage en mer, quoique raccordés du fait de la géographie des côtes à des points périphériques du réseau, pourraient constituer dans certains cas une solution de rechange intéressante.

La puissance délivrée, de l’ordre de plusieurs GW, serait suffisante pour éviter ou compléter le recours aux centrales thermiques durant les périodes de pointes de consommation, ce qui présenterait l’avantage de réduire les émissions de gaz à effet de serre, pourvu que l’électricité stockée ait été fournie par une source non carbonée.

A moins d’être adossés directement à la côte, les atolls devraient être situés à une distance suffisante de la rive, sinon ils auront probablement tendance à se constituer en presqu’îles.

Les membres de l’Académie des technologies ont conclu que les atolls de stockage présentent un intérêt par eux-mêmes, sans qu’ils aient à fonctionner nécessairement en lien avec d’autres ouvrages d’exploitation des énergies marines ; en revanche, ils constituent clairement une réponse adaptée au besoin de mieux gérer l’intermittence de l’énergie éolienne. Des évolutions juridiques sont nécessaires pour permettre leur développement, en ce qui concerne d’une part la tarification de l’électricité, et d’autre part l’octroi de concession en mer.

► A la demande de vos rapporteurs, M. Lempérière a procédé à une évaluation des ordres de grandeur des investissements nécessaires.

Le coût de l’ouvrage dépend de la longueur de la digue formant la paroi du réservoir. La surface de la zone de rétention croissant comme le carré de la longueur de la digue, le coût de revient de la construction au kWh stocké décroît lorsque la taille de l’ouvrage augmente, ce qui implique que cette forme de stockage ait une certaine ampleur, à l’échelle d’un lac de plusieurs kilomètres de diamètre.

L’étude du cas (purement virtuel à ce stade) considéré par M. Lempérière pour asseoir ses calculs est présentée en annexe. Elle conclut à un montant d’investissement de l’ordre de 6 milliards d’euros pour une surface de rétention de 23 km², correspondant à une capacité de stockage d’énergie de 160 GWh et une puissance de 5 GW.

Ces chiffres montrent qu’un seul atoll de stockage, de 5 kilomètres de diamètre, pourrait compenser l’indisponibilité, pour cause d’absence ou d’excès de vent, de l’équivalent d’un cinquième du parc éolien français prévu pour 2020 (25 GW) pendant 32 heures, c'est-à-dire une journée et demi. C’est dire s’il s’agit d’un instrument bien dimensionné pour répondre à la difficulté fondamentale posée par l’intégration des énergies renouvelables au réseau d’électricité, à savoir leur intermittence30. Le coût d’un atoll est du même ordre que celui d’une centrale nucléaire.

► Vos rapporteurs suggèrent en conséquence que cette forme de stockage d’énergie fasse l’objet d’études en liaison avec l’effort de développement de l’énergie éolienne ; la possibilité à terme d’une substitution aux centrales thermiques doit également être considérée, puisqu’avec un pompage alimenté par une électricité non carbonée, il s’agirait là d’un moyen pour limiter les émissions de gaz à effet de serre.

Ainsi que l’a souligné l’Académie des technologies, un double ajustement de la règlementation paraît nécessaire pour permettre la réalisation des atolls de stockage :

- d’abord, il est indispensable de clarifier les conditions juridiques dans lesquelles pourrait s’effectuer l’emprise en mer permettant d’implanter les ouvrages en question ; l’IFREMER paraît particulièrement bien placée pour étudier cette question et, éventuellement, proposer les ajustements législatifs nécessaires ;

- ensuite, il convient d’adapter le régime tarifaire de l’électricité en créant des conditions incitatives à l’investissement dans les STEP. Actuellement, non seulement l’électricité d’origine renouvelable bénéficie d’un tarif de rachat plus élevé que celle provenant des retenues hydroélectriques, mais encore l’achat d’électricité pour alimenter les pompes d’une STEP est soumis à la contribution au service public de l’électricité (CSPE). Pour mieux ajuster l’échelle des tarifs aux besoins du réseau, il faudrait que, dans le cas où elle provient d’un dispositif de stockage alimenté lui-même grâce à des énergies renouvelables, l’électricité bénéficie d’un tarif de rachat beaucoup plus avantageux que lorsqu’elle provient directement d’une source renouvelable ; un tel schéma tarifaire inciterait les promoteurs de l’énergie renouvelable à participer à l’effort d’investissement dans les systèmes de stockage. Et il serait juste que toute fourniture d’électricité à partir d’une STEP entraîne un remboursement de CSPE à hauteur de la part d’électricité du réseau utilisée pour remplir le réservoir.

Vos rapporteurs tiennent à souligner que la construction d’un atoll de stockage d’énergie constituerait une première mondiale, renforçant la place et l’image de la France dans la lutte contre le changement climatique, puisqu’il s’agit fondamentalement d’un instrument permettant de valoriser le développement des énergies renouvelables, et lutter contre les émissions de gaz carbonique. Il serait dommage que, selon un schéma trop connu, l’idée d’un ingénieur français soit d’abord mise en œuvre dans un autre pays avant de pouvoir être exploitée en France.

c) Le stockage réparti dans le parc automobile

Le stockage d’énergie est de prime abord perçu comme un besoin focalisé sur un réservoir, vers lequel il s’agit de faire converger des apports d’énergie pour une redistribution ultérieure. Mais vos rapporteurs ont pris connaissance, à travers leurs auditions, d’une possibilité différente de gérer le stockage, qui consiste à le concevoir comme pris en charge par un réseau. M. Dominique Maillard, président de RTE, a mentionné que les progrès de l’interconnexion des réseaux d’énergie européens remplit de facto une fonction de stockage. Mais un autre mode de stockage réparti pourrait se mettre en place à la faveur de l’évolution des systèmes de traction des véhicules.

► La première forme de ce nouveau système de stockage résulterait du développement à grande échelle du véhicule électrique, que ce soit en mode unique ou hybride. En effet, chaque véhicule électrique dispose avec sa batterie d’une capacité de stockage, qui peut être gérée à la fois en fonction de ses besoins propres, et des besoins en électricité du pays : si la production nationale d’électricité dépasse la demande, tous les véhicules électriques en stationnement, dans les garages individuels ou sur les places de parking, peuvent devenir destinataires de l’excédent d’énergie pour le stocker ; à l’inverse, si l’offre nationale devient insuffisante, l’ensemble des batteries constitue une sorte de réservoir unique où l’on peut puiser le complément d’énergie nécessaire.

Cette faculté potentielle du parc automobile à contribuer à la régulation des pointes de consommation d’électricité vient de ce qu’il représente une capacité de production d’énergie très supérieure à celle du parc des centrales électriques  : pour une consommation des deux parcs à peu près équivalente en France, de l’ordre de 500 TWh par an, le parc automobile français, selon Pierre-René Bauquis, dispose d’une puissance équivalente à 100 fois celle du parc de production d’électricité d’EDF.

La mise en place d’un tel dispositif de stockage suppose de lourds aménagements d’infrastructures, pour créer une possibilité de raccordement des véhicules en tout lieu de stationnement. Cela suppose aussi d’enrichir les fonctionnalités du réseau électrique, pour lui permettre de fonctionner non seulement en fourniture, mais aussi en collecte, et aussi d’ajuster son apport ou son prélèvement, au cas par cas, en fonction du niveau de batterie de chaque véhicule.

C’est là le cœur des réflexions autour des « réseaux intelligents » (Smart Grids), qui se posent exactement dans les mêmes termes à la faveur de l’évolution vers les « bâtiments à énergie positive », disposant d’une capacité globale de production d’énergie. L’intelligence à mettre en œuvre doit d’ailleurs en théorie permettre d’opérer les compensations d’offre et de demande d’énergie de la manière la plus efficace possible, en procédant aux ajustements localement quand c’est possible. M. Dominique Maillard a indiqué à vos rapporteurs que des recherches dans ce domaine sont déjà en cours, ce qu’a confirmé une présentation de l’EPRI à Palo Alto. Mais il s’agit encore d’études exploratoires.

► Une autre manière d’utiliser le parc automobile comme un réservoir de stockage d’énergie consiste à incorporer les excédents d’électricité aux biocarburants, en produisant grâce à eux, par l’intermédiaire d’une électrolyse, l’hydrogène permettant d’accroître l’efficacité de rendement de leur production. Sous l’hypothèse que la production de base d’électricité soit dimensionnée à hauteur du maximum de puissance sollicitée dans l’année, toutes les périodes de consommation moindre alimenteraient alors la chaîne de fabrication des biocarburants. Cela concernerait des biocarburants de deuxième génération, produits à partir de biomasse.

Ce dispositif, présenté à vos rapporteurs le 10 juillet 2008, par M. Bernard Bigot, Haut commissaire à l’énergie atomique, permettrait d’accroître l’indépendance énergétique de notre pays tout en réduisant les émissions de gaz à effet de serre, car l’élargissement de la production de base s’effectuerait par recours à des sources non carbonées (nucléaire et renouvelable), qui se substitueraient aux sources fossiles alimentant les centrales à flammes. M. Bigot a eu l’occasion de développer de manière plus complète son approche lors d’une audition publique sur les biocarburants.

L’effort de recherche sur le stockage d’énergie constitue une priorité nationale, aussi bien en ce qui concerne les batteries, pour assurer le développement des véhicules hybrides rechargeables, qu’en ce qui concerne le stockage de masse dans les STEP, indispensables à l’intégration des énergies renouvelables, et qui doivent bénéficier d’un régime tarifaire plus incitatif.

A terme, la France devrait pouvoir disposer d’équipements lui permettant de stocker l’énergie tout d’abord dans le parc automobile, grâce à un réseau de distribution intelligent, ensuite sous forme d’hydrocarbures, par dopage à l’hydrogène de la transformation de la biomasse, enfin dans des atolls artificiels, grâce à des ouvrages venant compléter sur le littoral de la Manche le parc des STEP implantées dans les zones de montagne.

4. La recherche sur les biocarburants

Les débats suscités par le développement rapide des biocarburants ont conduit vos rapporteurs à organiser le 1er octobre 2008 une audition publique sur cette question, en liaison avec leurs collègues députés et membres de l’OPECST, Jean-Pierre Brard et Jean-Yves Le Déaut. Le compte-rendu en est fourni en annexe.

a) Un apport indispensable, mais limité

Les premières contributions ont souligné la place indispensable, quoique structurellement partielle, des biocarburants dans l’approvisionnement du parc automobile en carburants liquides. Ils jouent d’ores et déjà un rôle dans la résolution de la tension qui se dessine entre la dynamique de la demande poussée par le développement des pays émergents et la limitation des capacités de production due à la perspective d’un épuisement progressif des ressources fossiles. Dans un scénario explorant l’horizon de la fin du siècle, Pierre-René Bauquis en fait l’une des quatre ressources énergétiques des automobiles à côté de l’électricité, des carburants synthétiques, et des carburants fossiles, qui pourraient, vers 2100, représenter encore 25% du total, contre 98% aujourd’hui.

La production de biocarburants doit être une occasion de compenser les déséquilibres géographiques entre l’offre et la demande des deux filières de carburants fossiles, l’essence et le diesel. En Europe, la demande se porte sur le diesel alors que l’offre est plus abondante en essence. Vos rapporteurs ont donc appris avec intérêt, lors de leur visite du centre de l’IFP à Lyon, le 4 décembre 2008, que des recherches y étaient en cours sur l’emploi du bioéthanol, utilisé aujourd’hui exclusivement en incorporation à l’essence, dans un moteur à allumage par compression. M. André Douaud, directeur technique au Comité des constructeurs français d'automobiles, a indiqué que d’autres recherches visaient à développer, au-delà des moteurs flexfuel, des moteurs fonctionnant uniquement au bioéthanol ; mais la moindre densité énergétique de celui-ci oblige à réaliser des progrès en termes de rendement.

b) La réalité de l’effet d’éviction sur l’alimentation

Les biocarburants de première génération conservent encore des marges de progression, en dépit de la dénonciation par divers courants écologistes, rejoints par la FAO en juin 2008, d’un effet d’éviction au détriment de l’agriculture alimentaire. En fait, la hausse des prix des produits alimentaires, due fondamentalement à l’augmentation de la population et de la demande dans les pays émergents, et accentuée par le contrecoup de la montée du prix du pétrole sur les intrants, était déjà anticipée depuis plusieurs années par les organismes de prévision, selon M. Hervé Guyomard, directeur scientifique à l’INRA. Sur les 1,6 milliards d’hectares de terres cultivées dans le monde, la surface dédiée aux biocarburants représentait 20 à 25 millions d’hectares en 2006, et ne devrait pas en occuper plus de 70 à 80 millions en 2020, en supposant atteints tous les objectifs politiques de production affichés partout dans le monde, pour fournir alors 3% à 4% de la consommation mondiale de carburants. Or, les réserves disponibles pour une mise en agriculture atteignent un milliard d’hectares dans le monde.

L’effet d’éviction a pu jouer dans certaines zones de rapides extensions, comme aux États-Unis, où la surface consacrée aux cultures dédiées à la production de bioéthanol atteindrait 3 à 4% de la totalité des terres en exploitation, selon les informations recueillies par vos rapporteurs lors de leur séjour à Washington. En Europe, en revanche, où la politique des biocarburants est motivée depuis 1992 par la mise en valeur des terres placées en jachère (10% de la surface agricole), la question ne se pose pas encore. Selon Bruno Jarry, auteur au nom de l’Académie des technologies d’un rapport sur les biocarburants publié en septembre 2008, l’objectif fixé par la directive de 2003 d’atteindre en 2010 une production représentant 5,75%, en teneur énergétique, de la consommation de carburants pétroliers ne sera même pas tenu, sauf en Allemagne et en France. Cependant, la cible plus ambitieuse de 10% à l’horizon 2020, retenue par la Commission en janvier 2008, pourrait conduire à des importations ayant un effet déstabilisant dans les pays fournisseurs ; à moins que ne joue l’effet de frein produit par les incohérences, observées par M. Jacques Blondy, en charge des aspects agricoles du développement des biocarburants à la direction de la recherche de Total, entre des deux directives « biocarburants » et « énergies renouvelables ».

Une politique de soutien aux biocarburants n’a de sens qu’à long terme, et le bilan économique de ce soutien, clairement déficitaire d’un point de vue purement financier, doit tenir compte des externalités produites en termes d’aménagement du territoire, et de diminution des émissions de gaz à effet de serre. Or, sur ce point fondamental, tout dépend des conditions de la production, et de la valorisation des co-produits. Une extension des surfaces cultivées au détriment des forêts ou des herbages va à l’encontre de la lutte contre le changement climatique. A l’inverse, M. Jean-François Loiseau, président d’Agralys, explique qu’une gestion ajustée des apports d’engrais, guidée à partir d’une imagerie par satellite, permet d’obtenir globalement une réduction de 60% des rejets de gaz carbonique.

Quant au bilan énergétique des productions de première génération, il tangente souvent l’équilibre, surtout pour la filière de l’alcool. Il dépend largement de la manière d’évaluer l’économie en énergie fossile représentée par l’utilisation des résidus agricoles. Au Brésil, l’usine plantée au milieu du champ qui distille le sucre en utilisant la bagasse comme combustible est un modèle d’efficacité énergétique. En Europe, le recours aux combustibles fossiles est compensé par la cogénération et l’affectation des déchets à la nourriture animale. Selon M. Pierre Cuypers, président de l’ADECA31, la France, depuis qu’elle produit des biocarburants, a réduit son taux de dépendance en alimentation animale de 80% à 50%.

c) L’apport des filières de deuxième génération

Le développement des filières de deuxième génération vise à soustraire le bilan énergétique et écologique des biocarburants aux contraintes de l’agriculture, en utilisant la biomasse comme matière première : arbustes, taillis, plantes herbacées, déchets. En ce cas, la concurrence entre usage alimentaire et usage énergétique s’efface ; le gain en réduction des émissions de CO2 par rapport aux carburants fossiles atteint 70 à 90 %, en raison notamment de l’allègement des opérations d’exploitation, et de la réduction des apports d’intrants. Les rendements sont doublés, voire quadruplés par rapport à ceux des biocarburants de première génération : deux à quatre « tonnes équivalent pétrole » (tep) à l’hectare au lieu d’une tep à l’hectare.

M. Olivier Appert, président de l’IFP, a présenté les deux voies de production possibles : la voie biochimique, qui consiste à transformer les matières premières en sucre, puis en éthanol, grâce à un prétraitement, une hydrolyse32, une fermentation et une distillation ; la voie thermochimique qui permet d’obtenir un diesel très pur, après un prétraitement, une gazéification, un traitement du gaz de synthèse obtenu, une conversion Fischer-Tropsch33 et une finition par hydrocraquage34.

Ces deux voies permettent d’exploiter la biomasse végétale de manière complémentaire : la voie biochimique est optimisée lorsque celle-ci comporte moins de lignine et plus de cellulose, ce qui correspond aux plantes herbacées ; la voie thermochimique produit un carburant de pouvoir calorifique supérieur si, à l’inverse, elle est relativement plus riche en lignine, ce qui est le cas avec le bois.

La voie biochimique s’appuie sur la filière éthanol existante, par des unités complémentaires de prétraitement et d’hydrolyse accolées aux usines déjà en fonctionnement. La voie thermochimique nécessite de nouvelles unités centralisées de grande taille permettant d’exploiter les économies d’échelle (quatre ou cinq à l’échelle de la France), placées soit dans des zones d’approvisionnement intense en biomasse (les forêts), soit à des nœuds de communication permettant d’acheminer la matière première. Ce dernier cas est illustré par le pilote industriel de Neste Oil en Finlande, visité par vos rapporteurs ; situé sur le port pétrolier de Porvoo, il est approvisionné par tankers, pour partie en graisses animales, et pour l’essentiel en huile de palme venant d’Indonésie.

Dans ses scénarios, l’Agence internationale de l’énergie estime qu’en 2050 les biocarburants de deuxième génération pourraient représenter 15 à 20 % de la consommation de carburants liquides dans le monde. Les recherches en sont au stade de l’industrialisation des procédés, ce qui suppose l’implantation de pilotes de démonstration. M. Olivier Appert a signalé que la France était au même degré d’avancement que ses principaux concurrents mondiaux dans ce domaine, sans retard ni avance, ce qui exigeait de maintenir la dynamique en cours.

Or, comme l’a rappelé M. François Moisan, directeur de la stratégie et de la recherche de l’ADEME, l’un des apports essentiels du rapport du Comité opérationnel sur la recherche du Grenelle de l’environnement a été justement de recommander la création d’un fonds « Démonstrateurs », ainsi justifié : « Les démonstrateurs constituent une étape importante du processus de recherche-développement-industrialisation des technologies. Cette étape se situe après la phase de recherche en laboratoire et avant la phase d’industrialisation. Les démonstrateurs sont le plus souvent le fait d’industriels qui testent les technologies disponibles à une échelle supérieure de celle du laboratoire, sans pour autant passer au stade de l’industrialisation. Cette phase permet d’optimiser les technologies, de valider des choix ou de lever certains verrous, et peuvent renvoyer à des recherches amont. Ces démonstrateurs se situent dans le processus de R&D avant les démonstrations exemplaires qui sont réalisées à l’échelle1 dans un cadre industriel et commercial. » (p.13).

L’ADEME, qui prend en charge la gestion de ce fonds, a donc sans tarder lancé des appels à manifestation d’intérêt pour des démonstrateurs concernant les deux voies biochimique et thermochimique. Le projet FUTUROL, déjà envisagé dans le cadre des soutiens antérieurs à la recherche industrielle35, a été sélectionné au titre de la voie biochimique ; il sera implanté à Pomacle-Bazancourt, dans la Marne. M. Ghislain GOSSE, chargé de mission à l’INRA, a expliqué que le projet se focaliserait sur les deux premières étapes de production : d’abord le prétraitement, visant à extraire la cellulose de la biomasse, ensuite l’hydrolyse enzymatique, transformant les sucres composés en sucres simples ; avec la betterave, le prétraitement est facilité, car une fois le jus sucré extrait, la pulpe restante, chimiquement, est constituée de cellulose pure.

d) Le projet de pilote industriel à Bure

Pour la voie thermochimique, plusieurs projets sont en lice en ce début d’année 2009. L’un d’eux marque de façon symptomatique la volonté de GDF Suez de développer à terme son offre d'énergie "verte". Mais un autre de ces projets bénéficie très spécifiquement du soutien appuyé de vos rapporteurs, et de leur collègue Jean-Yves Le Déaut : il consiste à implanter un démonstrateur dans la région de Bure, à la frontière de la Meuse et de la Haute-Marne. La zone se trouve à proximité de forêts très denses, et surtout elle abrite le laboratoire souterrain de recherche sur le stockage des déchets radioactifs de haute activité. Or, la loi du 28 juin 2006 de programme relative à la gestion durable des matières et déchets radioactifs prévoit, en son article 13, que l’État, en tant que membre d’un groupement d’intérêt économique auquel participent également l’ANDRA, la région Lorraine, les deux départements précités, et les communes ou leurs groupements avoisinants, doit « soutenir des actions de formation ainsi que des actions en faveur du développement, de la valorisation et de la diffusion de connaissances scientifiques et technologiques, notamment dans les domaines étudiés au sein du laboratoire souterrain et dans ceux des nouvelles technologies de l’énergie. » (article L.542-11 du code de l’environnement).

La même obligation est mentionnée par un alinéa de l’article 19 du projet de loi de programme relatif à la mise en œuvre du Grenelle de l’environnement, tel qu’il ressort de l’examen en première lecture par l’Assemblée nationale :

« Afin d'accélérer la mise en oeuvre des nouvelles technologies ou des nouveaux services contribuant à la lutte contre le changement climatique, les démonstrateurs de nouvelles technologies de l'énergie pourront bénéficier du soutien de l'Agence de l'environnement et de la maîtrise de l'énergie. Le rapport annuel mentionné à l'article 10 de la loi n°2005-781 du 13 juillet 2005 précitée rendra compte de l'avancement des projets ainsi soutenus, notamment des projets sur la biomasse prévus par la loi n°2006-739 du 28 juin 2006 de programme relative à la gestion durable des matières et déchets radioactifs, qui prévoit des actions d'aménagement du territoire et de développement économique. »

La localisation sur le site du laboratoire lève toutes les objections relatives à des difficultés éventuelles d’accès, puisqu’une autorisation par le législateur, en 2015, de construire en cet endroit un centre de stockage des déchets radioactifs à vie longue de moyenne et haute activité, entraînerait automatiquement la mise en place d’une infrastructure lourde d’acheminement.

Vos rapporteurs, qui ont contribué conjointement à l’organisation du dispositif français des déchets radioactifs, à l’occasion de la préparation au sein de l’OPECST, puis de la discussion au sein de l’Assemblée nationale, des deux lois du 30 décembre 1991 et du 28 juin 2006, souhaitent fortement l’aboutissement du projet du CEA tentant à implanter, sur le site de Bure, un démonstrateur thermochimique axé sur le perfectionnement du procédé de gazéification utilisé par la société Choren, à Freiberg, en Saxe. Cette société, aujourd’hui contrôlée par le groupe Shell, a été fondée par le docteur Bodo Wolf, inventeur du procédé de gazéification en question.

M. Bodo Wolf, présent lors de l’audition publique du 1er octobre 2008, a expliqué que ce procédé tirait son efficacité d’une gazéification en deux étapes : la première effectuée à une température de 500°C dégage un gaz intermédiaire, utilisé comme combustible pour la seconde, qui est effectuée à 1500°C et permet de produire le gaz de synthèse, mélange d’hydrogène et de monoxyde de carbone, indispensable à la conversion Fischer-Tropsch.

M. Paul Lucchese, responsable du programme NTE au CEA, a indiqué que, si la technologie de gazéification à flux entraîné, telle que permise par le réacteur Choren, était effectivement la plus appropriée pour une production de masse permettant de réduire les pertes thermiques et les coûts, toutes les étapes de la chaîne opérationnelle restaient à optimiser. Au niveau du prétraitement de la biomasse, il faut étudier l’intérêt des différentes techniques de pyrolyse ou de torréfaction ; l’alimentation en biomasse du réacteur doit être adaptée à des débits importants, et le fonctionnement du réacteur lui-même nécessite d’être fiabilisé pour de grandes capacités ; son rendement peut en outre être encore optimisé, car l’adjonction de torches plasma et l’injection d’hydrogène extérieur permet d’espérer un rendement double ou triple. La France doit impérativement passer à une autre échelle d’investissement dans ce domaine, pour ne pas se faire distancer notamment par la Finlande et l’Allemagne, qui mobilisent d’ores et déjà des moyens importants sur chaque étape de la filière.

L’effet de levier résultant d’un apport extérieur d’hydrogène, qui permet de tripler le rendement de la production de biodiesel, est perçu par M. Bernard Bigot, Haut Commissaire à l’énergie atomique, et depuis le début de l’année 2009, Administrateur général du CEA, comme un moyen de stockage d’énergie à grande échelle ; l’électricité excédentaire produite par une augmentation conséquente de la production d’origine nucléaire et renouvelable, dépassant largement la consommation de base, pourrait ainsi être utilisée pour alimenter une électrolyse de masse, produisant de manière asynchrone de grandes quantités d’hydrogène qui seraient ensuite incorporées aux biocarburants. Par là, l’autosuffisance énergétique dans les transports deviendrait accessible en France, pourvu que l’hybridation des véhicules abaisse le besoin de carburant liquide à 20 Mtep par an ; une production efficace de biocarburants de deuxième génération à cette échelle ne mobiliserait en effet que la moitié du potentiel français de biomasse renouvelable (22 Mtep) ; le supplément d’électricité nécessaire, y compris pour l’alimentation directe des batteries des véhicules, correspondrait à une capacité de production non carbonée équivalente à douze tranches EPR ; la rentabilité économique du procédé serait assurée dès lors que le prix du baril de pétrole dépasserait 120 dollars.

Même s’ils mesurent l’importance des efforts à accomplir pour se rapprocher de cette dernière perspective, vos rapporteurs voient dans celle-ci une raison de plus d’apporter un soutien public déterminé au projet de démonstrateur de Bure, qui permettra de tester l’effet de l’apport d’hydrogène sur le rendement de la filière du biodiesel de deuxième génération.

e) La piste de la troisième génération

L’audition publique du 1er octobre 2008 a apporté quelques éclairages complémentaires sur ce qu’on appelle les biocarburants de « troisième génération », qui s’identifient, pour nombre des participants, aux produits obtenus à partir des algues.

Selon une présentation de M. Jean-Paul Cadoret, chef du laboratoire « Physiologie et biotechnologie des algues » de l’IFREMER, l’exploitation des algues présente l’avantage de ne faire aucune concurrence à l’agriculture alimentaire, même au niveau des ressources en eau ; son bilan écologique est très favorable puisqu’elle utilise le gaz carbonique en intrant. Les rendements annoncés pour la production de biocarburants sont de 10 à 50 fois supérieurs à ceux obtenus dans les filières de première génération. Cependant, M. Olivier Appert, se référant à des expérimentations conduites par l’IFP, a mis en évidence les difficultés d’un passage à une culture de masse, qui multiplie notamment les risques d’épidémie ; M. Pierre-René Bauquis a souligné la très grande dépendance du bilan énergétique à l’apport d’intrants ; en outre, en faisant l’hypothèse que le prélèvement actuel des pêches (100 millions de tonnes) était ajusté sur le rythme de renouvellement des ressources maritimes, et donnait un bon ordre de la production maritime maximale, il a estimé que l’apport potentiel des algues au regard du besoin annuel de carburant liquide (4 milliards de tonnes) ne représentait que l’équivalent de quelques millièmes. Aux États-Unis, le soutien des sociétés de capital-risque à ce domaine vise en fait surtout des créneaux à forte valeur ajoutée concernant notamment des produits cosmétiques.

La poursuite des travaux français sur cette filière originale est indispensable, même si les espoirs qu’elles portent pour une production de masse de biocarburants paraissent encore limités.

La recherche sur les biocarburants de deuxième génération doit être considérée comme une priorité stratégique nationale.

Dans ce cadre, un soutien spécifique doit être accordé au projet de réacteur thermochimique de Bure, qui répond autant à un besoin de recherche qu’à un besoin d’aménagement local sur un site crucial pour la politique énergétique de la France.

5. La recherche sur les énergies marines

Le « Plan national de développement des énergies renouvelables de la France », présenté le 17 novembre 2008, comporte fort opportunément une mesure n°46 relative aux énergies marines.

a) La diversité des pistes technologiques

Cette dénomination vise les énergies produites spécifiquement à partir des ressources de la mer, en laissant à part l’énergie éolienne «  off-shore » :

- l’énergie thermique, exploite les différences de température entre la surface et les profondeurs ; réservée plutôt aux zones tropicales, et de rendement faible, elle suppose la mise en place d’une infrastructure lourde, permettant la circulation verticale du fluide qui entraîne la turbine en se vaporisant ;

- l’énergie osmotique utilise les différences de concentration en sel qui peuvent être importantes d’un point à l’autre de l’estuaire des fleuves. Des courants d’eau compensent naturellement ces déséquilibres, dont le flux peut être entretenu en interposant des membranes semi-perméables. Aux Pays-Bas, on estime pouvoir dégager ainsi une puissance de 3 GW à l’embouchure du Rhin ;

- la biomasse marine, principalement sous forme d’algues, offre, comme mentionné précédemment, des perspectives pour une fabrication à haut rendement de biocarburants ;

- l’énergie houlomotrice, produite par le mouvement des vagues, peut être récupérée selon diverses techniques (colonne d’eau oscillante, rampe de franchissement, flotteur vertical, flotteur articulé). Des dispositifs sont testés en Ecosse, au Portugal, en Espagne et en Allemagne. En France, l’expérimentation du projet SEAREV (Système électrique autonome de récupération de l'énergie des Vagues), près de Nantes, devrait démarrer en 2009 ;

- l’énergie des courants ; M. Pâris Mouratoglou, président d’EDF-Energies nouvelles a expliqué à vos rapporteurs, lors de son audition du 18 septembre 2008, qu’il avait étudié un projet d’exploitation de cette ressource utilisant des hélices attachées à un sous-marin qui aurait été placé dans le courant du Gulf Stream, au large de la Floride ; le concept a suscité l’hostilité des mouvements écologistes, qui y ont vu une menace d’aggravation du changement climatique. Mais les courants des marées peuvent aussi actionner ce qu’on appelle les « hydroliennes », par analogie avec les « éoliennes » ; un projet est à l’étude sur le site de Paimpol Bréhat en Bretagne ; un autre est envisagé au large de l’île anglo-normande d’Alderney ;

- l’énergie marémotrice est exploitée à grande échelle en France depuis 1966 à l’usine de la Rance. Produisant 240 MW, celle-ci reste à ce jour la plus puissante au monde. Cette technologie suscite un intérêt en Corée où une centrale de 260 MW est en construction à Sihwa. Des projets d’ampleur au moins dix fois plus grande sont également à l’étude au Royaume-Uni sur la Severn (8,6 GW), en Russie, à Mezenskaya sur la mer de Barents (11,4 GW), en Inde, sur les sites de Kalpasar (5,9 GW) et de Kutchch (10 GW), près d’Ahmadabad.

L’expérience réussie de l’usine de la Rance, qui a démontré notamment l’efficacité, depuis quarante ans, de la protection cathodique36 des turbines contre la corrosion, confère un avantage reconnu à la France dans le domaine de l’énergie marémotrice : les autorités russe et indienne ont fait appel à M. François Lempérière pour étudier la faisabilité des sites de Mezenskaya et d’Ahmadabad. Un projet de grande taille (15 GW) avait été envisagé, après la seconde guerre mondiale, dans la baie du Mont Saint-Michel ; l’usine de la Rance était ainsi conçue au départ comme un pilote de démonstration ; en fait, ce projet gigantesque a été abandonné avec le choix de l’énergie nucléaire. Aujourd’hui, les progrès réalisés dans la technologie permettraient d’équiper, selon M. Lempérière, d’autres sites côtiers en tenant compte des contraintes écologiques, pour une production pouvant atteindre jusqu’à 20% de la consommation d’électricité française.

Plusieurs énergies marines peuvent être mobilisées de manière complémentaire : ainsi, les hydroliennes atteignent leur force maximale à mi-marée, justement au moment où les usines marémotrices interrompent leur production. Les bassins de ces usines peuvent en outre servir à développer des cultures de biomasse marine.

b) Un potentiel significatif

Le Plan national observe que la France dispose, dans le domaine des énergies marines, « d’un potentiel significatif ainsi que de compétences fortes au niveau industriel. Le pôle de compétitivité régional ‘‘Mer’’ qui associe les façades atlantique et méditerranéenne, va permettre de structurer cette filière en rassemblant les chercheurs, les industriels et les pôles d’enseignement. Un partenariat a été récemment conclu avec les acteurs concernés afin de promouvoir le développement d’une filière scientifique et industrielle sur les énergies marines, de constituer un réseau des acteurs français, de développer des sites d’essais en mer et de faciliter le développement de démonstrateurs. L’État confirme son engagement dans ce domaine et lancera ainsi un appel à projet pour la construction de démonstrateurs. »

Vos rapporteurs, qui se sont rendus sur le site de la Rance le 17 septembre 2008, et y ont pris la mesure de l’apport potentiel des énergies marines pour la France, souscrivent totalement à cet engagement nouveau de l’État. Ils ont constaté en outre que la remise à niveau de l’expertise française dans ces domaines pourrait trouver à s’exporter, puisque les responsables de la gestion des énergies renouvelables à San Francisco leur ont indiqué qu’ils avaient eu recours à des ingénieurs écossais pour étudier les possibilités d’exploiter la marée et les courants dans la baie traversée par le fameux pont de la Golden Gate.

Deux sortes d’ajustements institutionnels sont nécessaires pour asseoir sur des bases durables le soutien public aux énergies marines :

- en premier lieu, ils importent d’adapter le cadre législatif. Cela suppose une mise à jour du régime d’autorisation prévue par la loi du 16 octobre 1919 relative à l’utilisation de l’énergie hydraulique, et une prise en compte des énergies marines par le dispositif d’obligation d’achat fixé par l’article 10 de la loi du 10 février 2000 relative à la modernisation et au développement du service public de l'électricité (loi « Bataille »). La liste des énergies renouvelables établies par l’article 29 de la loi de programme fixant les orientations de la politique énergétique, qui mentionne déjà les énergies « houlomotrice » et « marémotrice », devrait en outre être complétée, en citant les énergies « hydrolienne » et « océanothermique » ; le projet de loi de programme relatif à la mise en oeuvre du Grenelle de l'environnement pourrait servir de support à ces modifications, puisque l’Assemblée nationale en a déjà complété l’article 17 avec justement l’objectif d’effectuer une mise à jour de la liste des énergies renouvelables ;

- en second lieu, il serait utile de faire apparaître l’IFREMER, au niveau du budget de l’État, comme un acteur à part entière de la recherche en énergie, en le mentionnant comme un opérateur du programme 188, et en lui affectant des crédits spécifiques pour le développement scientifique et technologique des énergies marines. L’IFREMER se trouve principalement en charge de la surveillance de l'environnement littoral et des ressources vivantes des océans, ce qui justifie son rôle d’opérateur du programme 187 sur la recherche « dans le domaine de la gestion des milieux et des ressources » ; mais, à ce titre, il est aussi un acteur incontournable pour la recherche crédible de solutions écologiquement équilibrées pour l’exploitation des énergies marines. L’implantation de ses divers établissements près du littoral en fait même un partenaire local pour la conduite des projets dans ces domaines. Son investissement pourrait être notamment essentiel dans la mise au point d’une grille de projets s’appuyant sur les énergies marines pour renforcer l’approvisionnement en électricité de la Bretagne, où l’IFREMER dispose de six implantations : Brest, Dinard, Argenton, Concarneau, Lorient, La Trinité-sur-Mer. Si le partage d’un opérateur entre deux programmes soulève une difficulté, la fusion des deux programmes serait peut-être à envisager, d’autant que d’autres opérateurs du programme 187, l’INRA en premier lieu, sont également impliqués dans la recherche en énergie.

Vos rapporteurs se montreront donc très attentifs à ce que ces repositionnements institutionnels marquent la volonté de la France de s’illustrer dans un domaine de la recherche en énergie où sa place de deuxième puissance maritime du monde, avec un domaine public de 11 millions de kilomètres carrés, lui donne un avantage comparatif pour des solutions bien intégrées à l’environnement. Le lancement du Grenelle de la mer, à la fin du mois de février 2009, aidera sans doute à une prise de conscience de la nécessité de ces réformes.

La recherche sur les énergies marines doit faire l’objet d’un soutien spécifique, dans la perspective d’équiper les zones littorales insuffisamment pourvues d’autres moyens centralisés de production d’électricité.

L’IFREMER doit se voir reconnaître un rôle à part entière dans le développement des énergies marines.

6. La recherche sur l’énergie éolienne

Le rapport sur la stratégie en énergie de mai 2007 mentionne l’existence en France d’équipes de recherche sur l’énergie éolienne, tout en rappelant par ailleurs que notre pays n’a pas d’activités industrielles dans ce domaine. Les aérogénérateurs sont des objets d’importation.

a) Un effort français en voie d’ajustement

Le programme 188 du budget 2009 consacré à la recherche en énergie mentionne l’affectation d’une somme comprise entre 0,5 et 1 million d’euros, contrôlée par l’ADEME, pour des travaux concernant la perturbation des radars par les éoliennes, ou la modélisation du vent.

La puissance du parc éolien en production atteignait 2 236 MW à la fin de l’année 200737. Le « Plan national de développement des énergies renouvelables » du 17 novembre 2008 donne l’objectif d’étendre ce parc jusqu’à atteindre environ 25.000 MW (25 GW) à l’horizon 2020, soit 10 fois plus. Comme la puissance moyenne des aérogénérateurs installés dépasse aujourd’hui 2 MW, et va en augmentant, cet objectif suppose un parc de 8 000 éoliennes, soit 6 000 de plus qu’aujourd’hui. Les implantations en mer, encore en phase précoce en France, pourraient représenter à terme environ 20 % de la puissance de ce parc.

b) Une énergie fondamentalement intermittente

Un débat a été lancé en juillet 2008 par l’Institut Montaigne, suscitant une réaction du Syndicat des énergies renouvelables, sur « le coût de l’éolien » dans le contexte énergétique français38. Il n’appartient pas à vos rapporteurs, dans le cadre de cette mission, de trancher ce débat reposant sur de nombreuses hypothèses complexes. Beaucoup d’arguments, de part et d’autre, paraissent pertinents.

Le point saillant, aux yeux de vos rapporteurs, réside dans la mise en avant d’une limite supérieure raisonnable au développement de l’énergie éolienne, compte tenu de l’intermittence de cette énergie, qui oblige à recourir à d’autres moyens de production pour faire face aux variations importantes de la production éolienne.

La dimension aléatoire et « fatale » de l’énergie éolienne se trouve également au coeur de l’analyse qu’en a proposé l’Académie des technologies dans une étude d’août 200839

Parmi ces moyens de production rapidement mobilisables, figurent bien sûr les ressources hydroélectriques qui présentent l’avantage de fournir une électricité à très faible contenu en gaz carbonique. Ainsi, le parc éolien danois est souvent présenté comme fonctionnant en symbiose avec la production hydroélectrique norvégienne, et il est clair qu’une telle configuration est très vertueuse du point de vue de la lutte contre le changement climatique.

Cependant, les autres solutions pour prendre le relais de la production d’électricité en cas d’insuffisance du vent sont les centrales thermiques « à flamme », fonctionnant au charbon, au gaz ou au fioul. Celles-ci peuvent certes être rapidement mobilisables (quoiqu’un peu moins dans le cas des centrales au charbon), mais contribuent par nature aux émissions de gaz carbonique.

A cet égard, l’Allemagne dispose d’une bien plus grande marge que la France, puisque le parc éolien, d’une puissance de 22,2 GW à fin 2007, s’y appuie sur une capacité de production hydroélectrique de 10,1 GW, et d’un parc de centrales thermiques à flamme de 78,5 GW, combinant 51,8 GW de centrales au charbon, 21,3 GW de centrales au gaz, 5,4 GW de centrales au fioul.40 En France, les centrales thermiques à flamme (charbon, gaz, fioul) représentaient en 2006 une puissance installée de 25,7 GW, pour une capacité hydroélectrique de 25,4 GW41.

Compte tenu de l’inertie, et du faible coût de l’électricité d’origine nucléaire, qui répond aux besoins dits « de base », les moyens de production rapidement mobilisables, plus coûteux, servent principalement à faire face aux fluctuations de la demande liées aux pointes de consommation journalières, hebdomadaires ou saisonnières.

Dans cette configuration, la production éolienne vient compléter la production existante selon deux schémas :

- soit, pour une demande donnée, elle vient en substitution, lorsqu’elle est disponible, de la production des centrales thermiques à flamme, c'est-à-dire que des unités fonctionnant au gaz, au fioul, ou au charbon, sont arrêtées lorsque le vent souffle suffisamment, et remises en service lorsque le vent faiblit ; en ce cas, la demande d’électricité peut être satisfaite avec une diminution des émissions de gaz carbonique. La gestion de ce basculement n’est cependant possible qu’à l’échelle d’une aire géographique commune du point de vue de la distribution, c'est-à-dire pouvant être effectivement approvisionnée par les deux sources, ce qui dépend notamment de la position de celles-ci par rapport au maillage de très haute tension ; il faut en outre qu’un dispositif d’information fiable permette une parfaite coordination des opérations d’arrêt et de remise en service ;

- soit, elle vient en complément de la production de base pour répondre à un surcroît structurel de demande. En ce cas, l’implantation d’aérogénérateurs doit absolument s’accompagner de l’implantation de nouveaux moyens de production rapidement mobilisables, pour garantir la continuité de fourniture, et c’est l’ensemble de ces deux type d’investissements complémentaires qui doit alors être comparé, en termes de coût et d’émission de gaz carbonique, à l’alternative d’un accroissement du parc nucléaire.

L’Institut Montaigne estime que la borne supérieure raisonnable pour le développement du parc éolien français, celle n’imposant pas directement le déploiement de nouvelles capacités de production rapidement mobilisables à des fins d’équilibrage de la production, serait de l’ordre de 10 GW, la note de l’Académie des technologie allant jusqu’à 15 GW.

c) Le besoin d’un dispositif de stockage

Vos rapporteurs, fortement conscients de l’intermittence fondamentale de l’énergie éolienne, se rallient à l’idée que son développement permettra effectivement des économies d’émission de gaz carbonique tant que ce développement demeurera dans des limites raisonnables, en deçà de 15 GW.

Au-delà d’un parc de 15 GW, les installations d’aérogénérateurs produiront un surplus aléatoire d’électricité de plus en plus difficile à gérer, sauf à construire des équipements complémentaires permettant de compenser les à-coups de production, pour transformer cet apport en une fourniture de base. RTE estime à 10,5 GW le supplément de puissance de base nécessaire à l’horizon 2020, dont l’énergie éolienne pourrait alors fournir une partie, sous cette condition d’un investissement complémentaire.

A cet égard, l’état de l’art offre comme seule possibilité la construction de nouvelles centrales thermiques à flamme, ce qui pose un double problème d’émission de gaz carbonique et d’importation de combustibles.

C’est pourquoi vos rapporteurs avancent l’idée que les dix derniers GigaWatts permettant d’atteindre l’objectif pour 2020 d’un parc de 25 GW, qui seront justement pour l’essentiel implantés «  off-shore », soient couplés avec la construction d’atolls de stockage d’énergie, tels qu’ils ont été décrits précédemment. L’implantation de tels atolls constituerait une première mondiale plaçant la France à la tête de l’innovation en matière de développement des énergies éoliennes, dans des conditions garantissant une authentique maîtrise des émissions de gaz à effet de serre.

Cette idée converge avec une des conclusions de la note de l’Académie des technologies : « La crédibilité de l'éolien à grande échelle passera (…) par le développement de technologies de stockage électrique de masse performants qui lui permette de jouer son rôle vis-à-vis du réseau ». Les délibérations de la Commission « Énergie et changement climatique » au terme de l’audition de M. Jean-François Lempérière, organisée le 12 novembre 2008 au Palais de la découverte, ont pleinement confirmé cette position.

Vos rapporteurs souhaitent donc que les efforts de recherche concernant l’énergie éolienne intègrent l’analyse des conditions dans lesquelles l’extension du parc des aérogénérateurs puisse s’effectuer en liaison avec la construction d’atolls de stockage d’énergie.

7. La recherche sur la pile à combustible

La pile à combustible est couramment assimilée à un système inverse d’une électrolyse, assurant une production d’électricité à partir d’hydrogène et d’oxygène, avec de la vapeur d’eau comme seul résidu. En fait, il s’agit d’un dispositif plus général étendant le principe de la pile électrique.

Une pile électrique exploite la différence d’appétence pour les électrons entre deux matériaux (différence de potentiel d’oxydo-réduction) : l’un formant « l’anode » perd facilement ses électrons, tandis que l’autre constituant « la cathode » est au contraire avide d’électrons ; tout circuit venant relier ces deux électrodes est parcouru par un courant électrique correspondant au flux spontané d’électrons créée par cette différence d’appétence. Mais ce courant est produit au prix d’une dissolution progressive de l’anode, car la perte d’électrons transforme le matériau d’origine en ions diffusant dans la solution (l’électrolyte) où ce matériau est immergé ; la pile s’arrête lorsque la dissociation entre électrons et ions ne peut plus s’effectuer, faute de matériau à l’anode.

PRINCIPE D’UNE PILE À COMBUSTIBLE (PEMFC)

Schématiquement, le principe de la pile à combustible consiste à utiliser une anode pouvant se reconstituer grâce à un apport extérieur de matériau. En l’occurrence, ce matériau est, dans la plupart des cas, du gaz hydrogène H2, libérant des électrons et des ions H+. Mais on peut concevoir aussi des piles à combustible alimentées par d’autres gaz ou liquides.

La pile à combustible ne constitue pas en elle-même une source d’énergie ; c’est un convertisseur d’énergie : elle permet de récupérer sous forme d’électricité une partie de l’énergie qu’il a fallu mobiliser pour produire le combustible.

La technologie de la pile à combustible comporte de nombreuses déclinaisons selon le type d'électrolyte utilisé et la température de fonctionnement. En outre, suivant la puissance qu'elle peut déployer, elle correspond à différents types d'usages applicatifs. On compte en fait six types de pile à combustible:

• AFC (Alkaline fuel Cell) ;

• PEMFC (Proton Exchange Membrane Fuel Cell),

• DMFC (Direct Methanol Fuel Cell);

• PAFC (Phosphoric Acid Fuel Cell);

• MCFC (Molten Carbonate Fuel Cell) ;

• SOFC (Solid Oxid Fuel Cell).

Au terme de leurs auditions et de leurs visites, vos rapporteurs estiment qu'en dépit de l’engouement qu'elle ne cesse de susciter, la pile PEM (Proton Exchange Membrane) a moins d'avenir pour la propulsion des véhicules que les batteries ; il conviendrait donc que l'effort de recherche publique dans ce domaine d’application soit désormais modéré, et à tout le moins stabilisé. Cela ne remet pas en cause l'intérêt des recherches sur les autres domaines d’application, et les autres types de piles à combustible. En particulier, les efforts en cours concernant des usages professionnels spécifiques (équipements spatiaux ou maritimes, systèmes de sécurité) doivent évidemment être activement poursuivis.

LES DIFFÉRENTS TYPES DE PILES À COMBUSTIBLE

TYPE DE PILE

AFC

PEMFC

DMFC

PAFC

MCFC

SOFC

Electrolyte

Hydroxyde de potassium

Membrane polymère

Membrane polymère

Acide phosphorique

Carbonates de lithium
et potassium

Céramique en dioxyde de zirconium

Ions dans l'électrolyte

OH-

H+

H+

H+

CO32-

O2-

Température

60-80°C

70-200°C

90-120°C

180-220°C

600-660°C

700-1000°C

Anode

H2

H2

Méthanol

H2

H2, CH4

H2, CH4

Cathode

O2

Air

Air

Air

Air

Air

Application

Militaire, Spatial

Propulsion, Portable, Stationnaire

Portable

Stationnaire

Stationnaire

Stationnaire, Alimentation embarquée

Puissance (kW)

10 à 100

0,1 à 500

0,0001 à 100

< 10000

< 100000

< 100000

Source : Rapport sur la stratégie nationale de recherche énergétique, et Clefs CEA, n°50/51.

a) La spécificité de la pile à combustible

L’effort public français de recherche sur la pile à combustible représente aujourd’hui environ 50 millions d’euros, soit l’équivalent du soutien accordé à l’ensemble des énergies renouvelables (solaire, éolienne, géothermie, bioénergie).

La justification d’un tel effort ne peut se trouver que dans la perspective soit de couvrir un besoin technologique sans solution jusqu’alors, soit de mettre au point une solution plus avantageuse que celles disponibles, notamment du point de vue des coûts ou de la sécurité.

En l’occurrence, la pile à combustible se place sur le même terrain fonctionnel que la pile autonome ou la batterie rechargeable : elle permet d’obtenir de l’électricité indépendamment d’une connexion au réseau. Par rapport aux énergies renouvelables qui peuvent aussi produire de l’électricité en site isolé, mais souvent par intermittence, les piles, qu’elles soient ou non à combustible et les batteries rechargeables présentent l’intérêt d’une fourniture garantie, en quantité et en qualité, durant un certain temps.

COMPARAISON DES SOURCES D’ÉNERGIE POUR LE TRANSPORT

 

Énergie massique stockée
(kwh/kg)

Rendement motorisation
(%)

Énergie massique restituée
(kwh/kg)

Masse équiv.
Énergie restituée

(kg) (**)

Carburant liquide

12

20

2,4

42

GPL (8 bars)

7

20

1,4

71

H2 gaz (700 bars)

1,7(*)

45

0,75

133

Batteries

0,07 à 0,2

80

0,12

830

(*) La masse est en ce cas constituée pour l’essentiel du réservoir, très solide du fait des normes de sécurité.

(**) Masse à mobiliser pour obtenir l’équivalent énergétique de 50 litres d’essence, soit une autonomie de 800 km.

Source : CEA

L’avantage incontestable des piles à combustible par rapport aux piles autonomes et aux batteries rechargeables est leur durée de fonctionnement, prolongeable tant que subsiste du combustible. Leur rendement en ce qui concerne l’énergie massique restituée est supérieur aussi, dans un rapport cinq environ, si l’on prend comme référence l’utilisation en moteur d’automobile ; mais ce dernier atout correspond à un état de l’art susceptible d’évoluer avec le progrès technique. Par ailleurs, si leur rendement électrique intrinsèque est plus faible que celui des batteries (45% au lieu de 80% dans le cas des moteurs d’automobile), cela correspond à une déperdition de chaleur (avec un rendement de l’ordre de 35%) qui peut être utile dans une situation où l’on recherche un fonctionnement en cogénération.

A partir de là, on conçoit très bien l’intérêt de la pile à combustible pour deux types d’usage tournés vers le grand public :

- l’approvisionnement en électricité et en chaleur des sites résidentiels coupés du réseau d’électricité, en zone isolée de montagne par exemple. En ce cas, la puissance requise va du kilowatt au mégawatt. Le pile à combustible se trouve alors en concurrence avec les énergies renouvelables, mais elle peut aussi fonctionner de manière complémentaire avec celles-ci, soit en prenant leur relais dans leurs moments d’interruption, soit en utilisant un combustible produit par elles, et dont les excédents sont stockés sur place, comme de l’hydrogène obtenu par électrolyse locale. Cette technologie offre cependant des perspectives d’usage limitées en France, pays dont la couverture électrique est assez complète ;

- l’alimentation des appareils portables (téléphones mobiles, ordinateurs portables, caméscopes, lecteurs vidéo portables, assistants électroniques de poche), lorsqu’elle doit pouvoir s’effectuer durant des périodes longues d’éloignement du réseau électrique, empêchant toute recharge de batterie. Il faut fournir une puissance allant de 0,1 à 10 watts. Les travaux de recherche relatifs à cet usage, conduits notamment au LITEN, Laboratoire d’innovation sur les technologies des énergies nouvelles et les nanomatériaux, situé à Grenoble, doivent faire face aux complexités de la miniaturisation des composants techniques, et de l’évacuation des flux de chaleur et de vapeur d’eau. Cependant on peut imaginer qu’en cas de succès, et d’abaissement suffisant du prix, la facilité et la rapidité de l’opération de remplacement d’une cartouche, et l’autonomie plus grande procurée par ce mode d’alimentation, cinq fois plus longue environ, l’amène à prendre plus généralement le pas sur les batteries rechargeables pour ce domaine d’application.

b) Les limites d’une application à l’automobile

Le principe de la pile à combustible a été découvert en 183943, et depuis il fascine, car il réduit les émissions consécutives à la production d’électricité à de la chaleur et de la vapeur d’eau. Cette fascination n’a pu que s’accroître à la faveur des préoccupations sur le changement climatique.

Depuis l’origine, le parcours de cette technologie n’a pas pourtant été sans embûches : il a fallu découvrir la nécessité d’un catalyseur (1889), puis le rôle joué par la température (1921). En 1953, Francis T. Bacon réalisa une pile avec un électrolyte alcalin et des électrodes poreuses de nickel et d’oxydes de nickel dont le modèle a servi pour les programmes spatiaux Gemini et Apollo. En 1970, Du Pont a mis au point la membrane Nafion, qui sert encore aujourd’hui d’électrolyte dans les piles de type PEM. Le premier choc pétrolier a relancé les recherches, mais en 1980, on constate l’échec des efforts pour améliorer cette technologie : elle reste très coûteuse et la durée de vie des piles est encore très limitée ; la plupart des équipes travaillant sur des applications pour la traction chez les constructeurs, équipementiers et dans les laboratoires sont démantelées.

C’est la mobilisation internationale autour de la lutte contre l’effet de serre qui relance la recherche au début des années 90. Cette fois, le mouvement est puissant : « La grande différence avec l’histoire antérieure de cette technologie qui a connu des échecs et conduit à des renoncements, c’est que cette fois, une puissante industrie, l’industrie automobile, la soutient, tout en considérant qu’elle ne sera opérationnelle qu’à terme en passant par plusieurs périodes intermédiaires. » écrivent Claude Gatignol et Robert Galley dans un rapport de l’OPECST « sur les perspectives offertes par la technologie de la pile à combustible », publié en juillet 2001.

Compte tenu de la fascination qu’elle exerce, les effets d’entretien circulaire de la confiance entre acteurs, produisant l’équivalent de ce qu’on appelle une « bulle » sur les marchés financiers, joue un rôle important dans le soutien à la technologie de la pile à combustible pour la propulsion automobile. On connaît l’histoire du pionnier qui coupe du bois pour l’hiver, puis rend visite au chef indien afin de savoir si l’hiver sera rude ; le chef indien regarde au loin, puis répond que l’hiver sera effectivement rude ; le pionnier, par précaution, retourne couper un peu plus de bois, puis revient vers le chef indien, qui, toujours regardant au loin, lui déclare que l’hiver sera vraiment très rude. Et le pionnier finit par découvrir que le chef indien se détermine en évaluant l’intensité des coupes de bois à laquelle lui-même, le pionnier, a procédé pour préparer l’hiver. Christian Ngô, membre du comité de pilotage, a rapporté une histoire vécue similaire s’agissant d’un groupe d’ingénieurs chez un constructeur, et d’un groupe de scientifiques au sein d’un organisme public ; pour ajuster leur effort de recherche sur « le moteur à hydrogène », les uns se déterminaient sur l’engagement et la motivation des autres.

Aujourd’hui, une inflexion est pourtant sensible au sein de la communauté technologique intéressée. Mme de Guibert, directeur de la recherche de Saft, a signalé à vos rapporteurs, lors de son audition du 20 novembre 2008, un début de revirement de la Communauté européenne : après avoir privilégié le financement de la pile à combustible au point d’évincer les moyens consacrés à l’amélioration des batteries rechargeables, un rééquilibrage commence à s’opérer depuis quelques mois, au moins pour ce qui concerne la technologie PEM ; la technologie SOFC bénéficie en revanche du maintien d’un effort de haut niveau s’agissant des applications stationnaires.

C’est là l’effet de la crédibilité nouvelle des batteries rechargeables, liées aux progrès de la technologie Lithium-Ion, dont l’émergence commerciale en 1992 a permis de réaliser un saut de performance : elle permet un stockage d’énergie d’une densité près de dix fois supérieure à celle possible avec les batteries au plomb (200 Wh/kg contre 25 Wh/kg), tout en restant parfaitement sûre. Par ailleurs, le succès, à partir de 2004, de la Prius de Toyota, voiture hybride qui utilise une batterie Nickel-Métal Hydrures (NiMH), a ouvert la voie au concept de véhicule hybride rechargeable.

Pourtant, ce n’est pas seulement un effet temporaire de poussée technologique des batteries qui forme la conviction de vos rapporteurs que le « moteur à hydrogène » n’a pas vocation à équiper l’automobile du futur, autrement que sur des marchés de niche. Ce sont les limites techniques auxquelles se heurterait une telle généralisation. Ces limites ont été soulignées par Pierre-René Bauquis, lors de son audition du 17 avril 2008. Elles interviennent à chacun des stades de la filière qui serait mise en place.

► Au stade de la production, l’enjeu majeur consiste à mettre au point une technique non émettrice de gaz à effet de serre, car à ce jour, les expérimentations de PEM utilisent essentiellement de l’hydrogène obtenu par reformage du gaz naturel, qui consiste à casser les molécules du méthane pour en éliminer justement le carbone ; en outre, ce type d’opération mobilise généralement près de deux fois plus d’énergie qu’elle ne permet d’en récupérer sous forme d’hydrogène pur.

Les recherches sur les réacteurs de quatrième génération prévoient des réacteurs fonctionnant à haute température, qui pourraient fournir alors électricité et chaleur pour de l’électrolyse massive à haute température, d’un rendement très efficace. Mais, outre que la disponibilité de tels réacteurs dépend des résultats de la recherche nucléaire, cette solution consisterait à instituer une filière énergétique où l’électricité initiale servirait à fournir une électricité finale via un vecteur de stockage ; une telle configuration serait finalement équivalente à celle de l’emploi de batteries rechargeables, mais grevé des pertes de conversion liées au passage par un vecteur intermédiaire. Dans la mesure où les rendements de conversion du vecteur « hydrogène », à partir de l’électricité puis pour restituer celle-ci, sont estimés à environ 30 à 50%, alors que ceux des batteries, pour la charge et la décharge, atteignent 70 à 90%, ce qui correspond à un rendement final de l’ordre de 10 à 25% pour les « moteurs à hydrogène », et de 50 à 80% pour les batteries, il n’est pas certain que l’électrolyse massive soit la manière la plus efficace d’utiliser l’énergie nucléaire pour promouvoir la traction électrique de l’automobile.

► Au stade du transport, l’usage de canalisations pour ce gaz léger qu’est l’hydrogène s’avère très peu efficace en comparaison d’une circulation de carburants liquides, du simple fait des lois de la thermodynamique : le coût de la logistique de transport rapporté à l’unité d’énergie transporté est en effet dix fois supérieur, car, pour une même pression, la quantité d’énergie transportée est dix fois moindre.

La solution d’une production décentralisée de l’hydrogène à partir d’une énergie renouvelable au niveau de chaque station d’approvisionnement permettrait en théorie de contourner la double difficulté de la production de masse, puis du transport. L’électricité produite par recours à l’énergie solaire ou éolienne, éventuellement utilisée de manière combinée, permettrait en ce cas de procéder sur place à l’électrolyse produisant l’hydrogène qui serait stocké. Ce dispositif présenterait l’avantage d’utiliser au mieux l’apport des énergies renouvelables, malgré leur intermittence. Cependant, il impliquerait d’atteindre, au niveau de chaque station, le niveau de performance requis pour une production de gaz très pur ; chacune constituerait de surcroît, en elle-même, une installation industrielle dangereuse ; les coûts d’implantation puis de maintenance en seraient donc élevés. Chaque station devrait en outre disposer d’un accès à une ressource suffisante en eau pour alimenter le procédé d’électrolyse. Enfin, en dépit du stockage, l’intermittence fondamentale des énergies solaire ou éolienne empêcherait, de toute façon, de garantir en permanence un niveau d’approvisionnement suffisant en hydrogène ; un dispositif de secours serait sans doute indispensable. Un tel mode d’alimentation décentralisée des pompes à hydrogène supposerait donc des progrès techniques importants, notamment pour rendre son coût compatible avec un déploiement de masse.

► S’agissant du stockage embarqué, il s’effectue aussi dans des conditions peu efficaces, car les normes de sécurité imposent, quelle que soit la technologie utilisée (pression hyperbare, hydrures, nanotubes de carbone), un système de conditionnement très résistant représentant de l’ordre de 95% de la masse totale du réservoir, le combustible lui-même ne constituant que les 5% restants.

A tous les stades, un important investissement dans la sécurité est en tout état de cause nécessaire, entraînant un surcoût, d’autant que l’hydrogène brûle avec une flamme invisible, uniquement repérable avec un détecteur infrarouge.

Enfin, vos rapporteurs ont montré dans leur rapport sur « les nouvelles technologies de l’énergie » de mars 2006 , que la production en masse de piles PEM se heurterait, en l’état de l’art, à divers verrous : le coût des membranes Nafion (5 000 à 10 000 euros par véhicule), la disponibilité mondiale du platine utilisé comme catalyseur.

La réussite des démonstrations, qui concernent le segment final de la conversion en énergie motrice, confère donc à la technologie du « moteur à hydrogène » une crédibilité faisant abstraction des contraintes pesant sur l’amont de la filière. A l’occasion de leur visite aux États-Unis, vos rapporteurs ont pu noter que leurs interlocuteurs de la Commission de l’énergie de Californie considéraient comme assez anecdotique « l’Autoroute de l’hydrogène » mise en place dans cet État, dont certaines stations ont d’ailleurs été démontées.

En France, l’IFP place le véhicule « hybride hydrogène » au bout de sa « roadmap » sur les systèmes de motorisation, en le positionnant comme la cible d’industrialisation à la fois la plus incertaine, et la plus lointaine (vers 2030), nettement au-delà de horizon temporel prévu pour les véhicules hybrides rechargeables. Par ailleurs, M. Serge Feneuille, président du Haut Conseil de la science et de la technologie, a expliqué lors de son audition par l’OPECST du 18 avril 2008, que le Haut Conseil ne croyait pas à l'hydrogène comme carburant d'avenir, mais qu’une réorientation sur un thème scientifique de cette ampleur prendrait nécessairement du temps.

Vos rapporteurs sont finalement conduits, huit ans plus tard, à reprendre à leur compte la conclusion du rapport de juillet 2001 de leurs collègues Claude Gatignol et Robert Galley : « On ne peut donc, compte tenu de ces difficultés, envisager à l’heure actuelle la commercialisation en grandes séries d’une pile embarquée malgré les annonces faites ici ou là. (…) Compte tenu de l’ensemble de ces difficultés on peut estimer que seules quelques niches pourront être progressivement occupées par ces piles qui pourront s’y avérer plus performantes que les sources classiques d’énergie. Ce sera d’ailleurs peut être le moyen de créer un marché à ces générateurs. »

Compte tenu de la relative urgence de faire émerger un modèle d’automobile contribuant moins à l’effet de serre, il importe donc de stabiliser l’effort de recherche sur la pile à combustible embarquée, en vue notamment de dégager plus de ressources en faveur des recherches sur la solution plus immédiatement prometteuse des véhicules hybrides rechargeables.

A l’inverse, les efforts de recherche en faveur des usages stationnaires et mobiles de la pile à combustible doivent être renforcés.

8. La recherche sur le captage et le stockage du CO2

Le captage et stockage du gaz carbonique est l’arme de dernier recours contre les excès d’émission de gaz carbonique : il s’agit de récupérer directement ce gaz à la sortie des cheminées d’usine pour ensuite l’enfouir dans des cavités en sous-sol.

En dépit d’une désignation sous la forme d’un sigle pouvant donner l’impression d’une sophistication scientifique, CSC en français, ou CCS en anglais (Carbone Capture and Storage), le principe en est extrêmement simple, presque d’esprit Shadok : il s’agit de lutter contre l’excès de gaz à effet de serre en le pompant !

Sa désignation complexe contribue à entretenir une certaine confusion autour de l’objet de cette technologie. Ainsi la réticence de certains pays membres de la Communauté à s’engager sur le « Paquet-Climat » européen en décembre 2008, très largement liée à la prise de conscience du coût de mise en œuvre du CSC, était illustrée à la télévision française par une présentation des pollutions locales et des atteintes à la santé engendrées dans ces pays par l’exploitation du charbon, alors que l’enjeu essentiel du CSC concerne la création d’un stockage souterrain de gaz carbonique.

Le CSC est d’ailleurs présenté comme une technologie de l’énergie, alors qu’en soi, il ne procure aucun apport nouveau d’énergie ; sauf à le coupler avec un effort distinct d’efficacité énergétique, il induit au contraire une consommation supplémentaire d’énergie, celle devant permettre le fonctionnement de tout le dispositif, depuis la capture jusqu’à l’injection souterraine, en passant par le transport. Vos rapporteurs avaient du reste bien souligné cette particularité dans le titre de leur rapport de mars 2006, qui faisait un sort à part au CSC : « Les nouvelles technologies de l’énergie et la séquestration du dioxyde de carbone ».

Par rapport aux autres instruments de la panoplie technologique de lutte contre le changement climatique, à savoir les économies d’énergie et le développement des énergies non carbonées (nucléaire comprise, bien sûr), le CSC présente une autre différence : c’est le seul de ces instruments qui découplent l’effort de réduction des émissions de gaz carbonique et le renforcement de l’indépendance énergétique. Car il permet certes l’évacuation souterraine du gaz carbonique dans les pays qui exploitent toujours des réserves d’énergies fossiles, et dont l’économie repose encore crucialement sur cette forme d’énergie carbonée, les États-Unis au premier chef ; mais il conforte aussi l’utilisation des énergies carbonées dans les pays qui les importent, avec même le risque d’accroître leur dépendance énergétique, puisque l’implantation d’un dispositif de CSC impose un supplément de consommation d’énergie.

A cet égard, si le CSC devrait sans doute contribuer à assurer, à l’échelle mondiale, l’acceptabilité sociale des énergies fossiles pour leur utilisation locale en mode centralisé, surtout s’agissant de la production d’électricité, en revanche, la France, dans la mesure où elle tire 90% de son électricité de l’énergie nucléaire et des barrages hydrauliques, n’est pas directement concernée. C’est un point que vos rapporteurs ont déjà tenu à souligner dans le rapport de mars 2006 précité (p.92).

De là, la cohérence de la position française sur cette question, qui s’organise principalement dans la perspective de la coopération internationale : de même que la France a su gagner des positions de premier rang mondial dans l’industrie pétrolière où elle n’avait pas d’autre avantage comparatif que son excellence scientifique et technologique, de même elle peut mobiliser cette excellence pour aider les nations encore dépendantes de leurs énergies fossiles, et en premier lieu ses voisines de la Communauté européenne, à évacuer, puis enfouir, le gaz carbonique qui n’aura pas pu être éliminé autrement. Cette aide sera pour partie publique, dans le cadre de programmes internationaux, tant qu’il s’agira de mettre au point des prototypes. Ensuite, une fois disponible commercialement et prise en main par les acteurs privés, la technologie fera l’objet, depuis la France, d’un « marché potentiel à l’export ».

En ce qui concerne la recherche, l’industrie française ne manque en effet pas d’atouts, puisque le transport et l’injection souterraine relèvent, selon les indications de Pierre-René Bauquis, de techniques déjà bien maîtrisées en France. Le captage suppose encore des recherches pour en optimiser le rendement et le coût, ce qui justifie notamment l’expérimentation du procédé de « l’oxy-combustion » sur le site de Lacq, décrite par M. Didier Mosconi, directeur de la stratégie de Total, lors de son audition du 5 juin 2008 ; et il faut étudier les conditions de la résistance des réservoirs dans la durée, au niveau des parois géologiques, des conduits métalliques, et des scellements en ciment.

S’agissant, lorsqu’on en viendra à la commercialisation de cette technologie, de la réalité d’un « marché potentiel à l’export », celle-ci dépendra de l’intensité de la demande des industries étrangères pour la mettre en œuvre, des efforts technologiques déjà accomplis sur place, notamment en faveur du « charbon propre », de la part que les acteurs français auront pris à ces efforts au titre de la coopération internationale, et surtout des possibilités offertes par la géologie d’exploiter des réservoirs souterrains, avec l’accord des populations.

a) Quelques ordres de grandeur

Les émissions excédentaires de gaz carbonique du fait de l’activité industrielle sont évaluées par le GIEC à 29 milliards de tonnes de CO2. Or, les dispositifs déjà en service à Weyburn au Canada, Sleipner en Norvège, In-Salah en Algérie, et les projets en cours (FutureGen aux États-Unis), sont calés sur une capacité d’injection en sous-sol de l’ordre du million de tonnes de CO2 par an. L’écart est donc d’un facteur mille, ce qui signifie qu’un recours non marginal à cette technologie suppose des milliers d’installations à l’échelle de la planète.

ÉMISSIONS MONDIALES DE GAZ À EFFET DE SERRE ANTHROPIQUES

En équivalent CO2 : (a) Evolution depuis 1970 ; (b) et (c) Répartition en 2004

Source : Bilan 2007 des changements climatiques, rapport de synthèse ; Groupe d’experts intergouvernemental sur l’évolution du climat, 2008.

Le rapport spécial du GIEC sur le piégeage et stockage du dioxyde de carbone (établi en 2005) estime justement à près de 8 000 les « grandes sources fixes mondiales » libérant plus de 100.000 tonnes de CO2 par an, dont près des deux tiers sont des centrales électriques à combustibles fossiles, produisant à elles seules près de 80% des 13,5 milliards de tonnes de CO2 produites par l’ensemble44.

Deux problèmes dès lors se posent :

1) l’identification des milliers de caches géologiques nécessaires au stockage, ce qui requiert non seulement de trouver les sous-sols adéquats, mais en plus, d’obtenir l’accord des populations avoisinantes ; ce serait possible, selon le GIEC, sous réserve de développer une infrastructure de transport dans certaines zones géographiques, car « nombre » des sources « se trouvent à moins de 300 km de zones susceptibles de contenir des formations propices au stockage géologique »45 ;

2) la taille de ces caches doit permettre un stockage durant une période de temps cohérente avec la durée restante d’exploitation des sources d’hydrocarbures fossiles, ce qui correspond à plusieurs décennies pour le pétrole et le gaz, et au moins deux siècles pour le charbon ; la capacité des sites de Weyburn, InSalah et Sleipner précédemment mentionnés est estimée à vingt ans ; mais le GIEC retient un chiffre, pour la capacité mondiale de stockage dans les formations salines profondes, solution offrant plus de perspectives que les anciens puits, d’au moins mille milliards de tonnes de CO2, ce qui correspond à environ un siècle d’injection des émissions des 8 000 grandes sources mondiales46.

M. Alain Bucaille, s’appuyant sur son expérience dans divers postes à l’étranger au sein du corps des mines, a fait part à vos rapporteurs de son scepticisme quant à la disponibilité de caches géologiques dans de nombreuses parties du monde fortement émettrices de CO2 : Afrique du Sud, Chine, Japon, Asie du Sud-Est.

En tout état de cause, M. Olivier Appert, président de l’IFP, a rappelé que le captage et stockage du gaz carbonique n’étaient qu’une voie technologique parmi d’autres pour réduire les émissions de gaz à effet de serre, et que cette contribution, même partielle, estimée par le GIEC comme pouvant traiter, en 2050, « de 20% à 40% environ des émissions mondiales de CO2 émanant de combustibles fossiles »47, sera précieuse pour lutter contre le changement climatique. Cela représente tout de même l’équivalent d’au moins 5 à 6 mille installations avec une capacité d’injection d’un million de tonnes par an à implanter dans le paysage géographique et surtout, dans l’environnement humain.

b) Les opinions recueillies à l’étranger

Les auditions ont montré que cette technologie bénéficie en France d’un appui fort, par l’effet d’une mobilisation très active du milieu industriel directement concerné ; pourtant cette mobilisation paraît très étrange lorsqu’on constate le recul avec lequel cette technologie est considérée dans les pays visités par vos rapporteurs (Cf. les comptes rendus des visites à l’étranger, en annexe) :

• en Finlande, petit pays couvert à 80% de forêts et peu densément peuplé, c’est une question qui n’est pas à l’ordre du jour ; le réflexe, lorsque la question est soulevée, y est plutôt de constater que le socle granitique du pays ne permet pas, de toute façon, le stockage en sous-sol d’un gaz ; il faudrait à tout le moins avoir recours à des puits situés en territoire limitrophe (Norvège, Russie) ;

• Au Japon, où l’électricité dépend à 60% des énergies fossiles, une très grande attention est portée depuis le premier choc pétrolier à l’efficacité énergétique, dans la vie quotidienne comme dans les processus industriels, et c’est cet angle qui est systématiquement privilégié pour la réduction des émissions de CO2. Certains projets de développement technologique, notamment ceux relatifs au « charbon propre », intègrent certes la dimension du captage du gaz carbonique ; mais le stockage n’y semble pas une préoccupation pressante, ce qui n’est guère étonnant sur cet archipel étroit, très densément peuplé, où l’activité sismique, propre à ouvrir des failles, constitue une donnée prégnante de l’environnement naturel ; en outre, le pays gère déjà une expérience difficile de blocage social sur le stockage en couche géologique profonde des déchets nucléaires ;

• Aux États-Unis, pays produisant la moitié de son électricité à partir du charbon, et où, malgré les réticences à s’engager formellement dans le respect des accords de Kyoto, des recherches très importantes sont conduites en faveur du « charbon propre », il existe certes un programme d’identification des zones géologiques possibles pour le stockage du gaz carbonique. Cependant, parallèlement, la conscience du surcoût économique que représente la mise en œuvre d’un système de captage et stockage est très forte, et le réflexe de la communauté scientifique consiste à souligner la nécessité de trouver un moyen de recycler le gaz carbonique, plutôt que de le stocker passivement.

Les interlocuteurs de ces trois pays s’étonnaient qu’un pays comme la France, bien connu dans le monde pour sa capacité à produire 80% de son électricité à partir de l’énergie nucléaire, manifestaient, à travers les questions de vos rapporteurs, un intérêt pour une technologie qui, de fait, la concerne très peu.

Les députés Bernard Duflesselles et Jérôme Lambert, qui se sont rendus au Japon quelques semaines avant vos rapporteurs (en septembre 2008), en sont revenus avec l’impression similaire que ce pays, bien que lieu d’accueil, à Kyoto, pour la signature du protocole sur le changement climatique, et l’ayant ratifié, « fait preuve de modération (...) dans ses objectifs nationaux de réduction des émissions de GES » ; qu’en outre, la technologie du captage et stockage du CO2« semble elle aussi difficile à mettre en œuvre à une grande échelle dans ce pays, à cause de la rareté des cavités géologiques et du risque sismique. »48

Par ailleurs, après une visite en juillet 2008, ils font également état d’ « un certain scepticisme (...) sur la possibilité de voir les États-Unis s’engager rapidement dans un accord mondial contraignant. », estiment en outre que « la question du financement du CSC est encore loin d’être réglée : l’industrie souhaite que des financements publics soient utilisés pour ne pas pénaliser les entreprises novatrices ; les autorités publiques, après avoir envisagé un projet important à Mattoon dans l’Illinois, sont revenues sur leur décision. » Ces lignes visent le projet de « charbon propre », FutureGen, prévu pour comporter un volet de démonstration de captage et stockage du CO2, dont le Département de l’énergie s’est retiré en janvier 2008, après une prise de conscience du surcoût important de l’opération par rapport aux estimations initiales.

Dans le « Jaune budgétaire » relatif à la politique énergétique de la France publié à l’automne 2008, on lit : « Les États Unis d’Amérique, le Canada, l’Australie et le Japon, mais aussi la Norvège, la Grande Bretagne et l’Allemagne, ont fait du développement de ces technologies une nouvelle grande priorité nationale dans le domaine de la lutte contre l’effet de serre, sans préjudice des deux autres priorités que sont l’amélioration de l’efficacité énergétique et le développement des énergies non fossiles. Une stratégie spécifique a été définie et publiée dans chacun de ces pays. » Pour ce qui concerne les États-Unis et le Japon, en tout cas, il est clair qu’il existe un écart entre l’affichage politique de cette « grande priorité nationale » et le scepticisme des membres de la Communauté scientifique et technologique rencontrés.

c) L’avis de Greenpeace International

La référence dans ce rapport à une position de Greenpeace ne vaut bien sûr pas ralliement à l’ensemble des thèses de cette organisation, puisqu’il est clair, point de désaccord majeur, que vos rapporteurs restent attachés à l’énergie nucléaire en France, dans des conditions de sûreté qu’ils ont d’ailleurs directement contribué à faire progresser en s’investissant tous deux sur cette question depuis presque deux décennies maintenant. Cependant, la prise en compte, s’agissant du captage et stockage du CO2, d’une position structurée et argumentée, de quelque horizon intellectuel qu’elle vienne, fait partie de tout effort d’analyse objective.

L’organisation Greenpeace, longtemps silencieuse à propos de la technologie de la capture et du stockage du CO2, a pris une position hostile dans une note publiée en mai 2008, intitulée « Faux espoirs : pourquoi le captage et la séquestration du carbone ne sauveront pas le climat. »

Les arguments avancés rejoignent ceux mentionnés par les interlocuteurs de vos rapporteurs à l’étranger : le surcoût induit par la mise en œuvre de cette technologie ; son impact en termes de consommation d’énergie ; les risques induits par un stockage en sous-sol.

L’approche est cependant originale à deux égards :

• d’une part, elle s’inscrit dans une perspective de soutien à certaines formes technologiques seulement de limitation des émissions de gaz carbonique : « Les véritables solutions pour limiter les impacts des changements climatiques sont l’efficacité énergétique et les énergies renouvelables » ; l’investissement réalisé en faveur du captage et stockage du CO2 est considéré dès lors comme ayant un effet d’éviction financière au détriment de ces deux solutions ;

• d’autre part, elle met l’accent sur le délai de la disponibilité de la technologie, eu égard aux prévisions concernant l’évolution du changement climatique : « Le CSC ne sera pas disponible à grande échelle avant 2030. Or, pour éviter les pires retombées des changements climatiques, les émissions mondiales de gaz à effet de serre doivent diminuer à partir de 2015, soit dans à peine sept ans. »

Si ce dernier argument relatif à une arrivée trop tardive de la technologie est sans doute à relativiser, ne serait-ce qu’en raison de l’importance du charbon dans les sources d’émission du gaz carbonique, et de la disponibilité pour au moins deux siècles de cette ressource, l’argument relatif à l’effet d’éviction est à considérer avec intérêt. De fait, il ne faut pas qu’un trop grand effort sur le captage et stockage du CO2 se fasse au détriment des autres voies d’adaptation du système énergétique, en France comme ailleurs, et les 25 millions d’euros de crédits budgétaires prévus, dans le cadre du programme 188 (Recherche sur l’énergie) au budget 2009 paraissent déjà une somme importante en regard par exemple des 10 millions d’euros alloués à la recherche sur le stockage de l’énergie, technologie pourtant cruciale pour le développement des énergies renouvelables et les moteurs du futur.

d) Un « marché potentiel à l’export » ?

Le cœur du débat français sur l’intérêt d’investir dans cette technologie tient dans cette formule : un « marché potentiel à l’export ». C’est cette formule qui sert d’argument unique dans le rapport du Comité opérationnel sur la recherche du Grenelle de l’environnement (p.10) ; elle fait écho à la position prise par la Commission « Energie » du Centre d’analyse stratégique : « il conviendrait d’ajouter l’accentuation de l’effort de démonstration sur la captation et le stockage du dioxyde de carbone … pour permettre à l’industrie française, qui détient de nombreuses compétences en ce domaine, de jouer un rôle éminent dans le monde. » (p.148).

Les défenseurs de cette approche rappellent que l'industrie française a su montrer par le passé qu'elle pouvait se forger une position de premier rang mondial dans divers segments du secteur pétrolier, alors même que le pays n'était pas lui-même producteur d'hydrocarbures.

Il existe cependant plusieurs manières pour l’industrie française de se hisser à « un rôle éminent dans le monde ». La notion de « marché potentiel à l’export » peut renvoyer à un schéma commercial agressif, très consommateur de crédits publics, dont les retombées pour la collectivité nationale risquent in fine d’être assez limitées ; en effet, une posture conquérante peut se révéler très contreproductive dans un domaine perçu comme relevant directement de la solidarité humaine face au changement climatique.

En l’occurrence, si vos rapporteurs ont adhéré, dans leur rapport de mars 2006, à l’idée que la séquestration du CO2 constituait « un domaine d’excellence de la recherche et de l’industrie française » (p. 349), ils n’en demeurent pas moins convaincus que c’est en s’illustrant sur la scène de la coopération internationale, et non pas en se plaçant dans une perspective de guerre commerciale, que la France dispose des meilleures chances pour développer son offre de services aux autres pays du monde.

L’accessibilité des marchés cibles

L’approche mercantiliste du « marché potentiel à l’export » n'est étayée par aucune analyse de marché49, et les informations recueillies à l'étranger par vos rapporteurs conduisent à la considérer avec circonspection.

En effet, le DOE américain, au delà des aléas financiers du projet FutureGen, et le METI japonais développent d'ores et déjà des programmes de R&D conséquents pour mettre au point la technologie du "charbon propre", en intégrant la préoccupation du captage du CO2. On voit mal comment il serait possible pour des acteurs français de prendre pied sur ces marchés traditionnellement fermés, sauf éventuellement à coopérer dès l’amont aux programmes de recherche ; d’autant que tout projet de CSC comporte par nature une forte dimension nationale, puisqu’il s’agit in fine de construire des installations dans le sous-sol.

Une large partie du monde, à côté des États-Unis et du Japon, se trouve également engagée dans des efforts de développement du CSC. En Amérique du Nord, le Canada se présente même comme le « leader mondial de la capture et du stockage du carbone », ainsi que son ministre des ressources naturelles l’a indiqué lors d’une réunion ministérielle sur l’énergie qui s’est tenue à Londres, le 19 décembre 200850. En outre, lors d’une rencontre avec des responsables du METI, vos rapporteurs ont appris que le Japon avait développé des programmes de coopération sur le CSC avec l'Asie du Sud Est, et gère des projets communs de capture et stockage, couplés avec des centrales expérimentales de "charbon propre", avec la Chine et l'Australie.

Le champ d’une démarche commerciale conquérante se réduit donc singulièrement lorsqu’on prend en compte l’effort déjà engagé par les acteurs nationaux concernés.

La robustesse de l’avantage stratégique

Surtout la justification d'une aide publique spécifique en vue de la conquête des marchés étrangers manque en l'espèce de fondements au regard des analyses économiques sur la "politique commerciale stratégique" (Strategic Trade Policy), popularisées par Paul Krugman, professeur d'économie à l'université de Princeton, qui a reçu le prix Nobel d'économie en octobre 2008, justement pour « ses analyses sur les modèles d’échanges internationaux et la localisation de l'activité économique »51.

Ces analyses montrent qu'un soutien public pour l’exportation n'a une chance d'efficacité, c'est à dire une chance de rapporter au pays aidant plus qu'elle ne lui coûte, que sur un marché « imparfait », caractérisé par de fortes barrières à l'entrée, sous forme capitalistique ou technologique ; car ces barrières, en rendant possible l’exploitation d’économies d'échelle, limitent le nombre possible des acteurs mondiaux, et aident à conserver toute avance acquise sur les concurrents.52

Or, on peut avoir quelques doutes sur la possibilité de considérer le marché du captage et stockage du CO2 comme caractérisé par de fortes barrières à l'entrée. Car le degré de sophistication de la technologie ne semble pas, a priori, devoir empêcher un industriel suffisamment compétent d’étudier les matériaux et les procédés utilisés pour les reproduire, voire les améliorer. Toute protection des droits de propriété intellectuelle risque ainsi fort de rester virtuelle.

En l'occurrence, les zones comportant la plus grande concentration de sources d’émission de gaz carbonique sont les États-Unis, l’Europe, la Chine et l'Inde53. Si la Chine et l'Inde en viennent effectivement, en plus de leurs efforts d’efficacité énergétique, à réduire les émissions de CO2 par captage et stockage, il leur suffira d'acheter un seul équipement pour développer ensuite leur technologie nationale. Et le "marché potentiel à l'export" risque ainsi de se réduire à quelques ventes unitaires.

Comme élément d’appréciation des compétences nationales en chimie avancée, vos rapporteurs peuvent se référer au domaine du DME (diméthyl éther), combustible propre du futur ayant l’avantage de pouvoir être synthétisé à partir du gaz naturel, du charbon ou de la biomasse. Ils ont visité au Japon l’unité pilote de production de Niigata, mise en place par un consortium des grands industriels de la chimie nippone (dont Mitsubishi Gas Chemical) en liaison avec Total. Or, ils ont appris sur place que la Chine produit et utilise déjà le DME comme carburant, à grande échelle, et depuis plusieurs années. C’est là l’indice d’une capacité de rattrapage rapide dans des systèmes reposant sur une maîtrise des procédés chimiques.

La voie de la coopération internationale

De toute façon, avec l'internationalisation des entreprises, et la division internationale des processus productifs, qui répartit les étapes d'une chaîne de fabrication entre plusieurs pays, il est peu probable que le taux de retour pour la France d'une aide publique française particulièrement appuyée soit vraiment conséquent.

Plutôt qu'un soutien conquérant pour un "marché potentiel à l'export", il serait sans doute plus réaliste de s'en tenir à une perspective de coopération internationale, à la manière dont l’a prévu d'ailleurs le contrat d'objectifs de l'IFP54, quitte à jouer dans ce cadre un rôle de « chef de file » pouvant avoir éventuellement des retombées commerciales. La démarche deviendrait ainsi plus cohérente que celle consistant à proclamer dans les enceintes internationales la solidarité humaine dans la lutte contre l’effet de serre, tout en s’efforçant par ailleurs de faire commerce de la technologie du captage et stockage de CO2.

Par cette autre approche, la France, peu émettrice elle-même de gaz carbonique grâce à son choix pour l'énergie nucléaire, met à la disposition de la collectivité mondiale ses compétences dans les procédés de chimie lourde pour aider l'humanité à faire face au défi du changement climatique.

Dès lors, le soutien public français s’entend comme une contribution à l'effort international. La France est d’ailleurs membre du « Carbon Sequestration Leadership Forum »55, structure d’échanges sur les questions techniques soulevées par le CSC, qui réunit 21 nations à travers le monde, et la Communauté européenne.

Mais l’action de coopération de la France passe prioritairement par une participation active aux programmes communautaires, eux-mêmes dimensionnés pour positionner la Communauté européenne au premier plan de la lutte contre le changement climatique, puisque celle-ci s’affirme comme un modèle pour le monde, depuis que le Conseil européen des 8 et 9 mars 2007 a fixé l’objectif d’une réduction de 20% de ses émissions de gaz à effet de serre à l’horizon de 2020.

e) L’équilibre de l’approche communautaire

Un alignement sur la démarche communautaire dans le domaine du captage et stockage du gaz carbonique, tel que l’IFP en a donné l’illustration en occupant une place de premier plan au sein du programme CASTOR (6e PCRD), et maintenant du programme CESAR (7e PCRD), présente l’intérêt d’inscrire la politique de recherche de la France dans un cadre équilibré, reposant sur la discussion en cours de deux projets de directive complémentaires, bien axés sur les points clés de la technologie :

- l’un, relatif spécifiquement au captage et stockage, vise essentiellement à définir un cadre juridique pour assurer la sécurité des installations techniques mises en place ;

- l’autre, relatif à l’organisation du marché des droits d’émission, vise indirectement à organiser l’incitation des entreprises à participer à l’effort de réduction des émissions de gaz carbonique.

La proposition de directive relative « au stockage géologique du dioxyde de carbone » se donne essentiellement comme objectif d’assurer la « sécurité pour l’environnement ». Elle prévoit un régime de permis de stockage, fixe des obligations de surveillance et de transmission d’informations, établit des modalités d’inspection, précise les règles d’intervention publique en cas de fuite, et les conditions d’un éventuel transfert de responsabilité à l’État. Elle pose le principe d’un accès transparent et non discriminatoire au réseau de transport et aux sites de stockage, et impose une coopération entre États pour la supervision des opérations transfrontalières.

Dans son quatrième considérant, elle précise bien que : « cette technologie ne devrait pas être utilisée comme une incitation en faveur d’un accroissement des centrales électriques fonctionnant avec des combustibles fossiles », préoccupation partagée par vos rapporteurs.

La proposition de directive en vue « d’améliorer et d’étendre le système communautaire d’échange de quotas d’émission de gaz à effet de serre » a été sensiblement amendée par le compromis sur le paquet « Energie-Climat » obtenu par le Conseil européen des 11 et 12 décembre 2008. Elle modifie la directive 2003/87/CE qui a fondé ce système d’échange de quotas d’émission sur trois principes :

- une demande d’autorisation d’émettre des gaz à effet de serre pour certains secteurs (énergie, sidérurgie, cimenterie, verrerie, papeterie) ;

- la fixation par les États d’un plan national d’allocation des quotas d’émission ;

- une amende pour tout dépassement des quotas attribués.

La proposition de directive étend la liste des gaz à effet de serre pris en compte en plus du dioxyde de carbone (protoxyde d’azote, perfluorocarbones – PFC) ; elle élargit le dispositif à de nouveaux secteurs, comme la chimie et l’aluminium.

Elle prévoit le remplacement, à compter de 2013, des plans nationaux d’allocation par un dispositif unifié applicable à l’ensemble de la Communauté. Le plafond communautaire global des quotas d’émissions sera réduit de 1,74 % par an jusqu’à 2020, ce qui permettra une réduction cumulée des émissions de 21 % par rapport au niveau de 2005. La fixation de cette règle d’évolution sur le moyen terme vise à sécuriser les investissements.

La proposition de directive supprime progressivement, à partir de 2013, l’octroi gratuit des quotas d’émission au profit de la vente aux enchères, laquelle devra s’imposer totalement d’ici 2020 dans le secteur de l’énergie, et d’ici 2027 dans les autres secteurs. Des exceptions pourront toutefois être accordées à certains secteurs de compétitivité fragile, confrontés à un fort risque de délocalisation.

Enfin, la proposition de directive établit un principe d’affectation d’une partie du produit des enchères, dont la moitié au moins devra être consacrée par les États à des actions visant à réduire les émissions de gaz à effet de serre et à atténuer le changement climatique. En outre, une partie des quotas prévus pour les nouveaux entrants sera réservée pour créer une incitation financière au profit de douze projets « commerciaux » de démonstration de captage et stockage du CO2, sous la condition d’un partage des connaissances. Ces douze projets sont ceux que le Conseil européen des 19 et 20 juin 2008 a demandé à la Commission de mettre en œuvre d’ici 2015 avec le concours des États membres et du secteur privé.

Le vingtième considérant de la proposition de directive souligne que le système d’échanges de quotas d’émission doit contribuer à ce que l’initiative privée participe au développement du captage et stockage du gaz carbonique : « Pour le captage et le stockage du carbone, ainsi que pour les nouvelles énergies renouvelables, la principale incitation à long terme est qu’il ne sera pas nécessaire de restituer des quotas pour du CO2 stocké de manière permanente ou non émis ».

f) L'apport du marché des droits d'émission

La possibilité de valoriser une diminution d'émission de gaz à effet de serre par la vente d'un titre correspondant sur un marché constitue en soi une efficace incitation à investir dans des systèmes de captage et stockage.

Ce mécanisme incitatif confère même un horizon aux recherches sur le captage et stockage, puisqu'il s'agit d'abaisser le coût de ces systèmes de manière que le coût de chaque tonne d'émission de gaz carbonique évitée devienne plus bas que le cours de cette même tonne sur le marché des droits d'émission.

La mise en place de ce mécanisme appelle cependant deux remarques :

- d'une part, il paraît peu cohérent d'assurer un soutien public important aux recherches sur le captage et stockage, alors même que la mise en place du marché des droits d'émission vise justement à reporter la charge financière de l'adaptation des équipements industriels sur les propriétaires d'usines; l'effort public incite en soi à un certain attentisme de la part des acteurs privés, puisqu'il ouvre à ceux-ci la perspective de pouvoir, à terme, sans contribution de leur part, acheter les dispositifs de captage et stockage mis au point grâce au financement public ;

- d'autre part, l'incitation des acteurs privés à investir dans un système de captage et stockage est freinée par la dépréciation inexorable, à terme, des droits d'émission. En effet, le lancement d'une politique publique de réduction des émissions de gaz carbonique devrait conduire à ce que la tendance dominante sur le marché des droits d'émission soit à la vente, puisqu'un nombre croissant d'émetteurs de gaz carbonique vont valoriser sur ce marché leurs efforts de réduction d'émission; il sera donc de plus en plus difficile de trouver une contrepartie désireuse d'acheter des droits d'émission, et la valeur boursière de ces droits, par conséquent, aura tendance à baisser. Dans cette perspective, lancer un projet d'investissement dans une technologie de capture et stockage, avec l'idée de retrouver au moins sa mise de fond initiale grâce à la revente des droits d'émission correspondant au volume de gaz carbonique ainsi évité, relèvera d'un pari très aléatoire.

Le mécanisme des droits d'émission ne semble donc pas exempt de quelques inconvénients. Du reste, la proposition de directive en vue « d’améliorer et d’étendre le système communautaire d’échange de quotas d’émission de gaz à effet de serre » prévoit, dans ses derniers articles, un « rapport visant à assurer un meilleur fonctionnement du marché du carbone », ainsi que « des mesures en cas de volatilité excessive des prix ».

Néanmoins, ce mécanisme présente l'avantage de déplacer la charge de l'adaptation des équipements industriels sur les entreprises, en leur permettant de gérer au mieux le calendrier de cet effort en fonction de leurs contraintes. Il fonctionne mieux si le soutien public à la technologie de captage et stockage demeure bien délimité, et n'apparaît pas comme un chèque en blanc conduisant finalement, par rallonges budgétaires successives, à reporter une part croissante de la charge d'adaptation sur la collectivité publique.

g) La répartition de la charge

Il convient d'observer que le débat sur la répartition de la charge entre les entreprises et les contribuables est d'une portée très relative s'agissant de l'impact macroéconomique du prélèvement effectué, car les entreprises répercuteront, de toute façon, tout ou partie de l'effort qui leur incombera sur les prix de leurs produits ou services. Aux États-Unis, selon les informations fournies à vos rapporteurs, le DOE estime qu’en l’état de l’art, le prix de l’électricité produit par les centrales au charbon serait doublé. En fait, l'arbitrage concernera le partage de la charge entre les contribuables et les consommateurs.

Que ce soit sous la forme d'une hausse des prix ou d'une hausse des prélèvements obligatoires, le financement de la recherche, puis de l'implantation, des systèmes de captage et stockage aura donc un effet de restriction du pouvoir d'achat freinant la demande.

Ce freinage est inhérent à tout effort collectif important, et a heureusement pour contrepartie la stimulation de la demande nourrie par la redistribution, à travers d'autres circuits, de la dépense effectuée pour réaliser l'investissement. Cette stimulation peut même l'emporter sur le freinage en cas de financement par l'emprunt ; car, dans ce cas, la hausse des impôts ou des prix peut être différée jusqu'au moment des remboursements.

Tout l'enjeu d'un investissement collectif important consiste alors en ce qu'il doit produire, par lui-même, les revenus supplémentaires permettant de rembourser les emprunts contractés pour le réaliser. Typiquement, l'implantation d'un nouvel équipement routier ou ferroviaire, si elle est bien conçue, doit générer un supplément d'activité économique augmentant le revenu global de la population et donc la ressource fiscale ; à long terme, l'investissement finance les emprunts qui ont permis de le réaliser.

Avec l'investissement dans le captage et stockage du gaz carbonique, l'effet initial de stimulation peut certes intervenir en cas de financement par l'emprunt56, mais de toute façon, à terme, aucune activité économique supplémentaire, et donc aucune matière fiscale supplémentaire n'est générée. A moins de supposer un effet d'offre induit par un mieux être de la population face à une diminution des risques de changement climatique, le captage et stockage du gaz carbonique constitue d'un point de vue économique une dépense pure, financée immédiatement ou à terme par un prélèvement sur le revenu global, sans contrepartie sous forme d'augmentation du potentiel productif. Cet effet de freinage était une préoccupation forte des divers interlocuteurs américains sollicités sur ce sujet, lors de la visite de vos rapporteurs aux États-Unis.

La seule contrepartie possible résulte de l'effet d'entraînement engendré par l'investissement dans des technologies nouvelles, selon le mécanisme dit "de la croissance endogène" mis à jour notamment par Paul Romer et Robert Lucas vers la fin des années quatre-vingt : le progrès technique stimule le progrès technique, toute impulsion renforce son rythme et entraîne la croissance dans son sillage, en dynamisant l'offre57. Le contenu technologique du dispositif de captage et stockage du gaz carbonique est limité, puisqu’il repose pour partie sur des procédés déjà bien maîtrisés ; en conséquence, son impact en termes de dynamisation de la croissance est sans doute réduit. C'est une des raisons peut-être de la préférence marquée des Japonais pour l'investissement dans l'efficacité énergétique, qui oblige à des sauts dans la conception technologique, ce que la NEDO a démontré en expliquant à vos rapporteurs les recherches qu'elle pilotait sur les centrales électriques à charbon, par exemple.

Mais la maximisation de l'effet de "croissance endogène" suppose une contribution active des acteurs industriels, qui doivent s'approprier les savoirs scientifiques et techniques générés pour en nourrir leurs propres efforts de recherche et développement dans d'autres domaines. Il serait donc dommageable qu'ils demeurent dans une situation passive vis à vis de cette technologie, en se contentant de l'acheter sur étagère, et c'est une raison supplémentaire pour maintenir dans des limites restreintes la part publique du financement de la recherche, puis de l'implantation, des systèmes de captage et stockage du gaz carbonique.

h) La voie d'une rupture technologique

La visite du site dédié à l’énergie solaire au sein des Sandia National Laboratories, vaste centre de recherche du DOE au Nouveau Mexique, a permis à vos rapporteurs de découvrir une expérimentation utilisant un four solaire pour porter un mélange de vapeur d’eau et de gaz carbonique à une température assez élevée pour récupérer un mélange de monoxyde de carbone et d’hydrogène, composants à partir desquels on peut produire des carburants de synthèse. M. Les Shephard, Vice President pour l’énergie, la sécurité et la défense des laboratoires de Sandia, a expliqué qu'il s'agissait ainsi d'explorer la voie d’une valorisation économique directe du gaz carbonique, voie qui lui semblait plus prometteuse que le stockage géologique.

Cette approche suppose de conduire des recherches visant à une véritable rupture technologique, mais l'enjeu est à la hauteur de la difficulté, car le captage du gaz carbonique deviendrait alors une fin économique en soi, et n'aurait plus besoin de la béquille d'un marché virtuel du carbone.

Certains industriels allemands suivent apparemment le même raisonnement, puisque, selon l’Ambassade de France en Allemagne, le groupe chimique multinational Evonik, présent dans 100 pays, a ouvert en octobre 2008, un centre "Science-to-business" (S2B) à Marl, dans le Land de Rhénanie du Nord-Westphalie, dont l’un des objets sera d’étudier l'absorption partielle du CO2 dans les fumées à l'aide d'absorbants, « dans le but de valoriser le CO2 en le recyclant dans des nouveaux produits ».58

La recherche sur la valorisation du gaz carbonique paraît d'ailleurs s'inscrire dans une logique complémentaire à celle sur le stockage géologique si l'on fait référence à la situation, à bien des égards similaires, de la gestion des déchets radioactifs, qui prévoit, à côté du stockage en couche géologique profonde, une voie de recyclage des déchets radioactifs de haute activité via la séparation-transmutation, à travers les recherches sur les réacteurs de quatrième génération.

Par comparaison, l'absence de la voie du recyclage dans les recherches sur la réduction des émissions de gaz carbonique apparaît d'autant moins justifiée que ce gaz conserve a priori toutes ses propriétés chimiques lorsqu'il est enfoui, alors qu’à l’inverse, la décroissance radioactive assure l'élimination naturelle des déchets nucléaires sur longue période. L'accident du lac Nyos au Cameroun en 1986, qui a tué 1700 personnes et des milliers de têtes de bétail sur un rayon dépassant 25 km, suite à la remontée brutale d'une eau saturée en gaz carbonique jusque là piégée naturellement en profondeur, illustre dramatiquement les limites d'une stratégie d’élimination du gaz carbonique par le seul stockage.

Le contrat d’objectifs de l’IFP cite, au titre de la recherche exploratoire, la voie de la valorisation chimique du CO2 (p.43). Il semble qu’Areva poursuive au long cours certains travaux d’appui dans cette même direction. Cette piste de recherche mérite certainement d’être mieux mise en valeur, et spécifiquement soutenue. Ainsi, vos rapporteurs ont-ils appris avec satisfaction que le projet de pôle technologique à vocation mondiale sur les thèmes « Climat, énergie, environnement » (PCEE) du Campus de Saclay prévoyait une voie de recherche concernant les carburants synthétiques obtenus par photo-réduction du CO2 (Cf. annexes).

La recherche sur le captage et stockage du CO2 devrait donc clairement s’inscrire dans une perspective de coopération internationale, meilleure manière de faire valoir l’excellence de la France dans les technologies concernées, et de développer une activité de services à destination des partenaires étrangers.

Le soutien public accordé à l’effort technologique correspondant doit s’accompagner d’un programme de recherche exploratoire sur la valorisation du gaz carbonique.

Cependant, ce soutien doit être ajusté pour éviter d’encourager par contrecoup une nouvelle expansion des énergies carbonées en France. En particulier, l’installation des équipements de CSC ne doit pas être subventionnée.

CONCLUSION

C’est un exercice assez inhabituel auquel vos rapporteurs ont été conduits avec cette mission d’évaluation de la stratégie nationale de recherche énergétique. Normalement, les études de l’OPECST dressent un bilan de l’état donné d’un sujet pour préparer une éventuelle intervention du Gouvernement et du Parlement. Là, les circonstances ont amené à réaliser une évaluation sur un sujet en pleine restructuration institutionnelle, puisque l’organisation de la recherche en énergie est directement concernée par l’effort de mobilisation voulu par le Grenelle de l’environnement autour de la lutte contre le changement climatique, la réduction des pollutions, et la préservation de la biodiversité.

En fait, cette mission se trouve positionnée à la confluence de deux vagues historiques assez rapprochées d’intérêt national pour l’énergie :

- celle ouverte en janvier 2003 par le « Débat national sur les énergies », qui s’est achevé avec la publication du rapport sur le « facteur 4 » en août 2006, et qui a produit la loi de programme du 13 juillet 2005 fixant les orientations de la politique énergétique, dont cette mission d’évaluation constitue un prolongement ;

- celle ouverte par le lancement en juillet 2007 du Grenelle de l’environnement.

Vos rapporteurs auraient pu s’enfermer dans une attitude autiste, en s’en tenant à une stricte critique du rapport de mai 2007. Tel n’a pas été leur choix, puisqu’ils ont préféré entrer dans une démarche de prise en compte des évolutions en cours, en mettant en valeur les apports de la nouvelle vague de mobilisation. Cela les a amenés, par exemple, à proposer leurs remarques sur la fixation des normes futures de consommation des bâtiments neufs, sujet de débats dans le cadre du projet de loi de programme sur la mise en œuvre du Grenelle de l’environnement, à propos duquel une saisine de l’OPECST est prévue.59

Au terme de leur évaluation, vos rapporteurs tiennent à souligner l’impression extrêmement favorable qu’ils retiennent du contact avec la communauté de la recherche en énergie : qu’ils s’agissent des organismes de recherche ou des entreprises, il ressort des échanges une forte volonté d’aller de l’avant et de s’adapter aux évolutions apportées par les percées technologiques, comme celles réalisées au cours de la quinzaine d’années écoulées sur les batteries rechargeables et les véhicules hybrides.

C’est une des raisons pour lesquelles les préoccupations de la société exprimées à l’occasion du Grenelle de l’environnement ont pu trouver un relais rapide du côté de l’effort de recherche, ainsi qu’en témoigne le déploiement des démonstrateurs dans le domaine clef des biocarburants. De fait, l’effort pour développer des solutions axées sur le développement des économies renouvelables et la diminution des émissions de gaz carbonique était déjà en cours, et le Grenelle de l’environnement, avec l’engagement du Président de la République d’accroître le soutien budgétaire pour la recherche sur l’énergie et le climat, n’a pu qu’accélérer le mouvement.

Ce dynamisme de la recherche en énergie pâtit malheureusement de la lenteur inhérente au déploiement des systèmes énergétiques, déjà évoquée en introduction. Car le processus par lequel une idée trouve une concrétisation scientifique, se transforme en une solution technique, puis devient un procédé industrialisable, et enfin un produit commercial est long, très long. Il est donc par essence difficile pour la recherche en énergie de faire valoir ses efforts, à la différence notable de la recherche dans les communications électroniques, qui bénéficie d’un cycle « du concept au marché » beaucoup plus court ; de ce côté-ci, le temps se compte en années ; pour l’énergie, il se compte en décennies. Il est plus rapide de diffuser une nouvelle gamme de téléphones portables, que d’améliorer la qualité d’isolation du parc immobilier, ou d’établir les conditions d’une généralisation des véhicules fonctionnant au moins partiellement à l’électricité.

Les échanges au sein de la communauté de la recherche en énergie sont nombreux, les contacts avec les contextes étrangers fréquents, et il en résulte la formation d’un sentiment général sur les priorités à poursuivre. Les faiblesses d’un exercice formel d’élaboration d’une stratégie, comme celui proposé par le rapport de mai 2007, s’en trouvent d’autant plus relativisées dans leur portée réelle, puisque les efforts vont s’orienter de toute façon, pour l’essentiel, dans la bonne direction. Et les contrats d’objectifs signés par l’État avec les établissements permettent de faire le point, tous les quatre ans, sur les pistes à privilégier.

Les incursions récurrentes des pouvoirs publics pour essayer de définir des axes stratégiques d’ensemble (rapport « Chambolle », rapport « Syrota », rapport « Guillou », missions des commissions parlementaires, rapports de l’OPECST), qui aboutissent en fait surtout à valider a posteriori des efforts déjà engagés, sont vécues à la fois comme une heureuse occasion de montrer les travaux en cours, et comme une pénible source de perte de temps, lorsqu’elles se succèdent de façon désordonnée à un rythme trop rapide.

Vos rapporteurs ont conduit leurs travaux d’évaluation en s’efforçant d’apporter une valeur ajoutée, sans bouleverser les équilibres pertinents déjà en place, et dont ils ont été du reste les artisans principaux pour le domaine essentiel de l’énergie nucléaire. De là, cette approche visant d’un côté, à formuler des remarques de forme, de l’autre, à exprimer leur sentiment quant aux priorités de fond.

S’agissant de la forme, les critiques se concentrent sur le manque de méthodologie objective pour identifier les priorités et l’absence d’une validation politique par le Gouvernement. Les recommandations concernent la création premièrement d’un « Haut commissaire à l’énergie », en mesure d’orienter la recherche en énergie dans la perspective plus générale de la politique de l’énergie, et deuxièmement d’instances spécifiques de pilotage : une « Commission nationale d’évaluation » en charge de la recherche sur les nouvelles technologies de l’énergie, à côté de celle déjà à l’œuvre depuis deux décennies dans le domaine nucléaire, toutes deux rendant compte à l’OPECST ; des « coordinateurs » désignés officiellement parmi les partenaires des programmes relevant d’une priorité de recherche de premier niveau.

S’agissant du fond, vos rapporteurs suggèrent quelques inflexions de recentrage s’agissant des énergies établies (nucléaire, pétrole), et apportent, s’agissant des énergies nouvelles, leur soutien à des efforts déjà bien engagés :

- la recherche sur l’énergie photovoltaïque, en signalant que la structure de la filière organique, quoiqu’encore à un stade très amont, doit être consolidée ;

- la recherche sur les biocarburants de deuxième génération, en soulignant l’intérêt du projet d’un pilote de production de biodiesel sur le site du laboratoire de Bure ;

- la recherche sur les batteries rechargeables, en insistant sur le rôle déterminant de l’électronique interne de commande dans l’optimisation des performances ;

- la recherche sur les énergies marines, en conseillant de privilégier à cet égard les zones littorales dépourvues d’autres modes centralisés de production d’électricité.

Vos rapporteurs attirent particulièrement l’attention sur le rôle que peut jouer le stockage en masse d’énergie hydraulique dans un développement plus équilibré des énergies renouvelables intermittentes, et particulièrement, de l’énergie éolienne. Ils préconisent l’instauration d’une tarification de l’électricité plus incitative pour la construction des ouvrages de stockage d’énergie ; ils indiquent qu’en bord de mer, notamment à proximité des parcs d’éoliennes off-shore, ces ouvrages peuvent prendre la forme d’atolls artificiels construits selon des techniques éprouvées pour les barrages et les ports ; la France pourrait s’enorgueillir un jour d’avoir eu l’initiative mondiale de ce nouveau genre de stations de transfert d’énergie par pompage.

Enfin, revenant sur deux conclusions importantes du rapport Chambolle de juin 2004, à savoir le besoin, à l’époque, de lancer un programme « hydrogène et pile à combustible » et un programme « capture et stockage du CO2 » « dans le cadre des dispositifs pilotés par l'Europe » (p.11), vos rapporteurs prennent acte du rattrapage rapide effectué dans ces deux domaines, et appellent pour l’avenir à un redéploiement de l’effort de recherche :

- pour la pile à combustible, en renforçant les études sur les usages stationnaires et portables de préférence aux usages automobiles, dont l’avenir semble décidemment confiné à quelques niches ;

- pour le captage et stockage du CO2, en réorientant une partie des ressources au profit d’études sur la valorisation du gaz carbonique, dans une logique similaire à celle conçue par vos rapporteurs pour la stratégie de recherche sur les déchets radioactifs, qui prévoit l’axe de la transmutation à côté de celui du stockage.

*

* *

L’avenir énergétique de la France et du monde ne fait pas rêver. La fusion nucléaire est au mieux une promesse pour la fin du siècle, et en attendant, il faudra recourir à toutes les solutions disponibles pour faire face à l’accroissement du besoin d’énergie, et poursuivre le remplacement progressif des énergies carbonées.

Jeremy Rifkin a publié en 2002 un ouvrage annonçant un basculement prochain à « l’économie de l’hydrogène ». Aujourd’hui, l’image enthousiasmante de routes sillonnées par des voitures utilisant ce vecteur idéal s’est un peu défraîchie. La nouvelle perspective est celle du véhicule hybride rechargeable. Son cœur sera constitué d’une batterie au lithium, dont les performances progresseront, mais dans une certaine limite seulement ; un appoint de carburant liquide demeure incontournable : l’avenir du métier de pompiste reste assuré.

Vers la fin du siècle, on dira donc probablement que Jeremy Rifkin s’est trompé, mais trompé de vecteur seulement : ce vecteur sera l’électricité plutôt que l’hydrogène. C’est donc plutôt vers « l’économie du lithium », métal nécessaire aux batteries comme au réacteur de fusion, que le monde s’achemine.

RECOMMANDATIONS

Sur la forme de la stratégie :

1) Le choix des priorités de recherche doit être explicité à partir d’une grille d’analyse (approche de type « atouts - attraits »).

2) La liste des thèmes retenus doit faire l’objet d’un classement selon quatre degrés de priorité : le soutien national pour assurer une position de leader mondial ; la participation à l’effort européen ; la participation à la coopération internationale ; le maintien d’une veille technologique.

3) Chaque axe de recherche doit faire l’objet d’une quantification quand à la probabilité des risques et des enjeux, faisant apparaître l’espérance (au sens mathématique) des retombées économiques. La stratégie doit être perçue comme un panier de paris à l’image de celui des investisseurs en capital-risque.

4) Les thèmes classés en veille scientifique peuvent faire l’objet des soutiens financiers « tournants » de l’ANR ; les priorités stratégiques de degré supérieur doivent bénéficier d’un financement pérenne.

5) La stratégie doit présenter des échéanciers des objectifs de recherche (« RoadMap »), ainsi que des bilans prospectifs de moyen terme montrant comment l’aboutissement des recherches au niveau industriel permet de répondre à l’évolution des besoins d’énergie. Cela suppose l’appui d’une unité de prospective.

6) La stratégie doit être endossée par une autorité politique. Au moins les deux ministres chargé de la recherche et de l’énergie. Au mieux le Premier ministre.

7) La cohérence entre la recherche et la politique de l’énergie doit être garantie par la nomination d’un « Haut commissaire à l’énergie », créé par transformation du poste de « Haut commissaire à l’énergie atomique ».

8) La stratégie doit désigner un chef de file sur les thèmes identifiés comme priorités nationales. Il peut s’agir d’un membre de partenariat se voyant reconnaître une prééminence, ou un « haut commissaire » ad hoc. Ce chef de file rend compte au Gouvernement et au Parlement des avancées ou des difficultés rencontrées.

9) Une « commission nationale d’évaluation » pourrait effectuer annuellement une évaluation des recherches concernant les nouvelles technologies de l’énergie, sous le contrôle de l’OPECST, comme cela se passe dans le domaine de la recherche sur les déchets radioactifs.

Sur le fond de la stratégie :

10) La recherche sur les réacteurs de quatrième génération doit être pilotée par un « coordinateur » identifié, veillant à maintenir une place centrale à l’objectif d’utiliser les actinides comme combustibles.

11) Les recherches de l’IRSN sur le site de Tournemire doivent entrer dans le champ de l’évaluation annuelle des recherches sur les déchets nucléaires conduite par la CNE.

12) Les travaux de l’IFP doivent commencer à se diversifier en tenant compte de la future disparition des hydrocarbures fossiles.

13) Le soutien public accordé aux recherches sur les hydrocarbures doit être mis en valeur par une structure faisant ressortir leur intérêt industriel pour des petites entreprises du secteur pétrolier.

14) La recherche sur la pile à combustible doit faire l’objet, pour ce qui concerne la propulsion automobile, d’un effort ajusté aux besoins de la coopération européenne, et doit être retenue comme une priorité nationale pour les développements relatifs aux usages mobiles et stationnaires.

15) La recherche sur l’énergie photovoltaïque doit faire l’objet d’un effort national très important, en liaison avec les efforts déjà engagés (INES, IRDEP), avec comme objectif de mettre au point une technologie de rupture replaçant la France au premier rang de cette technologie. Cet effort doit être ouvert internationalement, mais géré de manière à prévoir une déclinaison industrielle rapide.

16) L’effort de recherche sur l’énergie photovoltaïque doit s’accompagner d’une importante mobilisation des professionnels du bâtiment, de manière à stimuler l’offre d’un service de qualité dans la diffusion des technologies de l’énergie solaire.

17) Les recherches sur le stockage d’énergie doivent faire l’objet d’un effort national. Le contexte réglementaire des STEP doit être rendu plus incitatif.

18) Les énergies de la mer doivent faire l’objet d’un effort national. Un programme doit particulièrement se consacrer à l’étude de faisabilité des STEP en mer.

19) L’effort de captage et stockage du gaz carbonique mené sur financement public doit être configuré comme une composante de l’effort européen, et conçu dans une perspective de coopération internationale.

20) Cet effort de captage et stockage du gaz carbonique doit être accompagné par un programme de recherche fondamentale ouvert au niveau international sur la valorisation industrielle du gaz carbonique.

EXAMEN DU RAPPORT PAR L’OFFICE

3 mars 2009

MM. Christian Bataille et Claude Birraux, députés, rapporteurs, ont rappelé que leur présentation portait sur l’évaluation de la « stratégie nationale de recherche énergétique », ainsi que le prévoit la loi de programme du 13 juillet 2005 fixant les orientations de la politique énergétique.

Cette étude s’est trouvée positionnée à la confluence de deux vagues historiques assez rapprochées d’intérêt national pour l’énergie, car avant le Grenelle de l’environnement, qui a démarré en juillet 2007, la France avait connu une première vague de réflexion collective sur ce sujet, ouverte en janvier 2003 par le « Débat national sur les énergies », et qui s’est achevée avec la publication du rapport sur le « facteur 4 » en août 2006. Cette première vague s’est traduite par le vote de la loi du 13 juillet 2005 précitée, dont cette mission d’évaluation constitue un prolongement.

Plutôt que de s’en tenir à la stricte critique du document de mai 2007 décrivant la stratégie nationale de recherche énergétique, la démarche d’évaluation suivie a d’emblée pris en compte les évolutions en cours, en mettant en valeur les apports du Grenelle de l’environnement. A cet égard, deux constats généraux peuvent être dressés :

Le premier constat concerne la lenteur inhérente au déploiement des systèmes énergétiques, et donc le délai d’impact d’une impulsion politique dans ce domaine. Car le processus par lequel une idée trouve une concrétisation scientifique, se transforme en une solution technique, puis devient un procédé industrialisable, et enfin un produit commercial est très long dans le domaine de l’énergie. Il est donc par essence difficile pour la recherche en énergie de faire valoir ses efforts, à la différence notable de la recherche dans les communications électroniques, qui bénéficie d’un cycle « du concept au marché » beaucoup plus court ; de ce côté-ci, le temps se compte en années ; pour l’énergie, il se compte en décennies. Il est plus rapide de diffuser le dernier modèle des téléphones portables, que d’améliorer l’isolation du parc immobilier, ou de généraliser les véhicules électriques.

Le second constat général concerne l’impression extrêmement favorable laissée par la communauté de la recherche en énergie : qu’il s’agisse des organismes publics (CEA, IFP, CNRS) ou des entreprises (EDF, Areva, Saint-Gobain, Saft), il ressort des échanges une forte volonté d’aller de l’avant et de s’adapter aux évolutions apportées par les percées technologiques, comme celles réalisées au cours de la quinzaine d’années écoulées sur les batteries rechargeables et les véhicules hybrides.

C’est une des raisons pour lesquelles les préoccupations de la société exprimées à l’occasion du Grenelle de l’environnement ont pu trouver un relais rapide du côté de l’effort de recherche, ainsi qu’en témoigne le déploiement des démonstrateurs dans le domaine clef des biocarburants. De fait, l’effort pour développer des solutions axées sur le développement des énergies renouvelables et la diminution des émissions de gaz carbonique était déjà engagé depuis longtemps, et le Grenelle de l’environnement, avec la décision du Président de la République d’accroître le soutien budgétaire pour la recherche sur l’énergie et le climat, n’a fait qu’accélérer un mouvement déjà bien orienté.

MM. Christian Bataille et Claude Birraux ont indiqué que leur évaluation reprend la distinction classique entre la forme et le fond, et que, s’agissant de la forme, leurs critiques se concentrent sur le manque de méthodologie objective pour identifier les priorités et l’absence d’une validation politique par le Gouvernement.

La stratégie de mai 2007 a été élaborée sans aucune grille d’analyse et de comparaison mettant en avant d’un côté les enjeux, thème par thème, de l’autre les atouts de la recherche française, de manière à justifier l’allocation budgétaire entre les différentes pistes. En fait, sauf dans le domaine de l’énergie nucléaire, la stratégie nationale de recherche énergétique se présente plutôt comme une synthèse a posteriori des pistes définies, au cas par cas, sans plan d’ensemble, par les contrats d’objectifs des établissements de recherche.

Ce caractère inachevé est illustré par l’absence de validation du document par les autorités politiques. La stratégie nationale de recherche énergétique doit selon la loi être « arrêtée » par les ministres chargés de l’énergie et de la recherche. Or le document ne fait apparaître aucun endossement de son contenu par ces deux ministres. C’est un simple document de travail administratif.

A l’inverse, au Japon, la stratégie de recherche est non seulement approuvée tous les cinq ans par le Gouvernement, mais encore suivie régulièrement par un conseil de ministres restreint, augmenté de personnalités du monde scientifique, qui se tient tous les deux mois sous l’autorité du Premier ministre en personne. Ce « Conseil sur la politique de la science et de la technologie » (CSTP) couvre certes l’ensemble de la recherche, et non pas seulement le domaine de l’énergie, mais la différence d’engagement des autorités de l’État est flagrante.

Il faudrait donc, non seulement que la prochaine stratégie nationale de recherche énergétique, qui doit être arrêtée d’ici 2012, soit élaborée selon une méthodologie plus rigoureuse, mais encore que son contenu soit présenté et approuvé en Conseil des ministres, et publié au Journal officiel par arrêté conjoint des ministres de la recherche et de l’énergie, comme la loi y invite.

La stratégie doit faire apparaître des « itinéraires programmatiques » (Road Maps), c'est-à-dire des échéanciers par secteur, mais aussi des projections temporelles montrant l’efficacité des choix technologiques face aux évolutions des besoins d’énergie à moyen terme.

MM. Christian Bataille et Claude Birraux ont souligné que leurs recommandations quant au pilotage de la mise en œuvre de la stratégie s’appuient sur l’expérience acquise dans le domaine de la recherche nucléaire.

A cet égard, il apparaît nécessaire d’une part, de définir une responsabilité de pilotage pour l’ensemble de la recherche énergétique, disposant de la faculté d’effectuer un arbitrage des moyens entre les différentes échéances auxquelles se trouve confrontée la politique de l’énergie ; d’autre part, de définir une responsabilité de pilotage par domaine, pour ceux identifiés comme prioritaires. En outre, il faut avoir le souci de ne pas créer des structures lourdes et coûteuses.

Les recommandations concernent ainsi :

- premièrement, la désignation d’un « Haut commissaire à l’énergie », en mesure d’orienter la recherche en énergie dans la perspective plus générale de la politique de l’énergie ; en fait, il s’agit simplement d’étendre et de renforcer les compétences du « Haut Commissaire à l’énergie atomique », qui sont d’ores et déjà plus larges que ce que son titre peut le laisser entendre ; il s’agit de lui troquer un titre plus court contre un profil plus large ;

- deuxièmement, la nomination de « coordinateurs » désignés officiellement parmi les partenaires des programmes relevant d’une priorité de recherche ; il ne s’agit pas d’acteurs nouveaux, mais de « primus inter pares », qui peuvent et doivent décider en cas de difficulté tactique sur le chemin de la recherche, et en contrepartie de ce pouvoir, ont la responsabilité d’en rendre compte aux autorités de l’État ;

- troisièmement, la mise en place d’une « Commission nationale d’évaluation » en charge de la recherche sur les nouvelles technologies de l’énergie, sur le modèle de celle déjà à l’œuvre depuis deux décennies dans le domaine de la recherche sur les déchets radioactifs; ainsi, toutes deux procéderaient annuellement à leur évaluation, chacune dans leur domaine, puis en rendraient compte à l’OPECST ; il s’agit là de structures permanentes, mais légères, car composées de membres certes officiellement désignés, mais bénévoles ; l’expérience montre qu’un tel dispositif est très pertinent ; il sert d’aiguillon utile.

Abordant l’analyse du fond de la stratégie, MM. Christian Bataille et Claude Birraux ont indiqué qu’elle distinguait d’un côté, les technologies établies, celles dont la primauté dans l’effort de recherche français est reconnue et garantie par la loi, à savoir l’énergie nucléaire et le pétrole, et de l’autre, les technologies nouvelles, pour lesquelles un tri officiel des priorités reste à faire.

Les technologies établies n’appellent pas de réorientations importantes, mais seulement quelques inflexions d’ajustement.

Dans le domaine de l’énergie nucléaire, ces inflexions concernent essentiellement un renforcement des instances de pilotage, dans le sens évoqué précédemment.

Pour la recherche sur la séparation / transmutation, il semble naturel de confier cette tâche de pilotage au CEA, avec la mission de veiller à ce que les recherches sur les réacteurs de quatrième génération visent bien à recycler tous les déchets à haute activité comme combustibles (neptunium, américium, curium), et pas seulement le plutonium. Pour la recherche sur l’entreposage, l’ANDRA paraît bien placée, puisqu’elle gère les dispositifs de stockage en bout de chaîne, et qu’il s’agit surtout d’éviter le risque d’une multiplication des normes techniques adoptées par les différents producteurs de déchets.

S’agissant des recherches sur le stockage, il convient que les travaux menés par l’IRSN au tunnel de Tournemire fassent l’objet d’une évaluation par la Commission nationale d’évaluation.

Dans le secteur pétrolier, les recommandations concernent deux préoccupations d’ordre général, mais d’une signification symbolique importante :

- d’abord, il faudrait que l’IFP, établissement public financé par l’État, anticipe la disparition future des hydrocarbures fossiles, en ouvrant des chantiers au long cours dans des domaines nouveaux pouvant néanmoins mobiliser utilement son incontestable expertise. Deux pistes sont suggérées : premièrement les plastiques minéraux sans carbone, concept déjà exploré par le professeur Davidovits ; deuxièmement, les plastiques photovoltaïques, pour lesquels il s’agirait d’ailleurs plutôt de coopérer à la valorisation industrielle future ;

- l’autre préoccupation concerne une meilleure visibilité sur l’allocation des moyens de recherche affectés à la recherche pétrolière. Il s’agit d’une centaine de millions d’euros, dont on perçoit souvent mal a priori la justification au vu des bénéfices de Total (14 milliards en 2008). Le rapport recommande la mise en place d’une structure sur le modèle de l’ancien « Fond spécial des hydrocarbures », qui permette de mieux montrer que ces moyens bénéficient au tissu des PME du secteur parapétrolier.

S’agissant des priorités de recherche dans les technologies nouvelles, M. Claude Birraux a constaté qu’elles résultent pour l’essentiel d’un « sentiment général » au sein de la communauté de recherche, que les rapports Chambolle, Syrota, Guillou, ont déjà validé. Cela concerne en particulier quatre pistes dont la pertinence est confirmée :

- premièrement, la recherche sur l’énergie photovoltaïque. L’INES a conquis le créneau du silicium métallurgique, mais un grand pôle consacré aux couches minces est en préparation sur le plateau de Saclay ; la filière organique (plastiques photovoltaïques), quoiqu’à un stade très amont, doit être consolidée, et bénéficier d’un support de valorisation industrielle ;

- deuxièmement, la recherche sur les biocarburants de deuxième génération. Le projet de pilote industriel de transformation thermochimique de la biomasse sur le site du laboratoire de Bure doit bénéficier d’un soutien public spécifique ;

- troisièmement, la recherche sur les batteries rechargeables. Dans la continuité du rapport « Guillou », il faut souligner l’importance de l’électronique interne de commande dans l’optimisation des performances ;

- quatrièmement, la recherche sur les énergies marines. Il faut privilégier à cet égard les zones littorales dépourvues d’autres modes centralisés de production d’électricité.

Par ailleurs, un développement du stockage d’énergie de grande capacité est essentiel pour un développement plus équilibré de l’énergie éolienne. A cet égard, le régime tarifaire du stockage d’énergie doit être revu dans un sens plus incitatif. Le rapport décrit, en outre, un dispositif d’atolls artificiels qui pourraient fournir l’équivalent, sur le littoral de la Manche, des retenues d’eau dans les Alpes. La France pourrait s’enorgueillir un jour d’avoir eu l’initiative mondiale de ce nouveau genre de stations de stockage d’énergie en mer.

Enfin, dans deux domaines, après le rattrapage rapide effectué depuis l’impulsion donnée par le rapport « Chambolle » de 2004, un réajustement de l’effort de recherche est souhaitable :

- pour la pile à combustible, il faut renforcer les études sur les usages stationnaires et portables de préférence aux usages automobiles, sachant que toute avancée peut avoir des effets de synergie sur l’ensemble des usages ;

- pour le captage et stockage du CO2, un véritable effort de coopération internationale est la meilleure façon de développer un « marché potentiel à l’export », mais il faut aussi ouvrir un chantier sur la valorisation industrielle du gaz carbonique, selon la même logique que celle prévoyant, pour les déchets radioactifs, l’axe de la transmutation à côté de celui du stockage. Le but serait notamment de fabriquer à partir du gaz carbonique des carburants de synthèse.

En conclusion, MM. Christian Bataille et Claude Birraux ont souligné que leurs réflexions sur la recherche les ont constamment ramenés vers la question connexe de la formation, à deux niveaux : la formation des ingénieurs pour la conception et le développement des systèmes ; la formation des techniciens pour l’installation et la maintenance.

Les auditions ont permis de constater que ce besoin était déjà pris en charge par les responsables concernés :

- le Haut Commissaire à l’énergie atomique a reçu mission de vérifier qu’une mobilisation « en réseau » sur le modèle de Paris Tech, incluant les universités scientifiques comme Paris 11, permettrait de faire face au surcroît de besoin d’ingénieurs liés à la dynamisation de la recherche sur l’énergie (leur nombre doit passer de 300 à 1200) ;

- le Grenelle de l’environnement a permis d’identifier le besoin quantitatif et qualitatif de compétence artisanale pour l’installation et la maintenance des équipements centrés sur l’efficacité énergétique ou les énergies renouvelables. C’est l’objet du groupe de travail spécifique sur la « mobilisation des professionnels du bâtiment » mis en place depuis mai 2008 sur recommandation du Comité opérationnel relatif aux bâtiments existants.

L’évaluation résulte ainsi d’un travail d’une année (depuis fin janvier 2008) qui a conduit à auditionner une soixantaine de spécialistes de l’énergie en France, et une cinquantaine dans trois pays visités pour leur spécificité dans le domaine de l’énergie : la Finlande, les Etats-Unis, le Japon. Le rapport comporte en annexe tous les comptes rendus.

M. Christian Bataille a souligné que le rapport retraçait une position médiane commune aux deux rapporteurs, ce qui ne préjugeait pas d’éventuelles nuances d’appréciation sur certains points. Il a notamment souligné sa préoccupation personnelle que le soutien accordé à la technologie du captage et du stockage du gaz carbonique ne conduise pas par contrecoup à une relance de la consommation d’énergie fossile en France. Il a par ailleurs estimé que si l’énergie nucléaire était un fait incontournable en France, il ne s’agissait pas d’une solution généralisable au monde entier, et qu’en France même un effort de rééquilibrage en faveur des énergies renouvelables était souhaitable. A cet égard, un tri est nécessaire entre l’ensemble des solutions technologiques disponibles, et le rapport fournit les bases d’une stratégie nationale de recherche en énergie qui doit permettre d’identifier les pistes pertinentes ; le rapport s’efforce aussi de définir les conditions d’une meilleure articulation souhaitable entre les efforts de recherche publique et privée.

M. Daniel Raoul, sénateur, a formulé deux observations sur

- l’utilisation par les rapporteurs du terme « biocarburant », en rappelant que le Sénat, lors de l’examen en première lecture du projet de loi de programme relative à la mise en œuvre du Grenelle de l’environnement, avait retenu le mot « agrocarburant » ;

- le stockage de l’énergie, en signalant que cette technologie comportait encore des aspects relevant de la recherche fondamentale puisque les pistes s’appuyant sur la supraconductivité demeuraient peu efficaces.

M. Marcel Deneux, sénateur, après avoir souligné que le texte faisant référence aux « agrocarburants » n’était pas encore voté définitivement, la dénomination officielle restant donc le terme « biocarburants », a demandé des précisions sur :

- les perspectives de développement de l’électricité pour répondre à l’accroissement de la demande d’énergie ;

- les options de recherche suggérées par les rapporteurs concernant les biocarburants de deuxième génération, en s’interrogeant sur l’opportunité de privilégier le site de Bure ;

- leur analyse sur les perspectives offertes par les biocarburants de troisième génération ;

- l’efficacité énergétique des filières existantes, afin de réduire les émissions de CO2 ;

- les perspectives de développement industriel du stockage de CO2 dont le coût paraît économiquement viable.

M. Xavier Pintat, sénateur, a évoqué le stockage d’énergie pour les automobiles électriques, en déplorant le retard français par rapport aux industriels japonais qui ont mis au point des moteurs hybrides avec succès.

Mme Marie-Christine Blandin, sénatrice, s’est déclarée favorable aux recommandations des rapporteurs relatives au pilotage de la stratégie, avec la transformation du « haut commissaire à l’énergie atomique » en « Haut commissaire à l’énergie » et la mise en place d’une « commission nationale d’évaluation » des nouvelles technologies de l’énergie.

Après avoir salué le souhait exprimé d’un rééquilibrage des efforts de recherche entre l’énergie nucléaire et les énergies renouvelables, tout en observant que la mise en œuvre de la filière nucléaire avait exigé un investissement d’une telle ampleur qu’elle avait aspiré les financements disponibles au détriment des énergies renouvelables, elle a émis des remarques sur :

- la dimension primordiale de l’effort d’efficacité énergétique ;

- la priorité donnée à l’énergie photovoltaïque, en attirant l’attention sur la nécessité de veiller à minimiser les nuisances au stade de la fabrication, ainsi que le coût total de mise en œuvre, incluant l’installation et la maintenance ;

- l’importance des pertes enligne en cas de transport d’électricité sur les grandes distances et l’intérêt d’une production locale à partir d’éoliennes ;

- la part faite aux sciences sociales dans la recherche en énergie, en soulignant leur rôle dans l’analyse des problèmes d’acceptabilité, dont elle a noté qu’ils commençaient à prendre une certaine envergure à l’encontre de constructions d’éoliennes ;

- les problèmes de droit soulevés par l’implantation d’hydroliennes sur les fonds marins ;

- le lien entre recherche et formation, en s’interrogeant sur la manière de transmettre la connaissance des pratiques de démantèlement, en s’inquiétant de l’érosion de la culture de sûreté chez les jeunes cadres de l’industrie nucléaire, et en soulignant l’impérieuse nécessité pour l’industrie française d’établir des normes de protection au bénéfice des travailleurs locaux des pays étrangers, évoquant à ce propos les mines d’uranium au Niger ;

- et l’intérêt de disposer d’un tableau faisant le bilan des soutiens publics consacrés aux différentes pistes technologiques.

M. Claude Gatignol, député, après avoir signalé qu’il était important, pour éviter les raisonnements erronés, de compléter les analyses qualitatives par un rappel des quantités susceptibles d’être produites pour répondre aux besoins, a posé des questions sur :

- la possibilité d’atteindre avec l’énergie photovoltaïque des rendements permettant d’abaisser le coût des systèmes à un niveau compatible avec leur diffusion commerciale ;

- la possibilité de lever le goulet d’étranglement lié au besoin de platine comme catalyseur pour la pile à combustible ;

- l’état des recherches sur les membranes minces pour l’isolation des bâtiments.

M. Bruno Sido, sénateur, s’est réjoui du soutien des rapporteurs au projet de démonstrateur industriel de transformation de la biomasse en carburant liquide (Biomass to Liquid - BtL) sur le site de Saudron, en Haute-Marne, dans le périmètre du laboratoire de recherche sur le stockage des déchets radioactifs de Bure, expliquant que l’enjeu de cette expérimentation était de ne pas se laisser distancer par nos voisins allemands dans un domaine où ils en sont déjà au stade du pilote industriel.

M. Christian Gaudin, sénateur, après avoir rappelé que la compétition internationale se jouait au niveau des grands ensembles continentaux, et donc au niveau européen pour la France, s’est interrogé sur le lien entre la stratégie nationale de recherche en énergie, et l’organisation de l’effort de recherche au niveau communautaire.

A la suite de ces différentes observations, les rapporteurs ont apporté les éléments de réponse suivants :

- le besoin d’une nouvelle vague d’électrification a bien été évoqué dans le rapport, celle-ci passant notamment par les progrès de l’énergie photovoltaïque pour permettre la mise au point des bâtiments à énergie positive, et le développement des véhicules électriques ;

- s’agissant du stockage d’énergie, le rapport aborde l’ensemble des questions technologiques liées à des problématiques industrielles de moyen terme : d’un côté, les batteries au lithium rechargeables, dont le potentiel n’est pas encore complètement exploité, mais n’est pas non plus illimité, ce qui justifie les travaux sur les véhicules hybrides rechargeables (« plug-in ») ; de l’autre côté, les dispositifs de stockage d’énergie de masse, comme les atolls artificiels, qui sont susceptibles de fournir une réponse adaptée à l’intermittence de l’énergie éolienne ;

- s’agissant des projets des constructeurs automobiles dans le domaine des véhicules électriques, la protection du secret industriel généralement opposée, constitue un obstacle aux pouvoirs d’investigation des rapporteurs ;

- en ce qui concerne les biocarburants, M. Claude Birraux a signalé qu’une audition publique organisée le 1er octobre 2008, et dont le compte rendu est inclus dans le rapport, a permis de faire justice des accusations relatives à l’effet d’éviction vis-à-vis des productions alimentaires, puisque les surfaces arables mobilisées restent marginales, globalement à l’échelle du monde, et spécifiquement aux Etats-Unis ou en Europe. Le rapport fait le point sur les différentes filières de deuxième génération, en soulignant l’intérêt à plusieurs titres du projet de BtL sur le périmètre de Bure. Lors de l’audition du 1er octobre, le dialogue avec un spécialiste de l’IFREMER a permis d’établir que la filière de troisième génération basée sur l’exploitation des algues n’ouvrait pas pour l’instant des perspectives de production de masse. M. Christian Bataille a ajouté que la piste technologique des algues fait partie des énergies marines que le rapport s’est attaché à mettre en valeur, car elles correspondent à un atout naturel de la France, qui dispose du deuxième domaine public maritime du monde. Si toutes les énergies marines ne sont pas forcément de bonnes idées, car elles supposent souvent une très lourde mise en œuvre, et le démonstrateur resté sans suite de l’usine marémotrice de la Rance en porte témoignage, aucune ne doit être écartée dans le cadre d’une réflexion sur une stratégie de recherche ; du reste, certains acteurs européens, les Ecossais, les Portugais, semblent avoir pris un peu d’avance dans ce domaine.

- le rôle potentiel des sciences sociales dans le domaine de la recherche en énergie a été d’emblée pris en compte, puisqu’une professeure de sociologie de l’Université de Genève a été désignée membre du comité de pilotage ;

- à propos de la technologie de captage et stockage du gaz carbonique, les rapporteurs ont rappelé leur préoccupation qu’elle ne serve pas de prétexte à une relance en France de la construction des centrales thermiques à gaz. M. Claude Birraux a rappelé que le rapport de l’OPECST de mars 2006 sur les nouvelles technologies de l’énergie et la séquestration du gaz carbonique avait évoqué la difficulté technique de la résistance des ciments ; il a insisté sur la nécessité, en tout état de cause, de lancer un programme de recherche sur la valorisation industrielle du dioxyde de carbone afin de l’utiliser à la production de carburants artificiels ou de produits chimiques. M. Christian Bataille a observé que cette technologie devrait encore faire ses preuves, mais surtout qu’elle devrait normalement bénéficier d’un soutien plus appuyé dans les pays comme l’Allemagne dépendant encore fortement des ressources fossiles pour leur approvisionnement énergétique ;

- s’agissant du lien entre la stratégie nationale et la recherche communautaire, M. Claude Birraux a indiqué que le rapport préconisait un alignement de l’effort français de recherche sur les besoins de la coopération européenne dans deux domaines : la pile à combustible, et le captage et stockage du gaz carbonique.

Au terme de la réunion, M. Christian Bataille a rappelé que l’objet de l’évaluation concernait la recherche, et que celle-ci avait pour enjeu de dégager les nouvelles solutions technologiques qui viendraient compléter les sources énergétiques déjà exploitées pour faire face aux besoins de l’avenir. Le propos n’était pas de se substituer au Gouvernement pour définir la stratégie, mais de veiller à ce que toutes les pistes pertinentes soient explorées, quitte à ce que certaines se révèlent à l’expérience comme non viables à grande échelle. L’important est que la prochaine stratégie bénéficie d’une plus grande cohérence, et ne soit pas que l’addition des programmes des organismes de recherche. Car, actuellement, sauf dans le domaine nucléaire, une stratégie nationale de recherche dans le domaine de l’énergie fait encore défaut et se résume à une juxtaposition des efforts de recherche publics et privés.

M. Claude Birraux a fait la part des circonstances électorales du moment dans l’absence d’implication du Gouvernement lors de la réalisation de la première « stratégie nationale de la recherche énergétique », et a insisté sur la nécessité d’une gestion intégrée des filières pour la réussite des nouvelles technologies de l’énergie, en soulignant le rôle crucial de la qualité de l’offre de maintenance pour assurer le succès de déploiement sur le marché.

M. Jean-Claude Etienne, sénateur, Premier vice-président, a remercié les rapporteurs pour la qualité de leur travail, qui avait bien mis en évidence l’absence de fait d’une stratégie nationale de recherche en énergie, et conduit à proposer à la fois une organisation pour pallier ce manque, avec notamment l’institution d’un Haut commissaire à l’énergie, mais aussi une structure d’évaluation de la mise en œuvre de la recherche, avec une Commission nationale d’évaluation des recherches sur les nouvelles technologies de l’énergie. Il a insisté sur l’importance du volet d’évaluation dans toute démarche scientifique.

Au terme de ce débat, les recommandations proposées par les rapporteurs ont été adoptées et la publication du rapport a été autorisée.

COMPOSITION DU COMITÉ DE PILOTAGE

Pour les accompagner dans leurs travaux d’évaluation, vos rapporteurs se sont appuyés sur un comité de pilotage composé de spécialistes venant de divers horizons, concernés à divers titres par le sujet de la recherche sur l’énergie. Ils étaient invités à participer aux auditions, et aux séances de réflexion sur les orientations de la mission.

Trois personnalités ont eu l’amabilité de participer aux travaux de lancement de la mission :

- Mme Mathilde Bourrier, Professeure ordinaire de sociologie à l'Université de Genève ;

- M. Claude Mandil, Ancien Directeur exécutif de l’Agence internationale de l’énergie ;

- M. Jean-Bernard Saulnier, Directeur du programme « Energie » du CNRS.

Cinq autres, présentées par une courte biographie dans les pages suivantes, ont participé aux travaux de la mission jusqu’à leur terme :

- M. Pierre-René Bauquis, Professeur associé à l’Ecole nationale supérieure du pétrole et des moteurs ;

- M. Claude Crampes, Professeur d’économie à l’Université de Toulouse ;

- M. Jean-Paul Langlois, Directeur de l’Institut de technico-économie des systèmes énergétiques ;

- M. Raymond Leban, Professeur d’économie au Conservatoire national des arts et métiers;

- M. Christian Ngô, Directeur scientifique au Cabinet du Haut Commissaire à l’énergie atomique.

Vos rapporteurs tiennent à les remercier tous pour leur disponibilité et la qualité de leurs apports.

Pierre-René BAUQUIS

Né en 1941, Pierre-René Bauquis est diplômé de l'Ecole Nationale Supérieure de Géologie (Nancy 1964) et de l’Ecole Nationale Supérieure du Pétrole et des Moteurs (1966) en section Economie et Gestion. Après cinq années passés à l'IFP (Institut Français du Pétrole) comme ingénieur économiste et comme enseignant, il a travaillé trente années dans le groupe TOTAL. Outre vingt années de responsabilités dans le domaine du gaz naturel, Pierre-René Bauquis a été successivement directeur Mer du Nord (1989-1992), directeur Stratégie et Planification du groupe (1992-1994), puis directeur Gaz, Electricité et Charbon (1994-1995). Il a passé les dernières années de sa carrière (de 1995 à fin 2001) comme conseiller auprès du Président du groupe TOTAL, Thierry Desmarest.

En retraite depuis janvier 2002, il est, depuis cette date, professeur associé à l’ENSPM, et professeur auprès de l'association TOTAL Professeurs Associés ; depuis janvier 2004, il est expert auprès de la commission Energie-Environnement de l’Académie des Technologies. Il enseigne l’économie énergétique dans de nombreuses écoles et universités en France et à l’étranger (Algérie, Chine, Indonésie, Russie, etc …)

Il est en outre membre de plusieurs conseils d'administration (Fondation TOTAL, Aluxia Fund, Climate and Energy Fund, OSEAD), ainsi que de nombreuses associations professionnelles ou scientifiques.

Il est l’auteur de plus de cinquante articles sur l'économie du pétrole, du gaz et de l'énergie. Il est co-auteur de deux livres sur l’économie des hydrocarbures, d’un livre sur l’énergie nucléaire, d’un livre sur les géosciences, et d’un livre sur les ondes.

Claude CRAMPES

Né en 1948, Claude Crampes, titulaire d’un doctorat en science économique, est actuellement professeur à l’Ecole d'Economie de Toulouse et directeur de recherche à l'Institut d'Economie Industrielle (Université des Sciences Sociales de Toulouse). Cet Institut se donne comme objectif de mettre à la disposition des décideurs les outils les plus pointus de la recherche économique dans divers domaines, dont l’énergie.

Les publications de Claude Crampes, très nombreuses, sont consacrées, pour une partie, à l’économie des droits de propriété intellectuelle (brevets, marques, droits d'auteur, etc.) et pour une autre partie, à l’analyse des industries du gaz et de l'électricité, marchés de l’énergie, marchés de capacités et réseaux de transport et distribution. Il rédige aussi des chroniques événementielles touchant à ces questions dans des magazines.

Il a travaillé comme consultant pour l’ancien Commissariat du Plan et pour la Banque mondiale et a été membre du Comité national de la recherche scientifique.

Jean-Paul LANGLOIS

Né en 1948, Jean-Paul Langlois, est diplômé de l’Ecole Centrale de Paris (1971). Il débute sa carrière d’ingénieur en 1972 au CEA au sein de l'équipe d'ingénierie du projet Phénix, puis du projet Superphénix.

Toute sa carrière s’est déroulée depuis au CEA. Il a été successivement ingénieur à la Direction de la planification des programmes du CEA (1976-1979), chef du Bureau d'évaluation technico-économique des procédés (retraitement et déchets) au sein de la Direction d'études sur le retraitement, les déchets et la chimie appliquée (1980-1982), conseiller technique au Cabinet de l'administrateur général du CEA (1982-1984), conseiller technique au Cabinet du Ministre de la recherche Hubert Curien (1984-1986), adjoint au Président de l'Office de robotique et de productique (1986-1988), chef du département du Budget au sein de la Direction financière du CEA (1988-1991), adjoint au directeur des réacteurs nucléaires en charge de la gestion (1991-1997), chef d’un département d’exploitation de neuf installations nucléaires de base (1998-2003), directeur Qualité Sûreté Sécurité au sein de la Direction de l’Energie Nucléaire (2003-2007).

Depuis mars 2007, il est directeur de l’Institut de Technico-Economie des Systèmes Energétiques. Cet institut (I Tésé), créé début 2007 au sein du CEA par son Administrateur général, regroupe une vingtaine de chercheurs, ingénieurs et économistes pour effectuer des comparaisons multi-critères (technico-économiques, environnementaux, sociétaux) entre systèmes énergétiques depuis la source primaire jusqu’au besoin final. L’objectif est d’éclairer l’orientation des programmes du CEA en identifiant les perspectives offertes par les différentes technologies.

Raymond LEBAN

Né en 1949, Raymond Leban est diplômé de l’ENSAE (Ecole Nationale de la Statistique et de l’Administration Economique), docteur en Mathématiques, docteur ès sciences de gestion et agrégé des facultés.

Il est professeur titulaire de la chaire d'Économie et Management de l'Entreprise au Conservatoire national des arts et métiers, où il a exercé les fonctions d’Administrateur du Pôle « économie et gestion », et créé et dirigé l'Institut International du Management de l’établissement de 1996 à 2008. Son axe de recherche principal concerne la régulation publique et le management des services en réseau (eau, électricité, gaz, services postaux et financiers) et il a une vingtaine d’années d’expérience comme expert sur ces sujets auprès d’organisations internationales et françaises : Banque Mondiale, WBCSD (World Business Council for Sustainable Development) et Conseil de la concurrence, notamment. Cette expertise et son expérience de la formation à la gestion d'entreprise l’ont conduit aussi à remplir de nombreuses missions de conseil pour de grands groupes industriels. Depuis septembre 2008, il est directeur délégué de la stratégie d’EDF.

Auteur de nombreux articles et ouvrages, il est notamment l’auteur d’un livre sur les principes et pratiques du management de l’entreprise.

Christian NGÔ

Né en 1948, Christian Ngô est ancien élève de l’école normale supérieure de Saint Cloud, agrégé de chimie et docteur ès sciences.

La première partie de sa carrière a été consacrée à la recherche fondamentale, dans le cadre de laquelle il a fait plus de 200 publications. Il a été successivement assistant, puis maître-assistant à la Faculté des sciences d'Orsay (1971-1978), physicien au Département de physique nucléaire de Saclay, responsable d'un groupe travaillant sur la physique des ions lourds (1978-1987) et physicien au Laboratoire national Saturne (1987-1991).

En 1991, il s’oriente vers le domaine de la recherche appliquée, ce qui l’a amené à prendre trois brevets ; il est chef du Service de physique électronique au Léti de 1992 à 1997.

En 1997, il occupe des postes plus fonctionnels en devenant adjoint du directeur de la stratégie et de l’évaluation du CEA, chargé de l’évaluation scientifique (1997-2000), secrétaire du Conseil scientifique du CEA (1997-2000), chef du Service des études économiques du CEA (1997-1998), conseiller de l’Administrateur général (2000) avant de revenir à des postes plus opérationnels : directeur scientifique de la Direction de la recherche technologique (2001-2002) puis directeur délégué à la prospective (2002-2003).

À partir de 2003, il a été directeur scientifique au Cabinet du Haut Commissaire à l’Énergie Atomique et délégué général d’ECRIN (« échange et coordination recherche-industrie »). Il a quitté le CEA en 2008 pour créer la SARL Edmonium Conseil.

Il est auteur ou coauteur de nombreux ouvrages dont « Physique quantique », « Physique statistique », « Physique des semi-conducteurs », « L’énergie », « Déchets et pollutions », « Le Soleil », « Quelles énergies pour demain », « L’hydrogène ». Actuellement 2 livres sont sous presse : « Our Energy Future » et « Demain, l’énergie ».

ANNEXES

document 1  - PROJET DE POLE DE RECHERCHE DU CAMPUS DE SACLAY

Projet de Pôle Climat-Environnement-Énergie (PCEE)
du campus de Saclay

Présentation et mise en œuvre

1. Le cadre mondial et européen

L'évolution de la teneur de l'atmosphère en gaz à effet de serre envisagée dans les vingt ans à venir devrait avoir des répercussions climatiques dont les chercheurs déterminent de plus en plus précisément les contours. Les populations mondiales et leurs gouvernements seront conduits à rechercher les stratégies d'adaptation les plus appropriées, en particulier dans les domaines essentiels de l'énergie et de l'environnement. Le changement climatique, sous tous ses aspects, apparaît donc comme un élément déterminant des géopolitiques à venir.

En parallèle, l'énergie devient un élément capital de la politique internationale, lié à l'évolution de l'atmosphère et à l'utilisation d'une ressource fossile qui se raréfie. Cette évolution a conduit très récemment l'Union européenne à définir pour la première fois un Plan stratégique commun pour les énergies peu émettrices de gaz à effet de serre (SET Plan), à participer de façon importante au projet de recherche à moyen terme sur la fusion (Iter) et à construire une Alliance entre dix États membres destinée à renforcer la R&D conjointe sur l'énergie.

Dans le même temps, l'Institut Européen d'innovation et de Technologie (IET) s'apprête à lancer un appel à projets pour la création des premières communautés de la connaissance et de l'innovation, dont deux thèmes prioritaires sont le changement climatique et l'énergie durable. Les grands clusters territoriaux de recherche, d'enseignement supérieur et d'innovation, dont l'IET favorisera la mise en réseau, seront des sources de connaissances indispensables aux décideurs publics et privés.

C'est dans ce cadre mondial et européen que se place l'ambition de créer un Pôle scientifique et technologique dédié au Climat, à l'Environnement et à l'Énergie (PCEE), porté par 14 établissements publics60 sur les 21 signataires du projet de Campus de Saclay. Le présent document précise donc les défis scientifiques, fondés sur les enjeux sociétaux, que les partenaires du PCEE souhaitent relever, ainsi que les modalités qu'ils envisagent pour sa mise en œuvre.

2. L'ambition du Pôle Climat-Environnement-Énergie

2.1 Stimuler le développement scientifique et l'innovation

Les établissements publics signataires du projet de Campus de Saclay ont exprimé l'ambition de construire un Pôle Climat-Environnement-Énergie (PCEE) fondé sur l'excellence de ses équipes de recherche fondamentale et de ses plateformes technologiques et sur des échanges féconds entre les trois piliers du triangle de la connaissance : la recherche, la formation et l'innovation. Le PCEE est construit dans l’esprit et en lien avec les priorités de l’Institut Européen de Technologie (IET).

Le rôle du PCEE est de créer, en complément des structures et des coopérations existantes, les conditions du développement scientifique du Plateau au meilleur niveau mondial sur ces thématiques, en construisant une démarche d'irrigation de la recherche finalisée par des innovations scientifiques de la recherche fondamentale, de mutualisation des compétences et des équipements scientifiques, et d'encouragement du croisement et de la créativité interdisciplinaires.

Dans cette perspective, les partenaires concernés du Plateau ont engagé une réflexion collective pour dessiner, à partir d'un état des lieux de leurs activités, des axes de convergence sur le climat et l'environnement et sur l'énergie, et construire une offre attractive et cohérente de recherche, de formation et d'innovation qui contribuera à relever les grands défis sociétaux.

L'ambition des partenaires du PCEE est de développer cette offre dans le cadre d'un système de relations et d'échanges plus stratégiques avec les entreprises, incluant en particulier un lieu de partage de la réflexion prospective sur les évolutions de la société, de la science, de la technologie et de la demande économique, afin de faire apparaître les signaux émergents et prioriser les actions. Il s'agit donc aussi de stimuler, à travers des projets collaboratifs innovants, le développement d'un ensemble interdisciplinaire d'excellence adapté à la demande des entreprises.

Les grands industriels du secteur de l'énergie sont en cours de consultation sur cette démarche du PCEE et certains61 ont déjà exprimé leur intérêt pour cette initiative qui vise à renforcer la collaboration entre les organismes de recherche publique, les écoles d'ingénieurs, les universités et les entreprises. Une consultation similaire a été engagée auprès des collectivités locales. Certaines ont déjà manifesté leur intérêt pour la démarche du PCEE. De même, l'Agence Nationale de la Recherche, l'ADEME et les deux Ministères concernés (développement durable, recherche) ont été contactés.

2.2 Construire deux Clusters thématiques partenaires

Les partenaires du PCEE ont mis en place deux groupes de travail (GT), l'un sur le climat et l'environnement, l'autre sur l'énergie, chargés de construire leur propre programme de travail, avec de fréquents échanges visant à créer un nouveau partenariat interdisciplinaire. Le GT Énergie construit un Cluster Énergie Bas Carbone, en lien avec les travaux sur le climat et l'environnement. Le GT Climat-Environnement développe un Cluster Climat-Environnement dont un aboutissement sociétal est la réponse aux questions environnementales liées à l’énergie, mais aussi la création de services climatiques et environnementaux.

Les acteurs académiques du climat et de l’énergie ont pour objectif commun de proposer une analyse et des solutions pour l’adaptation et la remédiation aux changements globaux dont les impacts sur la société peuvent devenir insupportables. Dans ce cadre, la communauté de l'énergie développe de nouvelles technologies et élabore des stratégies énergétiques adaptées. La communauté du climat et de l'environnement s'emploie à comprendre et prévoir la réponse des systèmes naturels et socio-économiques aux changements globaux, liés notamment aux stratégies énergétiques, et à apporter une aide à la décision publique et des solutions de remédiation.

Les partenaires du PCEE ont donc initié des actions pour susciter de nouveaux projets communs et construire un programme collaboratif intégré innovant, sous la forme d'un partenariat public-privé, tout en développant et mettant à profit les complémentarités avec les pôles de compétitivité concernés (Advancity, Moveo, System@tic…).

3. Les grands défis scientifiques à relever

3.1 Le Cluster Énergie Bas Carbone

Le Cluster Énergie Bas Carbone représente le volet "Énergie" du PCEE. Sa dénomination résulte du haut potentiel scientifique du Plateau mobilisable sur les nouvelles technologies de l'énergie, les énergies renouvelables et l'énergie nucléaire, en cohérence avec les politiques publiques de lutte contre le changement climatique (cf. § 1).

Le Cluster se propose de tirer le meilleur parti de l’exceptionnel potentiel de recherche fondamentale des partenaires du Plateau pour constituer et renforcer un socle d'innovations de ruptures scientifique et technologique. Il a aussi pour but de valoriser, à terme, une Recherche et Développement en ingénierie, sans équivalent en Europe, après l'arrivée sur le Plateau des écoles d’ingénieur et des industriels qui ont indiqué leur volonté de s’y implanter.

Le Cluster regroupe ces deux grandes forces selon cinq grands axes thématiques, en concertation avec les industriels de l'énergie et avec le renfort des formations de haut niveau. Cette vision prospective est résumée dans le schéma 1 à la fin, où apparaissent les établissements publics mobilisés pour construire le Cluster et les industriels ayant manifesté leur intérêt pour y contribuer. Le Campus de Saclay représente près de 2000 personnes mobilisables sur la thématique de l'énergie, dont la moitié liée au domaine nucléaire.

Les cinq axes thématiques visent à relever de grands défis scientifiques et technologiques en partenariat avec l'industrie, en s'appuyant sur un socle renforcé de recherche amont :

- L'axe "Systèmes et réseaux d'énergie" contribuera à la R&D sur les réseaux intelligents du futur, la convergence entre les transports et l'habitat (via les batteries des véhicules électriques), les systèmes d'énergie embarquée propres et sûrs…

- L'axe "Efficacité énergétique" sera consacré à la R&D sur les bâtiments à basse consommation d'énergie et à énergie positive, notamment par l'intégration de solutions énergétiques efficaces et des énergies renouvelables, l'élaboration de matériaux performants (composants, enveloppes, inertie), ainsi qu'à l'innovation technologique dans l'optimisation énergétique et fonctionnelle des procédés industriels.

- L'axe "Énergie solaire photovoltaïque" développera des filières innovantes de couches minces, depuis l'élaboration des matériaux jusqu'à la ligne pilote de production industrielle de systèmes photovoltaïques, en incluant notamment la R&D sur les cellules à hauts rendements, les matériaux organiques, les cellules hybrides…

- L'axe "Décarbonisation des combustibles" sera dédié à la R&D sur les carburants synthétiques, notamment d'origine solaire obtenus par photoréduction du CO2, sur le captage, la purification, le stockage et la gestion du CO2, les biocarburants de 3ème génération, la production et la sûreté de l'hydrogène...

- L'axe "Énergie nucléaire" mobilisera les compétences en mécanique, matériaux et simulation numérique et expérimentale pour contribuer à l'innovation dans les réacteurs nucléaires et à la mise en œuvre du nucléaire durable (4ème génération, fusion), notamment en termes de sûreté de fonctionnement, d'économie des ressources et de recyclage des déchets.

En amont de ces cinq axes thématiques de recherche finalisée, au-delà de l'approche par filière technologique, la recherche fondamentale permet de développer une autre approche, plus cognitive, portant sur les questions scientifiques fondamentales liées à l'énergie. Les grands défis à relever dans le domaine de l'énergie portent notamment sur la maîtrise de la matière jusqu'au niveau quantique (à l'aide des nanosciences), le développement de procédés bio-inspirés ou photo-assistés, la compréhension des systèmes hors équilibre thermodynamique ou de nature complexe, les sciences des matériaux et la simulation multi-physique et multi-échelle.

Deux exemples précurseurs de ces recherches conduisant à des applications industrielles sont déjà identifiés sur le Plateau. Ils font l'objet de projets ambitieux en partenariat avec l'industrie, l'un sur le développement de systèmes photovoltaïques à partir de couches minces de silicium, l'autre sur le développement de carburants solaires par photoréduction du CO2. Un partenariat sur le véhicule électrique avec le pôle de compétitivité Moveo est également envisageable dans cet esprit.

Le Cluster tirera aussi sa force de son intégration dans la dynamique de constitution du PCEE, permettant ainsi le croisement de la thématique de l'énergie avec celles du climat et de l'environnement. Dans cette perspective, l'évaluation technico-économique et sociétale des politiques et systèmes énergétiques occupera une position centrale dans le Cluster.

Le Cluster fédérera également des cursus de formation supérieure remodelés qui s'approprieront cette nouvelle approche de l’énergie, plus intégrative et plus riche en opportunités d'échanges entre les établissements partenaires. Certaines spécialités de masters se développent déjà dans ce sens, par exemple sur les matériaux pour les structures et l'énergie, sur les systèmes d'énergie électrique et sur l'économie du développement durable, de l'environnement et de l'énergie.

Mais le nucléaire montre aussi l'exemple avec le développement de la formation supérieure internationale en Énergie Nucléaire et, par la suite, en ingénierie des nouvelles technologies de l'énergie, fortement soutenu par les grands industriels du secteur (Areva, EDF, GDF Suez), dans le cadre de la création de l'Institut International de l'Énergie de Paris (IIEP).

3.2 Le Cluster Climat-Environnement

Le défi principal du Cluster Climat-Environnement sera de proposer une approche interdisciplinaire intégrée combinant la connaissance des milieux naturels et de leur évolution sous la pression de l’homme, afin d'évaluer les stratégies énergétiques et les politiques publiques sous l'angle climatique et environnemental, et de proposer des solutions novatrices. Le regroupement d’équipes de recherche d’excellence et de formations de haut niveau sur le Campus de Saclay offre une opportunité unique de coordonner les compétences du Sud Francilien en sciences des milieux naturels, sciences des systèmes et sciences de l'homme, pour permettre à la France d’occuper une place reconnue internationalement dans ces domaines.

Avec la force de la recherche fondamentale en présence, sa forte implantation dans les programmes de recherche internationaux (GIEC, FP7…) et en lien de plus en plus étroit avec le monde économique, le Cluster a l’ambition d’offrir :

- Un pôle interdisciplinaire de recherche et d’expertise de haut niveau pour l’aide à la définition de politiques publiques et l’aide à l’analyse stratégique pour les industriels, les assurances, les collectivités et l’État.

- Une offre de formation interdisciplinaire intégrée sur le climat et l’environnement, lisible pour les industriels et les étudiants, pour former les générations futures de techniciens, d’ingénieurs, de docteurs et de décideurs.

- Un ensemble de services environnementaux adossés à des plateformes technologiques et instrumentales et à des systèmes d’observation, de surveillance et de prévision du climat et de l’environnement, dans l’esprit du programme européen GMES.

- Un potentiel de développement de nouvelles technologies et de procédés répondant aux enjeux environnementaux.

Le Campus de Saclay concerne donc 1200 personnes permanentes en recherche sur le climat et l’environnement, dont environ 900 seront regroupés sur la partie "Triangle Sud", ce qui constitue une masse critique de recherche unique en Europe sur le climat et l’environnement.

Le regroupement des équipes de recherche dans un périmètre restreint permettra le développement et l’utilisation rationnelle d’infrastructures scientifiques mutualisées : observatoires pour développer les services de données climatiques et environnementales, grands modèles permettant d’évaluer les effets des politiques publiques et stratégies économiques sur le climat et l’environnement futurs, plateformes instrumentales mutualisées de pointe permettant la recherche fondamentale, la formation des étudiants et la valorisation.

Cette vision prospective de la recherche fondamentale renforcée au profit de l'innovation dans les services et les technologies est résumée dans le schéma 2 à la fin, où apparaissent les établissements publics mobilisés pour construire le Cluster Climat-Environnement.

Le Cluster procurera également une offre rationnelle lisible et efficace de formation, avec un double objectif de former les étudiants aux thématiques complexes et pluridisciplinaires du climat et de l’environnement et de les guider vers des compétences et des métiers identifiés innovants, en s'appuyant sur le tissu dense de laboratoires de recherche et d’entreprises du Plateau. Deux grands masters (Environnement et Développement Durable et Sciences et Technologies du Vivant et de l’Environnement) constitueront la base des formations, en plus des formations doctorales.

L’ensemble interdisciplinaire de formation supérieure sur le climat et l’environnement ainsi proposé sur le Plateau, autour des deux masters, des écoles d’ingénieurs et des cinq axes de développement ci-dessus, sera unique en France et parmi les plus importants en Europe.

Les défis scientifiques seront notamment :

- La caractérisation et la projection du changement climatique et de ses impacts sur l’économie, les écosystèmes, la biodiversité, les ressources, la demande et la production énergétique, notamment via les événements extrêmes qui seront engendrés.

- La caractérisation des cycles du carbone et de l’azote et leur gestion climatique et environnementale dans un cadre économique contraint.

- L’évaluation environnementale intégrée de la gestion des territoires et de l’usage des sols.

- L’évaluation environnementale intégrée des pollutions par l’industrie, les transports, et de l’apport des éco-technologies.

Ces défis sociétaux nécessitent une interaction étroite avec l’étude fondamentale du comportement du climat et de l’environnement, par l’étude de leur comportement naturel, de leur sensibilité aux actions de l’homme, de l’économie du développement et des procédés "propres".

4. Le partenariat envisagé avec les industriels

4.1 Une innovation technologique stimulée

Les deux GT Énergie et Climat-Environnement travaillent à construire leurs visions scientifiques prospectives et les traduire en nouveaux projets innovants portant sur l'enseignement supérieur, la recherche fondamentale et la recherche plus finalisée, par axe thématique et aux interfaces entre le socle de recherche fondamentale et les axes thématiques, et entre les axes thématiques.

Le PCEE stimulera donc, à travers ses deux Clusters, sans se substituer aux coopérations existantes, le développement de :

- La recherche fondamentale, la mutualisation des équipements scientifiques, le croisement et la créativité interdisciplinaires, au profit de l'innovation scientifique.

- L'innovation technologique ou dans les services, en s'appuyant sur le potentiel de recherche fondamentale.

- La formation supérieure interdisciplinaire intégrée sur le Plateau.

4.2 Une gouvernance du PCEE partagée

Les partenaires du PCEE ont engagé une réflexion collective sur la gouvernance du PCEE, son modèle d'innovation ouverte et la valorisation de ses résultats de recherche. A ce stade, ils souhaitent instaurer un partenariat de moyen terme équilibré en amont entre le savoir-faire industriel et le savoir de la recherche académique, afin de concevoir des innovations de rupture scientifique dans des contextes industriels concrets.

Ils se placent ainsi dans une logique de développement de la recherche publique amont cohérente avec la demande des entreprises, jusqu'à un investissement conjoint dans la recherche publique et la recherche interne privée, avec une ouverture internationale. Ils visent à partager la gouvernance du PCEE avec les industriels.

Le PCEE ne devrait donc s'apparenter ni à un pôle de compétitivité, qui vise les applications de marchés et n'inclut pas la recherche fondamentale, ni vraiment à un réseau thématique de recherche avancé (RTRA), qui regroupe des équipes de la recherche publique, mais parfois seulement en association avec des entreprises.

Son ambition est d'atteindre une taille critique mobilisable sur un programme comparable aux meilleurs programmes mondiaux, comme par exemple, pour l'énergie, le "Global Climate & Energy Project" de l'université de Stanford (225 M$ sur 10 ans), entièrement financé par l'industrie.

5. Deux nouveaux ensembles immobiliers au service du PCEE

La force du couplage entre les Clusters "Climat-Environnement" et "Énergie Bas Carbone" sera naturellement de proposer une approche intégrée des stratégies énergétiques et de leurs conséquences climatiques et environnementales.

Un centre d'excellence emblématique du Pôle Climat-Environnement-Énergie sera construit sur le site CEA de l'Orme des Merisiers. Cet ensemble immobilier, conçu et exploité de façon exemplaire sur le plan du développement durable, regroupera principalement les équipes du Laboratoire des Sciences du Climat et de l'Environnement (LSCE : UMR CNRS, CEA, UVSQ), soit environ 350 personnes, ainsi que d'autres équipes, de tailles plus réduites, notamment du climat, de l'environnement et de l'énergie, issues d'établissements du Plateau.

En complément, un deuxième centre d'excellence apportera une contribution majeure au développement du PCEE sur le Plateau. Un "Pôle international de Mécanique, Matériaux et Procédés pour l'énergie" sera ainsi formé par le regroupement, sur le site de Palaiseau, du Centre des Matériaux et des équipes franciliennes du Centre Energétique et Procédés de Mines ParisTech. Dans une première phase, il fédérera également des laboratoires thématiquement proches de l’ENSTA ParisTech, de l'Ecole Polytechnique, ainsi que les départements des matériaux et de mécanique de l’ONERA (total de 480 personnes). Dans une deuxième phase, il pourra accueillir le centre de Géosciences de Mines ParisTech.

Schéma 1 : VISION CLUSTER ÉNERGIE BAS CARBONE


Schéma 2 : VISION CLUSTER CLIMAT-ENVIRONNEMENT

document 2  - STOCKAGE D’ÉNERGIE EN MER : UN EXEMPLE CHIFFRÉ

La présente note complète l’argumentation à l’appui du stockage d’énergie en mer en précisant sur un exemple, situé par hypothèse dans la zone du pays de Caux, les données physiques, les ouvrages nécessaires, leur impact et leur coût.

1. Hypothèses d’aménagement

Il s’agirait d’un stockage de 160 GWh pour une puissance de 5 GW. Ce stockage serait constitué par un bassin de 5,5 km de diamètre, adossé à la falaise sur 3 km : le niveau maximum du réservoir, proche de la crête de la falaise, est 90 m au-dessus du niveau moyen de la mer.

Son exploitation (entre 50 et 90 m de charge sous 70 m de charge moyenne, avec un rendement de 0,9) permet de stocker une énergie (en GWh par km²) égale à :

106 × 40 × 70 × g × 0,9

= # 7 GWh

3.600 × 106

Soit 160 GWh pour une surface de 23 km².

L’aménagement comprendrait trois parties :

• Le brise lames, à une centaine de mètres à l’extérieur du pied de la digue principale, d’une longueur totale de 15 km, arasé au niveau des plus hautes mers, limitant ainsi la protection de la digue elle-même à des vagues intérieures faibles et exceptionnelles.

Sur les 10 km où la profondeur est voisine de 20 m sous les basses mers le brise lames, pour des raisons de délai, peut être réalisé par des caissons en béton armé (analogues aux caissons récents de Tanger ou à la jetée de Dieppe). Les caissons peuvent être préfabriqués, par exemple au Havre, à Dieppe ou à Dunkerque.

Les amorces peuvent être réalisées sur le modèle de la digue d’Antifer (port pétrolier du Havre).

Le délai de construction du brise lames est de l’ordre de 3 ans.

• La digue principale du bassin atteindrait 120 m de hauteur maximale et 115 m en moyenne (dont 25 m sous le niveau des hautes mers).

La fondation est en matériaux sablo-graveleux sur un fonds rocheux (craie). L’essentiel de la digue peut être constitué de matériaux sablo-graveleux dragués au large de l’aménagement. Il existe dans le monde 10 barrages en sablo-graveleux à étanchéité amont d’une telle hauteur. 10 autres sont en construction et 10 en projet. Une pente amont de 1,5/1, une pente aval de 2/1 en moyenne sont probables. Dans le cas présent, l’étanchéité amont peut se faire en revêtement flexible pour la partie à sec, en paroi moulée sous l’eau. Le parement extérieur de la digue peut être revêtu en terre végétale et arboré pour des raisons d’environnement.

Le délai d’exécution de la digue peut être de 4 ans, commençant 6 mois avant l’achèvement du brise lames.

• L’usine comportant 25 à 30 groupes de 150 à 200 MW aurait une longueur de 700 m environ. Le barrage de prise d’eau, de profil classique est constitué en grande partie de béton compacté au rouleau à base de sablo-graveleux dragué, donc à faible coût. L’usine et les groupes sont classiques. Tous ces ouvrages sont au voisinage de la falaise et fondés au rocher à l’intérieur d’un batardeau de faible hauteur.

Le matériel électromécanique peut être amené par mer en très gros éléments, ce qui devrait réduire les coûts. L’usine peut être implantée près de la falaise soit à l’Est du bassin, soit à l’Ouest.

Un délai total de 6,5 ans pour la mise en eau est probable, avec mise en service progressive des groupes de pompage entre 6,5 et 8 ans.

2. Calcul du coût

a) Brise lames et digue

Le prix du brise lames de Tanger, exposé à des houles plus fortes, est nettement inférieur à 50 millions d’euros par km pour une longueur beaucoup plus courte. Un coût moyen de 50 millions d’euros par km parait ici conservatif.

Le coût principal de la digue, d’une longueur totale de 13 km est constitué par le remblai, d’un volume total de 13.000×21.000 # 275 millions de m3 (voir coupe p. 78). On peut utiliser quelques millions de m3 de craie, mais l’essentiel serait du matériau sablo-graveleux dragué en moyenne à 5 ou 10 km. La partie basse de la digue pour la moitié du volume pourra être mise en place par dragues, la moitié supérieure nécessitant une reprise terrestre, probablement par bande transporteuse. Le coût probable serait de 3 euros pour la partie basse et de 6 euros pour la partie haute ; on admet un prix moyen de 5 euros.

Le revêtement étanche réalisé à sec est de 150×13.000 = 2 millions de m² à 100 euros/m².

L’étanchéité sous l’eau est assurée par 40 m×13.000 = 0,5 millions m² de paroi moulée à 300 euros/m².

Le revêtement extérieur est de 2 millions de m² (terre végétale et arbres) de l’ordre de 50 euros/m².

Brise lames

15 km x 50

=

750

 

Remblais de digue

275 millions x 5

=

1.375

 

Revêtement

2 x 100

=

200

 
 

0,5 x 300

=

150

 
 

2 x 50

=

100

 
     

2.575

millions d’euros

b) Usine

Prise d’eau

3 x 100

=

300

 

Génie civil usine

0,75 x 800

=

600

 

Batardeau et terrassement

100

=

100

 

Electromécanique

5 x 400

=

2.000

 
     

3.000

millions d’euros

Le prix de l’usine comprend le génie civil :

- 3 millions de m3 de barrage prise d’eau en béton à 100 euros/m3 ;

- 0,15 m3/KW x 5 x 106 = 750.000 m3 de béton pour l’usine à 800 euros/m;

- 100 millions d’euros de batardeau et de terrassement.

Le matériel électromécanique estimé à 400 euros/kW. Ce prix parait conservatif pour une série de 25 ou 30 groupes sous 70 m de hauteur moyenne. A titre de comparaison, le prix récent du matériel pour 3,3 GW au Brésil sous une charge de 15 m est de 300 euros/kW. Le coût est plus faible pour une charge plus forte mais il faut ici tenir compte du pompage.

COÛT TOTAL DE L’AMÉNAGEMENT

Brise lame et digues

2.575

Usine

3.000

 

5.575

Soit environ 6 milliards d’euros pour 5 GW, soit 1.200 €/kW, coût du même ordre que pour les aménagements mondiaux récents de pompage entre deux lacs.

VUE DE DESSUS D’UN ATOLL DE STOCKAGE



Visites de locaux de recherche

Personnalités rencontrées

Usine marémotrice de La Rance, le 17 septembre 2008

M. Yves Bamberger, Directeur de la R&D d’EDF

M. Bernard Mahiou, Directeur délégué à la coordination de l’eau et au développement, EDF

M. Cyrille Perier, Directeur du groupe d’exploitation hydraulique Ouest, EDF

Centre de l’IFP à Lyon, le 4 décembre 2008

M. Olivier Appert, président de l’IFP

M. Georges Picard, directeur général adjoint de l’IFP

M. Pierre-Henri Bigeard, directeur du centre de Lyon de l’IFP

Mme Sophie Jullian, directeur du développement du centre de l’IFP à Lyon

Laboratoire d’EDF des Renardières, le 15 janvier 2009

M. Yves Bamberger, Directeur de la R&D d’EDF

M. Jacques Oddou, Directeur du programme « Commerce et énergies renouvelables », EDF

M. Eric Plantive, Responsable du département « EnerBAT », EDF

M. Bernard Declerck, Chef du département « Eco-efficacité et Procédés Industriel », EDF

Auditions individuelles

Personnalités auditionnées

30 janvier 2008

M. Thierry Chambolle, Membre de l’Académie des technologies

Mme Marion Guillou, Présidente de l’INRA

27 mars 2008

M. Dominique Goutte, Directeur du secteur « Energie » au ministère de la Recherche (DGRI)

M. Eric Lemaître, Chargé de mission sur les « nouvelles technologies de l’énergie » à la DGRI

10 avril 2008

M. Raymond Leban, Professeur au CNAM

M. François Perdrizet, Président du PREBAT

M. Jean-Paul Fideli, Secrétaire permanent du PREBAT

17 avril 2008

M. Pierre René Bauquis, Professeur associé à l’ Ecole nationale supérieure du pétrole et des moteurs

M. Bernard Duhem, Secrétaire général du PREDIT

15 mai 2008

M. Jean Marie Chevalier, Professeur d’économie à l’Université Paris Dauphine

M. Pierre-Marie Abadie, Directeur de l’énergie

M. Cyrille Vincent, Sous-directeur de l’industrie nucléaire

29 mai 2008

M. François Moisan, Directeur de la stratégie et de la recherche de l’ADEME

M. Yves Bamberger, Directeur de la R&D d'EDF

MM. Jean-Paul Tissot, Henri Sureau, Michel Boin, Bernard Salles, Experts de l'Institut « Energie et Développement »

5 juin 2008

M. Olivier Appert, Président de l’IFP

M. Georges Picard, Directeur général adjoint

M. Alain Bucaille, Directeur de la R&D d'Areva

M. Didier Beutier, Vice-président d’Areva en charge de la stratégie

M. Didier Mosconi, Directeur Stratégie & Développement de Total

M. Christophe CEVASCO, Chargé des relations publiques de Total

12 juin 2008

M. François Lempérière, Ancien Président du comité français des grands barrages

19 juin 2008

M. Alain Bugat, Administrateur général du CEA

M. Jean-Louis Beffa, Président de Saint-Gobain

9 juillet 2008

Mme Michèle Pappalardo, Commissaire générale au développement durable

10 juillet 2008

M. Dominique Maillard, Président de RTE

M. Bernard Bigot, Haut Commissaire à l’énergie atomique

M. Didier Roux, Directeur R&D de Saint-Gobain

18 septembre 2008

M. Paris Mouratoglou, Président d’EDF-Energies nouvelles

20 novembre 2008

Mme Anne de Guibert, Directeur de la recherche de Saft

16 décembre 2008

M. Jean Therme, Directeur du CEA-Grenoble

Compte rendu des auditions

- premièrement, prendre un contact leur permettant de se faire une première idée d’ensemble du sujet de la recherche en énergie. Pour ce faire, ils ont auditionné M. Thierry Chambolle, auteur du rapport de juin 2004 proposant un programme de recherche en matière de nouvelles technologies, et fort bien placé, de ce fait, pour apprécier la cohérence de la stratégie nationale définie par le rapport de mai 2007 ;

- deuxièmement, prendre l’attache de Mme Marion Guillou, Présidente de l’INRA, du comité opérationnel du Grenelle de l’environnement devant prendre en compte les problèmes de la recherche. MM. Claude Birraux et Christian Bataille souhaitaient discuter avec elle des moyens de coordonner au mieux la démarche du comité opérationnel avec la leur.

L’entretien avec M. Thierry Chambolle a conduit à discuter du déficit méthodologique du rapport de mai 2007, qui n’appuie la stratégie décrite sur aucun effort de justification des priorités indiquées, à la différence du rapport de juin 2004. M. Thierry Chambolle a indiqué qu’il avait été amené à reprendre un effort de modélisation dans le cadre du rapport du Conseil d’analyse stratégique de septembre 2007 de M. Jean Syrota sur les perspectives énergétiques de la France, mais sans avoir eu vraiment le temps de conduire un travail totalement satisfaisant. Il a été récemment sollicité par le ministère de la recherche pour rédiger une actualisation de son rapport de juin 2004, mais a décliné l’offre, estimant que seule une refonte complète était possible.

M. Thierry Chambolle a mis en avant trois enjeux importants concernant l’élaboration d’une stratégie :

- s’agissant de la gouvernance de la recherche, la difficulté de piloter de façon cohérente l’offre de recherche, du fait d’une part de la relative dispersion des décideurs ministériels ayant en principe un pouvoir à cet égard, et d’autre part, de l’autonomie de fait très importante des grands organismes de recherche quant à la définition de leurs propres orientations stratégiques ;

- s’agissant de la participation du secteur privé au financement de la recherche, l’effet déclencheur de l’imminence d’une possibilité de commercialisation, ce qui rend crucial, dans le travail de programmation, l’estimation de la maturité des technologies, et leur classement en fonction des échéances temporelles prévisibles d’aboutissement au stade de l’industrialisation ;

- s’agissant de l’allocation des crédits publics à la recherche, le dilemme créé par la participation à des programmes européens ou internationaux, puisqu’en théorie cette participation devrait limiter la quote-part française à ce qui est juste nécessaire à la maturation internationale de la technologie concernée mais, en pratique, le risque que son émergence industrielle se fasse finalement ailleurs qu’en France pousse à développer en marge, et en plus, un effort national propre.

Sur ce dernier point, MM. Birraux et Bataille ont souligné d’une part lé nécessité de prendre en compte l’impact final en emplois potentiels dans l’estimation de la bonne utilisation des crédits publics à la recherche, et d’autre part, le besoin de réactiver la démarche intergouvernementale Eureka, lancée en 1985, puisque celle-ci conduit à combiner d’emblée le besoin d’avancer dans une technologie avec le besoin d’en répartir équitablement les retombées économiques entre les pays participants. L’objectif serait d’organiser les projets Eureka de manière à ce que les soutiens financiers communautaires (en provenance du PCRD) soient gérés en bloc et redistribués par les pays leader des projets, pour éviter les retards et les incertitudes liés à des attributions de financement européen pays par pays. (cf. p.70 du rapport Chambolle).

L’entretien avec Mme Marion Guillou a permis de bien préciser les contours du comité opérationnel qu’elle préside :

- dans le temps, le comité doit remettre ses conclusions définitives fin juin 2008. Celles-ci doivent prévoir des allocations de crédits répartissant le milliard d’euros sur quatre ans promis par le Président de la République à la recherche sur l’énergie et l’environnement. Un rapport d’étape de mars doit proposer des axes de priorité financière pour le budget 2009. Un rapport d’étape méthodologique de trois pages a été remis fin janvier ;

- - sur le champ couvert, le comité s’en tiendra strictement, conformément à sa lettre de mission, à la « déclinaison opérationnelle des conclusions du Grenelle en matière de recherche ». Il a entrepris un travail de balayage de ces conclusions pour repérer les thèmes de recherche qui en ressortent. A partir de là, les cinq groupes de travail qu’il a constitués en son sein vont élaborer leurs propositions de stratégie nationale d’une manière totalement indépendante, en s’appuyant sur la compétence et l’expérience de leurs membres, et sur les informations recueillies à travers les auditions qu’ils organisent et les contributions écrites qu’ils reçoivent.

Mme Marion Guillou a signalé qu’elle avait voulu que chaque groupe de travail fût présidé par une personne au profil décalé par rapport au domaine concerné, à l’inverse des membres, tous éminemment compétents au fond, de manière à minimiser le risque de biais méthodologique.

Elle s’est déclarée très ouverte à une diffusion d’information sur l’avancée des travaux du comité opérationnel au profit de l’OPECST. Deux membres de l’OPECST font partie ès qualité du comité opérationnel, M. Henri Revol et M. Jean-Yves Le Déaut, ce dernier étant justement membre du groupe de travail chargé des thèmes de recherche relevant du domaine de l’énergie, et pouvant donc assurer la liaison avec MM. Birraux et Bataille.

MM. Birraux et Bataille ont noté que leur mission couvrait un champ différent de celui du comité opérationnel, puisqu’elle s’appuyait sur la loi de juillet 2005 fixant les orientations de la politique énergétique, et plus généralement sur la mission d’information du Parlement qui est confiée à l’OPECST par la loi du 8 juillet 1983. Ils en ont déduit qu’il serait utile que leur rapport intègre une évaluation des travaux du comité opérationnel, et des prescriptions qu’en retiendrait le Gouvernement.

M. Claude Birraux a accueilli les membres du comité de pilotage en rappelant ce que vos rapporteurs attendaient d’eux à savoir, les aider à porter leurs efforts d’investigation dans la bonne direction, et à assurer la crédibilité de leur travail, en détectant des erreurs ou des omissions importantes, cela au moment de la phase de finalisation du rapport, mais aussi au cours de la phase d’investigation. Il a insisté sur le fait qu’ils devaient se sentir libres d’apporter toute contribution qu’ils jugeront utile.

Il a indiqué qu’ils seraient systématiquement conviés aux prochaines auditions, leur présence étant considérée comme un atout s’ils peuvent se libérer. D’ores et déjà, les prochaines auditions fixées concernent, le 17 avril, M. Pierre René Bauquis, membre du comité de pilotage n’ayant pu participer à la réunion de lancement, et le 15 mai matin, MM. Jean-Marie Chevalier, Professeur à l’Université Dauphine et Yves Bamberger, Directeur de la R&D d'EDF.

Après un rapide tour de table permettant à chacun de se présenter, M. Christian Bataille a ouvert un débat de réflexion sur les orientations de la mission d’évaluation, en s’appuyant sur un fil directeur d’analyse transmis auparavant. Il a préconisé de regrouper les échanges autour de trois angles d’analyse successifs, allant de la forme de la « stratégie nationale » à son fond :

1°) Sur les caractéristiques formelles de la « stratégie nationale » de mai 2007,

2°) Sur la manière, en général, dont on peut justifier les choix d’une « stratégie nationale »,

3°) Sur les critiques pouvant être faites à l’encontre de l’effort actuel de soutien public à la recherche énergétique.

La discussion n’a en fait porté que sur les deux premiers angles d’analyse, le troisième angle n’ayant pu être abordé, faute de temps. Une audition de MM. Dominique Goutte et Eric Lemaître a suivi, responsables du secteur de l’énergie à la direction générale de la recherche et de l’innovation (DGRI) du ministère de la recherche.

I. Les caractéristiques formelles de la « stratégie nationale » de mai 2007

1°) Adéquation du contenu du rapport

L’avis général est que le rapport intitulé « stratégie nationale de la recherche dans le domaine énergétique » ne présente pas véritablement une stratégie, mais un état des lieux de la recherche dans le domaine de l’énergie en France. Il correspond à une première étape dans l’effort pour formaliser une stratégie à proprement parler, sachant que la réunion des différentes parties prenantes pour discuter d’une « stratégie de la recherche », ainsi que l’a fait remarquer M. Saulnier, a déjà constitué en soi une avancée. M. Birraux a observé que l’on pouvait admettre que la première édition du document s’en tienne à un état des lieux, mais que l’OPECST, qui est chargé, en vertu de la loi, de l’évaluer, veillerait à ce que la deuxième édition marque des progrès vers l’élaboration d’une véritable stratégie.

M. Langlois a évoqué le besoin de définir une démarche par défaut en cas de difficulté persistante à définir une véritable stratégie.

Les membres du comité de pilotage ont constaté que le rapport sur la « stratégie nationale » n’intègre pas véritablement la recherche privée dans son champ, alors qu’ils ont unanimement souligné que c’était là pourtant une dimension fondamentale de l’effort de recherche. M. Crampes a notamment observé que les acteurs privés étaient a priori, du fait de leur contact avec les besoins du marché, mieux à même que les acteurs publics pour orienter les efforts de recherche ; qu’il y aurait en conséquence un risque à définir une stratégie de recherche sans leur concours. M. Mandil a indiqué que la France, dans le secteur pétrolier comme dans le secteur nucléaire, disposait d’un tissu dense de PME autour des grandes entreprises dominant l’activité, Total et GDF-Suez d’un côté, Areva et EDF de l’autre ; que ce modèle du grand groupe entraînant dans son sillage des petites entreprises performantes trouvait aussi à s’appliquer dans le secteur automobile ; que ces petites entreprises dépendaient fortement pour leur développement d’une coopération avec les acteurs publics de la recherche.

Mme Bourrier a observé qu’il était important de clarifier les apports respectifs du secteur public et du secteur privé à la recherche, qui sont très intriqués. Revenant au cas des petites entreprises se développant dans le sillage de grands groupes, elle a estimé qu’elles avaient logiquement vocation à bénéficier d’abord d’un soutien de leurs grands donneurs d’ordres avant d’aller chercher celui de l’État.

La discussion sur les caractéristiques formelles du rapport a abouti à l’émergence de deux questions nouvelles :

- d’une part, l’importance du lien entre l’effort de recherche et l’effort de formation ;

- d’autre part, la relativité de la pertinence d’une approche purement nationale en matière de stratégie de recherche.

- La discussion sur l’importance du lien entre formation et recherche a concerné deux points :

- d’une part, l’importance de la formation comme vecteur de fixation de la recherche. M. Mandil a indiqué que les contrats d’exploitation pétrolière, par exemple, se conquéraient par la mise en avant d’un savoir-faire nourri des résultats obtenus en laboratoire ;

- d’autre part, l’importance de la formation comme relais de la diffusion des résultats de la recherche. M. Ngô a cité l’exemple de la difficulté à trouver des artisans capables de mettre en œuvre les produits nouveaux en matière de chauffage domestique.

Mme Bourrier, sans disconvenir de l’impact que peut avoir la formation sur le développement de la recherche, s’est interrogée sur la pertinence d’un approfondissement de ce problème au regard du champ sur lequel doit porter l’évaluation confiée à vos rapporteurs, ce champ devant se limiter, selon les termes de la mission confiée à l’OPECST, à la stratégie nationale de la recherche dans le domaine de l’énergie.

La relativité de la pertinence d’une approche purement nationale en matière de stratégie de recherche a été fortement soulignée par M. Crampes, qui a rappelé la faible emprise de la France sur son environnement énergétique : elle n’abrite qu’un pourcent de la population mondiale, et si ses résidents bénéficient comme deux milliards d’habitants de la planète d’une fourniture correcte d’électricité, deux autres milliards ne disposent en ce domaine que d’un service partiel, et deux autres milliards en sont totalement dépourvus. Il est dès lors indispensable de prendre en compte dans l’analyse des questions de l’énergie le fait que celle-ci fait l’objet in fine d’un service marchand offert sur un marché mondial, plutôt que de se focaliser uniquement sur la concurrence entre les sources d’énergie. Pour la France, la stratégie de la recherche dans le domaine de l’énergie doit être, à tout le moins, en conséquence, définie en référence à la politique communautaire.

M. Ngô a illustré le caractère inexorable de la dimension internationale de la recherche en prenant l’exemple des brevets de détection de l’Encéphalopathie spongiforme bovine (ESB), mis au point par le CEA, vendus symboliquement à l’Institut Pasteur dans une logique d’exploitation franco-française, mais revendus ensuite par l’Institut Pasteur, à un prix beaucoup plus intéressant, et en toute légalité, à une société américaine, laquelle reverse aujourd’hui des droits d’exploitation des brevets au CEA. M. Mandil a observé que la revente de brevets de l’IFP à des acteurs étrangers était pratique courante, et qu’il fallait y voir l’occasion, pour l’économie française, de bénéficier de flux monétaires entrants sous forme de royalties ; la communauté de recherche britannique n’a pas de réflexe de rétention nationale de ses résultats comme la communauté française. M. Ngô a décrit un modèle de fuite internationale sans royalties, en prenant le cas d’un laboratoire d’Orsay spécialisé dans l’étude des plasmas, dont les travaux régulièrement publiés sont peu exploités en France, mais suivis de près au Japon, où ils sont directement utilisés pour faire évoluer la technologie des écrans.

M. Ngô a encore observé que les entreprises françaises allaient chercher l’offre de recherche là où elle était disponible dans le monde, tandis que les laboratoires français avaient des difficultés à travailler avec des industriels étrangers. M. Mandil a indiqué que ces difficultés étaient surmontables à terme si elles relevaient de l’autocensure.

M. Birraux, évoquant le cas des États-Unis, a expliqué que les autorités fédérales sont en droit d’y confisquer des résultats scientifiques au motif qu’ils intéressent la sécurité de la défense. M. Ngô a signalé que les autorités militaires françaises pouvaient de même bloquer la vente de certains résultats à des intérêts étrangers ; il a fait référence à un cas où le CEA s’était vu ainsi refuser le droit de vendre des résultats à Siemens. Les membres du comité de pilotage ont analysé ces modes de contrôle des fuites vers l’étranger des travaux financés sur des fonds nationaux comme foncièrement désincitatifs ; en outre, le blocage pendant quatre ou cinq ans d’un résultat n’empêche pas sa diffusion, puisqu’il laisse aux laboratoires étrangers concurrents le temps de rattraper leur retard : ce blocage a donc surtout pour effet de faire perdre une avance technologique qui aurait pu se traduire par un avantage économique.

2°) Modèles pouvant servir de points de comparaison

Les membres du comité de pilotage ont confirmé l’intérêt de l’étude du modèle américain pour le pilotage de l’effort de recherche, M. Mandil ayant observé qu’il s’agissait d’un dispositif intégré où l’on considérait la recherche comme un élément de la politique de l’énergie, sous le contrôle du département de l’énergie, alors qu’en France la recherche dans le domaine de l’énergie est considérée comme un élément de la politique de la recherche, sous le contrôle du ministère chargé de la recherche.

M. Langlois a expliqué que si plusieurs stratégies nationales de recherche avaient été adoptées en Allemagne au cours des dernières années, c’était moins l’indice d’une politique structurée que d’une difficulté à mettre en cohérence les options stratégiques allemandes avec le refus de l’énergie nucléaire. M. Mandil a ajouté que l’effort de cohérence était d’autant plus grand en Allemagne que le pilotage des recherches relevait, selon l’énergie concernée, de ministères différents. M. Ngô a signalé en outre que les modes de gestion de la recherche allemande, mobilisant des ressources très lourdes, rendaient une comparaison avec la France très peu opératoire. Au total, les membres du comité de pilotage ont déconseillé à vos rapporteurs de prendre le modèle allemand comme point de référence.

De même, ils ont déconseillé de se référer au modèle japonais, reposant sur des bases culturelles trop dissemblables de celles des pays occidentaux.

En revanche, ils ont été unanimes à conseiller l’étude du modèle finlandais, que M. Langlois a jugé très pragmatique ; même si M. Mandil a relativisé la portée d’une comparaison avec la situation d’un petit pays. M. Mandil a conseillé un contact avec Nord Pool, la bourse d’électricité commune de quatre pays nordiques : Norvège, Suède, Finlande, Danemark.

MM. Mandil et Ngô ont évoqué l’intérêt d’étudier le modèle chinois, se caractérisant par un très grand volontarisme, aussi bien au niveau de l’effort de recherche qu’au niveau de la vitesse de transfert vers l’industrie. M. Ngô a souligné l’absence totale de freins juridiques au développement scientifique en Chine, ignorante du principe de précaution. Les domaines de l’énergie photovoltaïque, de la pile à hydrogène, des batteries y sont particulièrement en rapide progression.

II. La manière de justifier les choix d’une « stratégie nationale »

1°) Les principes devant guider l’allocation de crédits publics

M. Langlois a observé que la vocation d’une politique publique de recherche était d’orienter les crédits sur les projets insuffisamment soutenus par les acteurs privés, selon des objectifs prenant en compte au sens le plus large l’intérêt de la société.

Il a défendu l’idée que, dans un contexte international désormais très ouvert, les choix des pouvoirs publics quant aux filières de recherche à soutenir devenaient cruciaux, plus difficiles à faire qu’à l’époque des économies dirigistes fermées, mais que ces choix étaient néanmoins indispensables, car les forces du marché ne pouvaient servir de seul guide en cette matière : il a pris l’exemple du regret exprimé lors du congrès mondial de l’Energie à Rome par le Président de l’Ente nazionale idrocarburi (ENI) que la décision de réorienter les approvisionnements énergétiques de plusieurs pays européens vers le gaz naturel avait été une « non décision », et non pas un choix clair des pouvoirs publics après réflexion sérieuse. Il a également estimé que les aides accordées aujourd’hui par les pouvoirs publics aux énergies renouvelables étaient sans doute une nécessité pour la non prise en compte par les phénomènes de marché d’externalités capitales pour l’intérêt général, mais que cette intervention volontariste nécessitait une analyse objective des perspectives réelles de ces sources alternatives pour que ces aides qui faussent les mécanismes régulateurs du marché soient limitées dans le temps.

M. Mandil a dénoncé à son tour une trop grande précipitation le domaine des biocarburants, faisant fi des limites des ressources en terre et en eau. Il a aussi décrit le soutien public à la fusion nucléaire comme potentiellement contreproductif, car détournant des moyens financiers vers une technologie à échéance trop lointaine, alors que le besoin de trouver des compléments d’énergie est pressant.

M. Ngô a expliqué que l’allocation de crédits devait se faire en partant de l’analyse des besoins. Il a observé à cet égard qu’il y avait peu à gagner à investir sur des modes alternatifs de production d’électricité, car la part de production véritablement à mettre aux normes de la lutte contre l’effet de serre n’était que de 10% ; qu’en revanche, les gains potentiels à obtenir sur ce plan dans le domaine des transports ou celui du chauffage étaient considérables. Dans le domaine des transports, on pourrait tirer directement avantage des progrès de l’électricité propre en développant des véhicules rechargeables, au moins sous forme hybrides. Dans le domaine du chauffage, il faut trouver le moyen de faire progresser l’isolation sans diminuer de façon trop sensible l’espace habitable. Il a estimé qu’il existait des perspectives de dégager à l’échelle internationale des revenus importants pour les laboratoires qui parviendraient à mettre au point des brevets dans ces domaines.

S’agissant des biocarburants, M. Ngô a décrit le saut que représenterait le recours à de la biomasse marine, permettant d’améliorer d’un facteur 10. l’efficacité énergétique de l’exploitation de la surface de culture.

2°) L’insertion de la recherche française dans les programmes internationaux

M. Langlois a signalé que la stratégie française de recherche devait privilégier la collaboration au sein de programmes européens, une démarche purement française ne pouvant se concevoir que par défaut d’un cadre européen.

M. Mandil a rejeté l’idée qu’une démarche conduite dans une logique d’indépendance nationale fût possible, et a observé que tous les grands accidents énergétiques de l’histoire avaient une origine purement nationale, l’internationalisation de la gestion du besoin énergétique jouant ainsi un rôle stabilisateur. Il s’est déclaré optimiste sur les possibilités d’un renforcement de la stratégie communautaire en matière d’énergie, à partir des prémices actuelles ; il a constaté que l’approche retenue faisant une place à la fois aux énergies renouvelables, à la capture du gaz carbonique et à l’électricité nucléaire, était équilibrée, que les dangers liés à la formation de goulots d’étranglement du fait d’une défaillance de formation étaient identifiés et pris en charge ; que certes, le partage du financement restait une difficulté, mais qu’il serait facile à résoudre au moins dans le cadre des coopérations frontalières.

M. Dominique Goutte a rappelé les trois contraintes générales sous lesquelles la politique de l’énergie doit se définir aujourd’hui : la pression démographique mondiale (d’ici 2050, une progression nette de 200.000 habitants par jour, d’où un besoin supplémentaire d’énergie équivalant, selon les standards occidentaux, à une tranche de centrale nucléaire supplémentaire par semaine) ; un approvisionnement en énergie fossile de plus en plus difficile ; le besoin de maîtriser les émissions des gaz à effet de serre.

Il a noté qu’en dépit des interdépendances justifiant des stratégies européennes ou internationales en matière d’énergie, il existait des particularités liées à la géographie ou la culture (comme l’importance du charbon en Allemagne) pouvant expliquer des démarches nationales.

Il a décrit les trois étages d’organisation d’une politique de recherche (stratégique, programmatique, opérationnel) en indiquant que le paysage institutionnel s’était récemment enrichi de deux instruments pour les mettre en œuvre : la Loi organique relative aux lois de finances (LOLF) et l’Agence nationale de la recherche (ANR). Il a jugé que la LOLF présentait le double avantage d’être « trans-organismes » et « euro-compatible ». Il a estimé qu’il s’agissait d’imaginer aujourd’hui un dispositif aussi efficace que ceux qui avaient permis de répondre historiquement aux priorités des temps de l’après-guerre : le CNRS, le CEA.

Il a expliqué la démarche en cours menée dans le cadre du comité opérationnel présidé par Mme Marion Guillou, ayant en charge de décliner pour la recherche les priorités définies par le Grenelle de l’environnement, et de proposer une répartition de l’enveloppe d’un milliard d’euros promise pour la recherche par le Président de la République, dont 600 millions iront à des projets intéressant la recherche. Il a indiqué que le comité avait identifié que la gamme des projets de recherche de taille intermédiaire, ni petits projets de l’ordre de quelques millions d’euros, ni grands projets de plusieurs centaines de millions d’euros, mais les projets de quelques dizaines de millions d’euros, avaient des difficultés pour obtenir des financements. Ces projets de taille intermédiaire correspondent en outre souvent à l’étape cruciale d’expérimentation sur « démonstrateurs », ne relevant plus vraiment de la recherche fondamentale, et pas encore de la recherche industrielle, et pour des durées excédant celles habituellement prises en charge par l’ANR (trois ans) ; les projets de recherche sur l’énergie nécessitent en particulier des investissements de longue durée. Le comité opérationnel va proposer de consacrer à ces projets intermédiaires les deux-tiers de la ressource supplémentaire annoncée, le dernier tiers devant aller au financement de projets volontaristes (Top-Down), en complément des projets financés par l’ANR sur propositions des laboratoires.

M. Goutte a estimé que ces modifications viendraient compléter les efforts en vue de « combler les trous de la raquette », au même titre que la fusion Oseo-Agence de l’innovation industrielle (AII), favorable aux projets de moyenne envergure, ou la réforme récente (mars 2008) du « preciput », prélèvement effectué par les organismes de recherche sur les budgets décrochés par les projets ARN des équipes scientifiques, destiné à couvrir les frais de structures et conçu comme une manière de donner une prime aux laboratoires ayant remporté des succès. Fixé à 5% à l’origine, il sera porté à 11% dès 2008, et au-delà, à 20%, en 2009.

Cette réforme à différents niveaux de l’effort de recherche dans le domaine de l’énergie en France est contemporaine du lancement par la Commission européenne , en novembre 2007, du Strategic Energy Technology Plan (SET Plan), qui vise à la mise en œuvre des objectifs fixés par le Conseil européen de mars 2007. Ce plan comporte cinq volets : le lancement d’initiatives industrielles communes dans les nouvelles technologies de l’énergie et la capture du gaz carbonique ; la création d’alliances entre les organismes impliqués dans les recherches ; l’organisation de la diffusion des technologies ; la dissémination d’informations à jour sur l’état des recherches et des programmes ; enfin, la mise en place d’un steering group d’évaluation de l’effort engagé. Le ministère de la recherche contribue à l’échafaudage de cette organisation pour la France, avec le concours du CEA et de l’IFP.

S’agissant de la capture du gaz carbonique, la DGRI constate qu’il s’agit d’une problématique intéressant peu la France, et beaucoup plus l’Allemagne, mais que la France dispose d’acteurs compétents dans ce domaine, pouvant intervenir dans une logique de coopération européenne.

M. Birraux a déploré que la stratégie française ne fasse pas apparaître plus clairement des priorités, déclinées au niveau des moyens, positionnées par rapport aux programmes européens, et ouvertes sur des efforts de formation préparant la diffusion des technologies mises au point.

M. Goutte a indiqué que les besoins supplémentaires en matière de formation, de l’ordre de 1 200 ingénieurs par an pour EDF et Areva dans la décennie à venir, étaient pris en compte, le Commissaire à l’énergie atomique ayant été chargé d’un rapport sur cette question par la ministre de la recherche.

S’agissant de la stratégie nationale, il a expliqué que la France n’en manquait pas, puisqu’une floraison de rapports divers en proposent, mais que la difficulté se situait plutôt au niveau de leur mise en œuvre. Il a souligné à cet égard l’avancée qu’a représenté la mise en commun des ressources françaises sur la recherche photovoltaïque dans le laboratoire de l’Institut national de l’énergie solaire (INES) de Chambéry, branché d’un côté sur un pôle industriel produisant des composants en silicium, de l’autre sur la formation des artisans (couvreurs, plombiers). Il a estimé que les recherches sur l’hydrogène devaient se structurer pragmatiquement en fonction des utilisations envisageables : hydrogénisation des biocarburants ou des hydrocarbures fossiles, piles à combustibles de petite taille, stockage de l’énergie produite par des sources décentralisées ; qu’une collaboration était envisageable avec l’allemand Daimler pour la filière d’utilisation massive dans l’automobile, à travers l’hydrolyse à haute température s’appuyant sur les réacteurs nucléaires de quatrième génération. Il a évoqué le rapport de Bruno Jarry sur les biocarburants pour signaler que le besoin de mettre en place un démonstrateur pour la production thermochimique des biocarburants de deuxième génération appelait sans doute à une collaboration européenne.

MM. Crampes et Ngô sont revenus sur l’importance de la formation des artisans pour la diffusion des technologies, M. Ngô évaluant un besoin de mise à niveau concernant plusieurs centaines de milliers de professionnels. Ils ont tous deux soutenus, contre Mme Bourrier s’interrogeant sur le risque de dilution dans une approche trop large, que la mission d’évaluation de l’OPECST devait prendre en compte la manière dont la stratégie nationale de recherche pouvait se justifier au regard de la possibilité d’utiliser la technologie comme un levier de l’activité économique. M. Crampes a insisté sur le fait que l’organisation de la recherche devait intégrer la remontée d’informations techniques via les professionnels qui se trouvent au contact de la clientèle finale (modèle « demand pulled ») ; que la France négligeait trop souvent ce canal à la différence d’autres pays, en raison de sa tradition centralisatrice, qui, dans le domaine de la recherche, se traduisait par une confiscation jalouse du droit d’initiative technologique par les laboratoires (modèle « technology pushed »).

M. Eric Lemaître a rappelé que la création des pôles de compétitivité avait vocation à répondre à ce genre de difficulté par la communication entre les différents acteurs d’une filière technologique ; que les chambres de commerce pouvaient servir également de point d’appui pour la formation technologique des artisans. Il a observé que, s’agissant de la formation des ingénieurs, le déficit potentiel à combler qui se dessinait dans la filière nucléaire se retrouvait également dans la filière aéronautique, ce qui était l’indice d’un problème plus général.

M. Goutte a contesté, sans la remettre globalement en cause, la pertinence du modèle « demand pulled » dans certains cas : la recherche sur les réacteurs nucléaires de quatrième génération, ou sur les biocarburants. M. Ngô a remarqué que le modèle « technology pushed » avait cours chez Airbus, produisant des avions conçus par les ingénieurs, alors que chez Boeing, ce sont les pilotes qui initiaient la démarche technologique, conduisant à la production d’avions très appréciés par les personnels de bord.

M. Birraux a demandé comment la stratégie nationale pourrait un peu mieux prendre en compte les partenariats public-privé dans la recherche sur l’énergie.

M. Lemaître a indiqué que la démarche de concertation à la base de l’élaboration de la stratégie nationale, utilisée également dans le cadre des travaux du comité opérationnel sur la recherche dans le cadre du Grenelle de l’environnement, conduisait à essayer d’établir systématiquement un dialogue entre les acteurs publics et les acteurs privés, mais que ce dialogue était très difficile. Il a expliqué que les acteurs privés maintenaient une forte rétention d’information sur leur recherche pré-compétitive. Il a cité le cas des constructeurs automobiles, et M. Birraux, évoquant une mission ancienne sur l’énergie propre, a alors signalé qu’il avait connu ce même genre de difficulté voilà quinze ans. M. Lemaître a constaté néanmoins une amélioration de la communication avec les acteurs privés à la faveur du Grenelle de l’environnement, sous couvert de la confidentialité ; il avait ainsi pu bénéficier d’informations sur les sorties imminentes de voitures hybrides.

M. Ngô a observé que la recherche industrielle privée était fortement perturbée par les évolutions de la législation européenne, la conception de véhicules hybrides fonctionnant au diesel se trouvant par exemple totalement vidée de son intérêt économique par l’entrée en vigueur en 2010 des limites prévues par la directive 2001/81/CE du 23 octobre 2001 en ce qui concerne l’émission des oxydes d’azote. M. Lemaître a cité le cas du filtre à particules, pour illustrer la rapide capacité d’adaptation des constructeurs français à la réglementation, en l’occurrence la directive 1999/30/CE du 22 avril 1999 fixant des valeurs limites pour la protection de la santé humaine pour les particules.

M. Goutte a rappelé que la stratégie européenne s’efforçait elle-aussi de promouvoir un effort de recherche basé sur la coopération des acteurs publics et des acteurs privés, avec d’ores et déjà un certain succès s’agissant par exemple de l’hydrogène. Il a énuméré les six plateformes prévues par le SET Plan : énergie éolienne, énergie solaire, bioénergie, capture / transport / stockage du gaz carbonique, réseaux électriques intelligents, fission nucléaire. Il a observé que les réseaux électriques allaient effectivement se complexifier avec le raccordement croissant de sources épisodiques et de maisons à énergie positive ; qu’ils constituaient en eux-mêmes une première réponse au problème du stockage de l’énergie.

Revenant sur le besoin de définir une stratégie nationale, M. Langlois a fait remarquer qu’une pléthore en ce domaine risquait plutôt de se traduire par une absence de choix fermes, et M. Goutte en a convenu, évoquant le besoin d’une instance pour valider un document de référence nationale issu des travaux des groupes de concertation. Il a indiqué que la stratégie concernant les nouvelles technologies de l’énergie, notamment celles concernant l’énergie nucléaire, serait validée par un prochain comité de l’énergie atomique ; qu’il serait sans doute pertinent de procéder d’une manière équivalente pour l’ensemble de la stratégie de la recherche dans le domaine de l’énergie, mais qu’en tout état de cause, cela ne pourrait avoir lieu qu’une fois achevées un certain nombre de restructurations institutionnelles en cours dans les ministères concernés, notamment au Ministère de l’écologie, de l’énergie, du développement durable et de l’aménagement du territoire (MEDAD).

En réponse à une question de M. Birraux sur le calendrier, M. Goutte a indiqué qu’une nouvelle stratégie nationale ne pourrait être produite avant l’automne 2008.

M. Birraux a ouvert l’audition en constatant que la stratégie nationale de la recherche en énergie ressemble à un « Gosplan » dans la mesure où elle couvre toutes les pistes potentielles, en les organisant certes autour de quelques lignes directrices, mais uniquement à des fins de présentation, sans que de véritables priorités soient définies. Il a mentionné la nécessité de définir une méthodologie d’analyse des différentes pistes de recherche possibles, de manière à identifier celles devant bénéficier d’un appui public renforcé. Il a indiqué que le degré de maturité de la recherche lui semblait notamment un critère important, puisqu’il détermine la possibilité pour le secteur privé, motivé par la bonne visibilité sur les marchés potentiels, de prendre le relais de l’effort de financement. Il a estimé que la stratégie nationale faisait en outre une place importante à certaines technologies très fortement promues à l’échelle communautaire, mais correspondant peu à la réalité de la situation énergétique de la France.

M. Leban, faisant référence à des travaux récents de dix grands producteurs mondiaux d’électricité au sein du World Business Council for Sustainable Development (WBCSD) dans lequel il avait le rôle d’ « Associate » (rapporteur), a expliqué qu’il y avait, en matière de recherche, différentes sortes de politiques publiques : certaines visent par exemple à aider à descendre rapidement la courbe d’expérience, lorsque les technologies sont en phase de premier déploiement et compétitives ou quasi-compétitives, d’autres à franchir des étapes cruciales de la phase de RD&D (« Research, Development and Demonstration ») par le soutien à la mise en place de démonstrateurs. Dans tous les cas, le degré de maturité de la technologie constitue un paramètre déterminant pour définir l’effort public, et pour bien calibrer celui-ci, il faut pouvoir s’appuyer sur un calendrier d’avancement et d’aboutissement industriel possible (« roadmap ») des différentes pistes de recherche en cours pour la technologie concernée. L’émergence d’une technologie passe en effet par différentes étapes d’un long cycle, qui, une fois l’étape scientifique terminée, passe par l’étude de la faisabilité technique, puis de la pertinence économique ; s’ensuit l’étude en grandeur réelle sur un démonstrateur, puis un premier déploiement devant permettre de descendre la courbe d’expérience, et enfin le déploiement de masse. Pour la préparation du rapport du World Business Council, devant définir les conditions d’un avenir électrique soutenable (« Powering a sustainable future »), un temps important a été consacré à l’élaboration d’une cartographie des technologies électriques par rapport à ce cycle, en repérant le stade auquel chacune se trouve aujourd’hui, de manière à pouvoir, de manière grossière mais informative, construire un calendrier de leurs possibles émergences successives.

Insistant sur le préalable incontournable à un effort d’organisation stratégique que constitue ce classement des technologies selon leur degré de maturité, M. Leban a observé que le rapport sur la stratégie nationale de mai 2007 faisait bien une place à une dimension prospective et de calendrier pour les technologies nucléaires, mais le faisait un peu moins pour les autres technologies de l’énergie. A l’inverse, le rapport Chambolle s’était parfaitement conformé à cette démarche.

La perspective temporelle est déterminante, car la puissance publique aura un rôle incitatif d’autant plus important que l’échéance paraîtra lointaine pour les entreprises. Mais un autre élément joue pour justifier un soutien de l’État, c’est l’incertitude de pouvoir aller jusqu’à la commercialisation, même lorsque la technologie se trouve dans l’une des étapes avancées du cycle [développement, démonstration, premier déploiement, déploiement de masse]. M. Leban a cité l’exemple de la technologie de la capture du carbone, qui, à l’inverse de l’énergie photovoltaïque de troisième génération, toujours en phase de recherche pour une utilisation économique à grande échelle, n’engendre aucun doute quant à la possibilité de sa mise au point technique finale, indépendamment du fait qu’elle ne pourra avoir véritablement un impact sur l’effet de serre qu’en étant déployée massivement ; mais, en tout état de cause, il faut le temps de lever des difficultés techniques (réaliser une capture du CO2 sûre et économique dans une centrale IGCC62 avec capture, qui mélange usine électrique et usine chimique n’est pas chose simple) et la technologie peut se trouver stoppée à une étape du cycle de développement par un refus social, lié aux inquiétudes suscitées par le stockage souterrain. Toute technologie peut ainsi être interrompue dans son développement, et ce risque peut entraîner une prudence des entreprises, que l’État doit prendre en compte dans sa stratégie de recherche.

Sur ces bases, on peut considérer que la technologie des éoliennes par exemple, parvenue aujourd’hui au stade du déploiement de masse, mérite des incitations publiques de type « feed-in tariffs » là où elle n’est pas totalement compétitive, mais n’a pas vocation à drainer massivement des fonds publics sur le long terme.

Par ailleurs, les technologies utilisées de façon centralisée, comme celles de production d’électricité ou d’hydrogène, coexistent avec des technologies répondant à des besoins très décentralisés, comme les pompes à chaleur. Les premières mobilisent des financements très importants pour la mise au point de démonstrateurs, à des niveaux dissuasifs pour des investisseurs privés. L’intervention publique devient alors incontournable pour la poursuite du développement.

Les trois critères de temps pour arriver sur le marché (time to market), d’incertitude sur la commercialisation et de mode d’utilisation des technologies sont donc importants pour déterminer une stratégie publique de soutien de la recherche, et devraient normalement être pris en compte dans un effort de modélisation destiné à étudier la manière de répondre à l’évolution prévisionnelle de la demande d’énergie.

M. Birraux a estimé que la stratégie nationale n’était pas allée vers cette démarche rigoureuse de peur d’avoir à proposer des choix, une analyse plus globale présentant l’avantage de ne susciter aucun mécontentement. M. Ngô a abondé en citant le cas des pôles de compétitivité, qui initialement devaient concentrer les forces françaises sur quelques créneaux, et qui finalement, de par leur nombre, entretiennent une dispersion des ressources, sans compter le supplément de complexité administrative induite par leur organisation. M. Langlois a rappelé que le directeur de l’énergie au ministère de la recherche avait convenu, au cours de son audition, que le rapport de mai 2007 n’était qu’un simple état des lieux, et avait annoncé un affinage de la stratégie nationale à la suite des réflexions en cours pour mettre en oeuvre les orientations définies par le Grenelle de l’environnement.

M. Leban a signalé qu’en fait certaines priorités se dégageaient de la stratégie nationale de mai 2007, en faveur de l’énergie nucléaire notamment, cette priorité-ci n’étant pas formulée explicitement pour éviter de susciter une polémique ; par ailleurs, la biomasse était mise en avant, pour faire ressortir l’intérêt des biocarburants de seconde génération.

M. Leban a présenté une grille méthodologique pouvant être utilisée pour fonder une nouvelle stratégie nationale définissant plus clairement des priorités. Il s’agirait de partir des objectifs : sécurité des approvisionnements, lutte contre le changement climatique, compétitivité du prix de l’énergie, ce dernier point étant explicitement mentionné par la loi de juillet 2005 ; puis de distinguer des domaines d’action :

- le monde, à l’échelle duquel on définit des objectifs globaux d’économies d’énergie et de développement des technologies énergétiques à atteindre pour limiter le changement climatique à des niveaux acceptables, ainsi que des programmes de développement technologique incontournables ;

- l’Europe, qui doit déjà être plus sélective ;

- la France elle-même, qui ne peut investir de la même manière sur tous les sujets de recherche pertinents à l’échelle mondiale, et peut songer à faire porter ses efforts spécifiques sur des technologies pour lesquelles elle a des avantages comparatifs (compétences, ressources géographiques...) en espérant des retombées positives de la recherche dans le pays. Les actions de soutien aux technologies doivent bien entendu être définies à partir des critères évoqués précédemment : degré de maturité, mode d’utilisation.

A l’échelle internationale, les actions de la France relèvent de la recherche coopérative, ou de la contribution au PCRD dans la Communauté européenne ; il est possible également, au sein de l’Union, de poursuivre des coopérations renforcées avec certains partenaires, comme la recherche en matière nucléaire en donne l’exemple.

M. Langlois a proposé une grille méthodologique complémentaire, visant à classer les thèmes de recherche en fonction d’une part de leur intérêt « sociétal », et d’autre part de leur intérêt « sectoriel », à savoir celui d’un groupe d’industriels ; les thèmes dépourvus de l’un et de l’autre doivent être laissés à l’écart, tandis que ceux suscitant les deux intérêts doivent faire l’objet d’un soutien tout particulièrement important.

S’agissant des choix stratégiques à préconiser, M. Leban a mentionné : en premier lieu, l’énergie nucléaire ; ensuite, la biomasse ; troisièmement, l’énergie photovoltaïque. Il lui semble que le niveau auquel la France s’est engagée dans les diverses structures de coopération internationale pour la capture du gaz carbonique (à travers les participations de l’IFP et du BRGM) est suffisant. On peut penser que des recherches directes sur la capture du gaz carbonique soient prises en charge par les entreprises françaises internationalisées qui y voient un marché mondial fructueux ; le territoire français a peu de chances d’être un lieu de développement massif du charbon propre. M. Ngô a observé que les seuls acteurs directement intéressés en France sont les fournisseurs d’électricité concurrents d’EDF, qui ne peuvent mettre en place rapidement une capacité de production autonome autrement qu’en construisant des centrales à gaz. M. Birraux a ajouté que la France avait d’autant moins intérêt à investir sur la capture du gaz carbonique qu’elle disposait, grâce essentiellement à l’énergie électronucléaire, d’une position relative très avantageuse en Europe du point de vue de l’émission de gaz carbonique par habitant. M. Leban a abondé dans le même sens, en mentionnant que la Suède aussi était en bonne position à cet égard, grâce à son énergie hydroélectrique.

S’agissant de l’énergie nucléaire, M. Leban s’est demandé si l’avance prise par la France en matière de réacteur à neutrons rapide n’était pas en diminution rapide eu égard au nombre de démonstrateurs annoncés. MM. Birraux et Ngô ont regretté que la politique communautaire de libéralisation du marché de l’électricité remette en cause l’avantage de prix qu’apporte à la France son investissement de longue date dans l’énergie nucléaire. M. Leban s’est interrogé sur l’utilité de mentionner cette réduction d’avantage dans le rapport sur la stratégie nationale. M. Langlois a remarqué qu’un pays précurseur dans un domaine a mécaniquement tendance à se remettre en cause, car s’il reste isolé dans son avantage, il fait l’objet de critiques jalouses, et si d’autres pays le rejoignent, il a le sentiment de perdre son avantage. M. Birraux a regretté qu’en dépit de l’action de promotion déterminée du Président de la République, le Gouvernement ne fasse pas bloc en faveur de l’énergie nucléaire.

En ce qui concerne les biocarburants, M. Leban a estimé que la France disposait d’un avantage comparatif pour les promouvoir (dans les versions économes de 2ème génération), en raison de l’importance de ses surfaces cultivables. L’Union européenne a promu cette source d’énergie au départ sur des bases saines, à savoir l’utilisation des friches, mais a ensuite dérivé pour fixer des objectifs irréalistes. M. Birraux a signalé qu’une hostilité se manifestait dès qu’on a compris que c’était une possibilité d’employer des OGM. M. Ngô a rappelé qu’en ce domaine, la France dispose d’un autre avantage, à savoir son espace maritime, puisque les biocarburants de troisième génération devraient être fabriqués à partir d’algues, permettant d’améliorer d’un facteur 10 l’efficacité énergétique pour une surface donnée de culture, par rapport aux sources exploitées à l’air libre.

Pour l’énergie solaire, M. Ngô a noté que la ressource était inépuisable, mais que la France s’était laissé distancer par le Japon et l’Allemagne sur la technologie des cellules photovoltaïques. M. Leban s’est interrogé sur la position à prendre dans la technologie solaire thermique, qui est attractive mais intéresse plus directement des pays ensoleillés comme l’Espagne ; M. Langlois a évoqué le marché potentiel des DOM-TOM et des pays du Maghreb.

M. Leban a noté que le rapport de mai 2007 ne comportait pas d’analyse de l’effort global de recherche française dans le domaine de l’énergie, par exemple par rapport à l’ensemble cumulé des dépenses de recherche en France ; qu’il n’évaluait pas non plus quantitativement les parts relatives de l’effort public et de l’effort privé. M. Ngô a signalé l’intérêt d’une approche inverse de la logique de répartition habituelle, consistant à aller de la définition des priorités à l’évaluation des crédits nécessaires pour les mettre en œuvre.

Selon M. Ngô, une véritable politique de l’énergie en amont de la recherche permettrait de mobiliser de façon plus efficace les crédits disponibles, car elle conduirait éventuellement à acheter une technologie, et à développer sa mise en œuvre pour effectuer un rattrapage (ce qu’a fait EDF avec le brevet Westinghouse) plutôt que de s’acharner à essayer de développer une solution nationale, en détournant des ressources qui pourraient être utilisées plus efficacement. On peut par exemple envisager ce genre de stratégie pour l’énergie photovoltaïque, en achetant les brevets à un pays plus avancé comme le Japon ; il s’agirait alors de mettre en place une filière artisanale capable d’assurer l’installation et la maintenance, afin d’éviter une dépendance de qualification technique, comme il en existe aujourd’hui vis-à-vis des installateurs allemands de chauffe-eau solaires. C’est une stratégie de rattrapage, permettant en contrepartie de cibler efficacement les ressources de recherche sur les secteurs où les laboratoires français disposent d’un véritable avantage stratégique, ou bien permettant d’essayer des pistes nouvelles, en prenant un risque d’échec, mais aussi en s’offrant une perspective de gain important en cas de découverte d’une technologie de rupture. En tout état de cause, il est contreproductif d’adopter une stratégie suiveuse en matière de recherche, notamment en poussant un programme national dans les domaines en vogue à l’étranger, car cela n’aboutit qu’à un gaspillage de ressources certain pour un rattrapage incertain ; un investissement dans un domaine où l’on constate un retard ne doit avoir pour objectif que de réaliser un bond en avant pour reprendre la tête.

M. Ngô a insisté sur la nécessité de raisonner en termes de retour national sur investissement pour les moyens mis sur la recherche en énergie, car c’est ainsi que fonctionnent les partenaires européens de la France, et particulièrement les Allemands. Il existe ainsi, dans ces pays partenaires, la tentation de promouvoir des coopérations permettant en fait de faire financer par d’autres pays membres des recherches qui n’intéressent directement qu’eux seuls.

M. Langlois s’est interrogé sur l’origine du milliard d’euros mis à disposition de la recherche par le Président de la République, et dont le comité opérationnel du Grenelle de l’environnement sur la recherche doit trouver l’emploi. Ce milliard ne peut être dégagé que par redéploiement dans le cadre budgétaire actuel, qui est très contraint.

M. Ngô a estimé que le développement des nouvelles filières énergétiques ne pourra être financé en réalité que par le consommateur, ce qui est problématique au moment où s’exerce une forte contrainte sur le pouvoir d’achat des ménages. Il s’agirait d’étudier la manière dont les banques pourraient contribuer à trouver un financement de relais, dont le remboursement serait facilité par les économies procurées par les investissements dans les nouvelles technologies de l’énergie. En tout cas, il convient d’écarter autant que possible les aides publiques directes, au moins celles qui bénéficieraient à toute la population de façon indifférenciée, car l’expérience montre que ces aides directes alimentent un relèvement des prix : dans la mesure où le consommateur est prêt à payer un certain prix pour une technologie, il accepte de payer la somme correspondante, majorée de l’aide reçue ; le vendeur le sait, et augmente le prix d’autant, de manière en fait à s’approprier l’aide.

M. Leban a observé que le soutien de l’État à des technologies presque compétitives avait du sens lorsqu’il ciblait des populations véritablement nécessiteuses, à l’image du soutien accordé par le gouvernement britannique à l’installation de pompes à chaleur dans les immeubles collectifs.

Pour M. Ngô, dans la mesure où c’est le consommateur final qui assurera le succès des nouvelles technologies de l’énergie, la qualité de l’assistance à la mise en œuvre s’avère crucial ; or, elle repose sur la compétence d’artisans qui, pour l’instant, ne bénéficient pas d’un cadre structuré de formation continue. Le risque est que des prestataires indélicats profitent de l’engouement social en faveur des nouvelles technologies de l’énergie pour capter, sans offrir de véritables contreparties en termes de services qualifiés, les flux financiers que les particuliers les plus motivés sont prêts à investir dans ce domaine.

Pour MM. Ngô et Leban, la participation de la France aux programmes internationaux doit suffire lorsque la France n’a pas un intérêt spécifique « local » fort pour la recherche concernée ; de ce point de vue, la stratégie « nationale » perd en efficacité à vouloir s’enfermer dans une approche par trop hexagonale, tous azimuts, ne prenant pas en compte le fait qu’un effort peut devenir un peu moindre en France, s’il s’inscrit dans une large coopération internationale. En revanche, si la recherche correspond à une forte spécificité nationale, à un atout à conserver, ou à une perspective de percée technologique, il convient d’abonder les moyens des laboratoires au-delà de ce qui est nécessaire à la poursuite des coopérations internationales, en veillant à ce que l’argent supplémentaire ainsi investi ait véritablement des retombées françaises.

M. Leban a souligné que la mise en œuvre d’une stratégie nationale méritait une évaluation régulière, que l’OPECST se trouve en position de mener, puisque le II de l’article 10 de la loi fixant les orientations de la politique énergétique précise : « Le Gouvernement transmet au Parlement un rapport annuel sur les avancées technologiques résultant des recherches qui portent sur le développement des énergies renouvelables et la maîtrise de l’énergie et qui favorisent leur développement industriel. Il présente les conclusions de ce rapport à l’Office parlementaire d’évaluation des choix scientifiques et technologiques. »

M. Leban a noté que, dans le rapport de mai 2007, on ne prenait pas en compte la difficulté liée au vieillissement démographique de la population des chercheurs, et au risque de perte de compétences qui en résulte, alors même que les étudiants français sont tentés d’aller poursuivre leur carrière scientifique à l’étranger, du fait de l’écart des rémunérations, même si c’est sur un statut précaire. M. Ngô a mentionné qu’une part conséquente, plus de la moitié souvent, des chercheurs travaillant dans les laboratoires français était désormais d’origine étrangère, sans que ce phénomène de remplacement soit un gage de performance, car les laboratoires américains continuent à attirer les meilleurs cerveaux du monde entier. M. Langlois a indiqué qu’une grande partie des thèses ne trouvaient aujourd’hui preneurs que parmi les étudiants étrangers.

MM. Ngô et Leban ont souligné que le vieillissement démographique pouvait se transformer en atout pour rétablir la situation, si l’on profitait des départs en retraite pour embaucher des jeunes chercheurs moins nombreux, mais bien mieux payés.

M. Birraux a estimé que la France connaissait une désaffection culturelle vis-à-vis de la science, et qu’il était difficile de construire une stratégie de recherche énergétique dans un pays qui montre peu d’appétence pour les avancées technologiques, ainsi que l’illustre le débat sur les OGM, dont le potentiel d’efficacité est trop souvent occulté au profit de la défense d’une vision bucolique de la nature ; M. Bernard Debré a ainsi rappelé dans l’hémicycle qu’en Argentine, une société s’est mise en position de produire tout le besoin du pays en insuline à partir d’une trentaine de vaches génétiquement modifiées. M. Birraux a cependant constaté que la mise en place des pôles de compétitivité permettait déjà d’effectuer un premier pas dans le bon sens, en rapprochant les mondes de l’industrie et de l’université.

M. Perdrizet, président du PREBAT (Programme de recherche sur l'énergie dans le bâtiment), a ouvert l’audition par une rapide présentation de ce programme, en indiquant qu’il s’agissait d’un dispositif mis en place récemment, puisque décidé en juillet 2004 et lancé en 2006 ; il a pris le relais, sur les questions d’énergie, du Plan Urbanisme Construction Architecture (PUCA), programme coordonnant lui-même les diverses administrations s’occupant d’aménagement urbain. Le PREBAT organise les efforts de cinq ministères (équipement, écologie, industrie, recherche, logement) et cinq agences (ANAH, ANR, ANRU, OSEO-ANVAR, ADEME). Un protocole distribue les rôles entre les différents partenaires.

Le PREBAT a trois objectifs principaux : prendre de l’avance technologique sur la réglementation, volet qui concerne surtout les bâtiments neufs ; mobiliser la recherche en faveur d’une meilleure gestion de l’énergie dans les bâtiments existants, qui constitueront encore les deux tiers du parc en 2050 ; explorer la possibilité de mettre au point des bâtiments à énergie positive.

Le programme a une dimension scientifique, mais aussi expérimentale, car il vise à l’étude des solutions technologiques en grandeur réelle, ou encore économique, car il s’agit de concevoir des adaptations dont le coût est réduit autant qu’il est possible. Le travail de coordination s’organise au sein de quatre groupes : « technologies », « bâtiments neufs », « bâtiments existants », « socio-économie ».

L’ensemble du programme mobilise une centaine de personnes. Le budget est de l’ordre de 20 millions d’euros par an, dont 9 millions pour la technologie pure (5 millions apportés par l’ANR, et 4 millions par l’ADEME) ; l’ADEME finance des démonstrateurs pour environ 3 millions ; le ministère du logement et le PUCA apportent une contribution de 2 millions par an ; enfin, l’ANAH et l’ANRU financent des expérimentations, ce qui suppose d’assembler des bâtiments qui sont soumis à des tests sur plusieurs années, car les données se recueillent sur deux à trois ans au moins.

Les pistes technologiques ouvertes ont été un peu nombreuses au début, et un resserrement de leur spectre est envisagé pour privilégier l’efficacité et une convergence rapide. Environ 80 bâtiments démonstrateurs sont en cours d’évaluation. Une étude de comparaison internationale (« bench marking ») a été conduite sur la recherche dans le bâtiment. Une opération a été lancée pour le recueil de données sur 1000 bâtiments existants, pour disposer d’informations plus sûres notamment sur les problèmes d’isolation et de ventilation. Un projet est en cours sur les bâtiments à énergie positive, qui met en évidence la difficulté à coordonner les différents milieux professionnels concernés, car pour l’instant les résultats obtenus dans l’habitation sont assez peu réussis du point de vue architectural ; les prototypes construits pour accueillir des bureaux sont à l’inverse plus harmonieux ; en outre, il apparaît que l’effort d’optimisation énergétique conduira à des bâtiments différents dans le Nord et dans le Sud, du fait de la différence de climat ; il faut ainsi tenir compte au Sud du problème du confort d’été.

Les réflexions en cours du Grenelle de l’environnement vont conduire à des réaménagements de l’effort de recherche, dans la mesure où celui-ci doit suivre les orientations de la politique du logement. La question des moyens pour la mise en œuvre d’un effort accru va probablement se poser non seulement pour les ressources financières, mais aussi pour les ressources humaines, car l’Ecole des ponts et chaussées, par exemple, n’a pas de laboratoire de recherche sur le bâtiment, et le Centre scientifique et technique du bâtiment (CSTB) n’a qu’une équipe d’une dizaine de personnes pour étudier les questions d’énergie. La pénurie risque aussi de concerner le groupe crucial des animateurs et des gestionnaires de la recherche.

En fait, une stratégie nationale de recherche ne peut se construire efficacement que sur la base d’une politique publique très déterminée, ainsi que l’a montré la réussite de la politique de la sécurité routière dans les transports, qui a reposé sur la capacité à mobiliser, sur une période de deux à trois ans, tous les milieux de recherche concernés, y compris en sociologie. Pour construire une stratégie, il ne suffit donc pas de s’aligner sur les sujets porteurs à l’échelle internationale, pour lesquels la recherche semble avancer par elle-même. Il faut des signaux forts, et par exemple, la recherche dans le bâtiment est freinée par l’absence d’affichage du prix du carbone.

Il y aurait avantage, à cet égard, à tenir compte des enseignements fournis par les travaux du « comité Lauvergeon » chargé d’une réflexion sur les nouvelles technologies de l’énergie (NTE). Ils montrent qu’il est essentiel d’aborder l’élaboration d’une stratégie en posant des questions fondamentales sur les objectifs poursuivis, et en partant d’une évaluation des forces et faiblesses de la situation actuelle. Ce travail de base n’a manifestement pas été fait pour la stratégie nationale de mai 2007, bien qu’il s’agisse d’un document riche d’informations.

M. Birraux a observé que cette stratégie se caractérisait pour l’instant par son exhaustivité, et qu’il fallait effectivement reprendre la démarche en partant des objectifs à atteindre. M. Perdrizet a insisté à nouveau sur le besoin d’axes de politique publique forts pour fonder une stratégie opérationnelle. Evoquant une évaluation d’un projet sur la pile à combustible qu’il avait fait réaliser, il a également mis en avant l’importance de la fonction managériale et de sa capacité à faire des choix tactiques, sur la meilleure manière de descendre la courbe d’apprentissage par exemple, pour assurer l’efficacité d’un effort de recherche.

Pour construire une stratégie, il faut aussi partir d’une bonne connaissance du potentiel de recherche disponible, et la réalisation d’un état de ce potentiel n’est pas simple, même au niveau d’un domaine limité comme celui de la recherche en énergie dans le bâtiment. Le rapport de mai 2007 a fait à cet égard un effort méritoire de recensement des acteurs de la recherche, à partir de la page 121. Le PREBAT s’est d’ailleurs attelé à le compléter, pour essayer d’évaluer le poids des forces de recherche par grands thèmes ; il en a déduit le diagnostic que son propre potentiel était assez faible.

M. Leban s’interrogeant sur la manière de mesurer cette faiblesse, M. Perdrizet a mentionné le petit nombre de candidatures en réponse aux appels d’offre lancés par l’ANR, d’autant plus sensible qu’un secteur voisin comme le génie civil est au contraire très correctement couvert. Il a ajouté que cette indigence manifestait un recul eu égard à la situation créée par la réaction au premier choc pétrolier, qui s’était traduite, en France et en Europe, par un renforcement conséquent des moyens consacrés à la recherche sur l’énergie dans le bâtiment. A ce jour, il existe même des créneaux laissés totalement en déshérence, comme l’étude du lien entre la consommation énergétique et l’organisation urbaine : les économistes refusent de s’intéresser à ce type de sujet trop pragmatique, qui appelle pourtant au développement de modèles d’évaluation ; le créneau de l’analyse de l’efficacité des différentes modalités de financement est peu pourvu en experts lui aussi.

M. Birraux demandant une liste des principaux laboratoires avec lesquels le PREBAT travaille, M. Perdrizet en a cité d’abord huit appartenant au secteur public : l’Ecole des mines de Paris, le CSTB, deux laboratoires du CNRS à Poitiers et à Lyon, le Cetiat (Centre technique des industries aéraulites et thermiques), le Costic (Centre d'études et de formation pour le génie climatique) et les laboratoires d’EDF et GDF ; dans le secteur privé, à côté d’un certain nombre de bureaux d’études, les laboratoires de Saint-Gobain. M. Leban s’interrogeant sur la participation effective de ces derniers aux projets du PREBAT, M. Perdrizet a indiqué qu’en dépit de leurs moyens importants, les laboratoires de Saint-Gobain n’étaient guère présents dans les candidatures aux appels d’offre ANR, ne manifestant qu’un enthousiasme limité à l’idée de constituer de lourds dossiers pour finalement travailler avec d’autres acteurs, en dépit de nombreuses sollicitations. A la différence d’Arcelor Mittal, Lafarge, EDF et GDF, Saint-Gobain n’est même pas membre de la fondation « Energie Bâtiment ».

Revenant à ce propos au rapport de mai 2007, M. Perdrizet a estimé qu’il traitait de manière incomplète l’articulation entre les acteurs publics et privés de la recherche, puisqu’il les citait, mais ne proposait aucune analyse de synthèse sur l’état de leur collaboration, ni aucune mesure des contributions respectives des uns et des autres.

M. Ngô a jugé qu’il était assez logique que la compagnie Saint-Gobain n’ait aucune incitation à coopérer avec le secteur public dès lors que ses moyens propres de recherche étaient bien plus importants ; sa propre expérience lui avait montré que les grandes compagnies dans cette position, comme Toyota dans l’automobile, prenait parfois l’initiative de coopérations, mais uniquement avec les laboratoires publics en position de pointe ; dès lors se pose la question de savoir s’il est véritablement utile de renforcer les laboratoires publics d’un niveau moyen. M. Leban rejoignant M. Ngô sur cette analyse, a conclu que l’effort de recherche de Saint-Gobain pouvait peut-être, en théorie, suffire en soi, du point de vue de la stratégie nationale. M. Perdrizet, citant l’exemple des relations des grands constructeurs avec le PREDIT, a montré que ces derniers avaient tout de même intérêt à entrer en contact avec d’autres acteurs de la recherche pour conserver leur dynamisme.

M. Fideli, Secrétaire permanent du PREBAT, a confirmé la position de pointe de Saint-Gobain sur la recherche de nouveaux matériaux, mais a souligné l’active participation de la compagnie aux activités du PREBAT, pour disposer d’une information de première main sur les grandes évolutions du secteur. Car les laboratoires publics conservent un rôle de premier plan en recherche fondamentale, et produisent parfois des technologies de rupture, dont Saint-Gobain a ainsi connaissance au travers des instances du PREBAT, ce qui lui permet d’apporter rapidement un financement de soutien pour la phase de développement.

M. Ngô a émis l’hypothèse que l’absence relative de Saint-Gobain des structures de recherche française s’expliquait peut-être par une préférence pour des partenariats avec des laboratoires étrangers, soulignant la dissymétrie qui permet aux acteurs privés d’aller chercher des partenaires partout dans le monde, tandis que les acteurs publics de la recherche sont cantonnés à des partenariats avec des acteurs privés uniquement français.

M. Fideli a estimé plausible l’hypothèse de liens avec des laboratoires étrangers compte tenu de la surface internationale de la compagnie, et a indiqué que le PREBAT n’avait quant à lui que faiblement développé les partenariats communautaires. M. Perdrizet a confirmé qu’à l’inverse du PREDIT, en relation étroite avec son homologue allemand depuis 25 ans, le PREBAT n’entretient aucun partenariat en Europe, mais que cela correspondait à un état général de la coopération européenne dans le secteur du bâtiment, très faiblement couvert par le PCRD par exemple. M. Fideli a confirmé que les pays membres échangeaient peu dans le domaine de la recherche en énergie sur les bâtiments, ceci pouvant s’expliquer, notamment pour ce qui concerne les recherches sur les bâtiments à énergie positive, par le fort besoin d’adaptation locale de ce type de construction.

En réponse à une question de M. Leban sur les pays à la pointe, M. Perdrizet a indiqué qu’en raison de cette spécificité locale des bâtiments à énergie positive, l’Allemagne n’a pas, dans ce domaine, une position plus forte qu’un autre pays membre, alors qu’elle dispose d’une avance en matière de construction classique.

M. Ngô a contesté l’intérêt de trop pousser les efforts de recherche sur les bâtiments à énergie positive, d’une part parce que les gains à réaliser en termes d’économie d’énergie et de réduction des émissions de gaz à effet de serre doivent concerner prioritairement le parc installé des bâtiments, lequel fait bénéficier toute avancée technique minime de son effet de masse ; d’autre part, parce que le développement d’une capacité décentralisée de production d’électricité ne changera rien à la réalité du climat, qui mettra simultanément tous les bâtiments à énergie positive du même lieu dans la même situation de déficit ou d’excédent d’électricité, créant des effets plus déséquilibrants que stabilisateurs pour la gestion du réseau électrique. M. Perdrizet a observé que cette difficulté disparaîtrait une fois la difficulté du stockage d’électricité surmontée, et qu’en tout état de cause, la recherche sur les bâtiments à énergie positive bénéficiait d’une image très porteuse, permettant de mobiliser des fonds et de faire bénéficier l’ensemble du secteur des avancées réalisées grâce aux moyens ainsi drainés.

M. Leban cherchant à comprendre pourquoi les recherches dans l’amélioration des bâtiments existants restaient très nationales, M. Perdrizet a expliqué qu’il s’agissait de développer des solutions adaptées à chaque climat, ce qui rendait nécessaire, dans un grand pays comme la France, de mettre au point une typologie permettant de différencier les préconisations en fonction des situations climatiques. La recherche doit identifier les verrous de la rénovation, et trouver une solution technologique pour lever ces verrous.

M. Ngô a expliqué que la recherche en matière de rénovation devait aussi intégrer une dimension sociologique forte, puisqu’il fallait éviter de déplacer les habitants en leur imposant, au retour sur les lieux, un logement plus petit du fait de l’épaisseur des isolations installées ; la rénovation doit déranger le moins possible les habitudes de vie, et donc s’effectuer autant que possible depuis l’extérieur des logements.

M. Langlois, constatant que la recherche sur l’énergie dans les bâtiments constitue l’un des volets les mieux couverts par le rapport de mai 2007, a demandé ce qu’il en était de la mise en œuvre des pistes évoquées. M. Perdrizet a évoqué un problème majeur de mise en œuvre, non seulement du fait des ressources financières et humaines supplémentaires à mobiliser, mais aussi en raison de l’adaptation nécessaire de toute la filière de la construction. Aujourd’hui, l’offre de compétences qualifiées pour la rénovation n’existe pas ; le particulier qui souhaite mettre son logement à niveau ne sait à qui s’adresser. La levée des verrous relève donc presque autant de la politique publique que de l’effort technologique. En ce qui concerne l’effort technologique, une évaluation des outils disponibles est en cours, qui devrait permettre d’établir un bilan de l’état de l’art d’ici un an et demi.

M. Ngô a indiqué que la marge de progression se trouvait entre la rénovation ad hoc qui est possible dès aujourd’hui avec la palette des solutions techniques disponibles, et la rénovation de masse à des prix raisonnables. Il a jugé que le coût de 20% du prix du bâtiment souvent mis en avant pour une rénovation est très sous estimé, car la main d’œuvre mobilisée pour l’installation reste très chère. En outre, il a observé qu’il était inutile d’investir massivement dans les économies d’énergie sur le bâtiment, si le surcoût induit repoussait les habitants à la périphérie des villes, plus loin de leur lieu de travail, et les obligeaient donc à circuler en automobile sur des distances plus longues. La stratégie de recherche d’économie d’énergie doit donc intégrer une dimension cruciale d’analyse sociologique.

M. Ngô a ajouté qu’en outre, la charge de la rénovation pèsera in fine sur les habitants, sans qu’il soit certain que tous puissent faire face à cette dépense. Quant aux subventions, elles sont illusoires si elles sont directes, car elles sont récupérées par les vendeurs sous la forme d’une hausse de prix : M. Fideli a indiqué que beaucoup de Français achètent les cellules photovoltaïques en Italie, car leur prix est relevé en France par l’aide fiscale.

En réponse à une interrogation de M. Leban, M. Perdrizet a estimé que les moyens du PREBAT n’étaient pas proportionnés aux besoins en matière de recherche sur les bâtiments, car de nombreux champs restaient encore à couvrir. Ce déficit concerne particulièrement les moyens humains, car même les thésards sont difficiles à attirer sur ces sujets de recherche. M. Perdrizet a dit reprendre particulièrement à son compte la remarque du Haut conseil de la science et de la technologie, dans son avis d’avril 2007 sur l’effort scientifique et technologique de la France en matière énergétique, s’agissant du besoin de renforcer la recherche en sciences humaines et sociales, pour l’étude des adaptations nécessaires à la lutte contre le réchauffement climatique.

M. Fideli a confirmé que la technologie disponible permettait déjà de répondre, au niveau des bâtiments, à l’objectif de diminution par un facteur 4 des émissions de gaz à effet de serre. Le déploiement massif de cette technologie à l’échelle de l’ensemble du parc bute sur des verrous d’ordre sociologique, dont la levée dépend d’une analyse du jeu des acteurs concernés. De là, l’importance des expérimentations en cours, bénéficiant du concours de collectivités locales, car leurs enseignements fourniront des données complémentaires indispensables.

M. Perdrizet a mentionné que, parmi les résultats attendus à l’issue de ces expérimentations, figurait la mise en évidence d’un effet « rebond » sur la consommation d’énergie : la réalisation d’économies importantes va inciter les habitants à utiliser leur chauffage dans des cas où il l’aurait laissé fermé auparavant.

A une question de M. Birraux sur la part prise par les pôles de compétitivité à l’effort de recherche sur l’énergie dans le bâtiment, M. Perdrizet a répondu que seul le pôle de Rhône-Alpes avait un apport significatif, la contribution se limitant ailleurs à certains créneaux.

En conclusion, M. Perdrizet a mentionné que, pour le PREBAT, le Grenelle de l’environnement pourrait avoir un effet de raccourcissement drastique de l’horizon, puisque le Président de la République a annoncé comme objectif, qu’avant 2012, tous les bâtiments neufs construits en France répondront aux normes dites de « basse consommation », et qu’en 2020, tous les bâtiments neufs seront à énergie positive. M. Birraux observant qu’à ces échéances, le réchauffement climatique aura peut-être commencé à faire sentir ses effets, M. Perdrizet a convenu que l’effet d’économie d’énergie du changement climatique sur les besoins de chauffage était rarement pris en compte.

M. Bauquis s’est présenté succinctement en rappelant son parcours d’abord de cinq ans à l’IFP dans l’évaluation économique des nouvelles technologies de l’énergie, ensuite de trente ans au sein de Total, dont vingt ans sur le terrain, puis dix ans à l’état major, en terminant sa carrière au poste de directeur de la stratégie. Depuis sa retraite en 2002, il se consacre à l’enseignement de l’économie de l’énergie, au conseil en financement dans le secteur de l’énergie, et à la rédaction d’ouvrages et d’articles.

A propos du rapport sur la « stratégie nationale » de recherche dans le domaine de l’énergie, il a confirmé l’impression du comité de pilotage qu’il s’agissait d’un état des lieux, d’une somme de constatations plutôt que d’une véritable stratégie.

S’agissant du lien fait par le comité de pilotage entre effort de recherche et effort de formation, il a estimé qu’il était pleinement justifié si l’on considère les effets de synergie qui existent entre un centre de recherche et un centre de formation, à l’image de la performance atteinte par l’IFP, grâce à son couplage avec l’école du pétrole et des moteurs. Il a défendu l’idée que le secteur nucléaire aurait tout intérêt, alors que s’ouvre une période de développement massif de l’énergie nucléaire, à s’inspirer de ce modèle en mettant en place une structure internationale d’enseignement supérieur qui serait adossée au CEA et à Areva. Cette structure aurait vocation à occuper le premier rang mondial en accueillant des élèves étrangers, de même que l’école du pétrole et des moteurs voit la moitié de son effectif composée d’étudiants venant de toutes les parties du monde. M. Bataille, rappelant son expérience dans le secteur nucléaire, a considéré cette idée comme tout à fait judicieuse.

A propos de la manière dont l’effort de recherche français doit s’insérer dans les structures de coopération internationale, M. Bauquis a souligné l’importance de choisir préalablement les axes structurants nationaux, avant de déterminer d’éventuelles participations à des coopérations. Il a mis en avant le risque de comportements purement moutonniers d’imitation en matière de détermination des priorités de recherche, et a cité l’exemple de l’engouement international pour la voiture à hydrogène. Il a estimé que l’analyse des deux contraintes majeures actuelles relatives à la limitation des ressources en hydrocarbures et au changement climatique conduisait à mettre à jour les deux axes essentiels d’adaptation que sont, d’une part les économies d’énergie, et d’autre part, l’extension de l’électrification ; qu’une politique de recherche dans le domaine de l’énergie devait se construire par déclinaison de ces deux principes, notamment dans le domaine du transport ; qu’il fallait en tout cas partir de ces bases pour envisager d’éventuels partenariats.

M. Bataille faisant observer que l’accent mis sur la capture du gaz carbonique semblait justement correspondre mal aux besoins concrets de la France, alors qu’il s’agissait d’un enjeu bien plus évident pour l’Allemagne, M. Bauquis a indiqué qu’un important marché mondial se mettait en place dans ce domaine, et qu’il était assez logique qu’un pays disposant d’une position de premier plan dans le domaine du pétrole, grâce à une « major », un institut de recherche, et une école de rayonnement international, veille, bien qu’il ait lui-même peu besoin de cette technologie, à en acquérir la maîtrise. M. Leban a signalé qu’il fallait peut-être dissocier, à cet égard, l’intérêt de la France de l’intérêt des industriels français.

M. Bauquis a identifié deux champs de recherche critiques sur la capture du gaz carbonique : premièrement, la mise au point de dispositifs permettant, dans des conditions économiques viables, de concentrer les effluents de gaz carbonique pour faciliter leur capture ; deuxièmement, la résistance dans la durée des réservoirs permettant le stockage ; à l’inverse, le transport, et l’injection souterraine utilisent des technologies déjà bien maîtrisées. Il a insisté sur le besoin d’aborder ces recherches en prenant en compte les effets d’échelle, et pour en donner une idée, il a mentionné qu’un dispositif significatif en France, concernant de l’ordre de 20% des émissions, devrait conduire à dégager, annuellement, une capacité de stockage équivalente à celle mise en place par Gaz de France depuis quarante ans pour le méthane. Il a estimé que les efforts actuels, même à l’échelle internationale, ne prenaient pas encore sérieusement en compte ces effets d’échelle, et que le démonstrateur de stockage de Total à Lacq, bien que constituant en soi une avancée, était, à cet égard, d’un apport très relatif. MM. Ngô et Leban ont convenu que, d’une façon générale, ces effets d’échelle étaient cruciaux pour la mise au point de vraies solutions technologiques, y compris par exemple en matière d’économies d’énergie.

S’agissant des modèles étrangers pouvant être pris en exemple par la stratégie nationale française de recherche dans le domaine de l’énergie, M. Bauquis a réfuté le modèle américain, uniquement tourné, depuis le rapport Cheney de mai 2001 sur la politique nationale de l’énergie, sur une augmentation de l’offre, sans d’ailleurs que cette position officielle de l’Administration Bush ait empêché la production d’analyses plus équilibrées dans les milieux universitaires américains ; il a considéré que le modèle allemand souffrait d’un manque de crédibilité, parce qu’ayant à intégrer diverses contorsions prévisionnelles rendues inéluctables par l’arrêt officiel du programme électronucléaire ; là encore, cela n’excluait pas des avancées intéressantes à l’échelle de certains organismes de recherche allemands. Il a jugé que la France pouvait difficilement se comparer à un petit pays comme la Finlande, mais que celui-ci manifestait une très grande autonomie dans sa manière d’aborder les questions énergétiques, ainsi que le démontrait sa position de pointe dans la relance de l’énergie nucléaire en Europe. Il a présenté le Japon comme un pays remarquable ayant réussi à surmonter les handicaps qu’il cumulait en matière d’énergie (aucune ressource propre, un territoire en zone sismique), grâce à une stratégie reposant sur les trois piliers du pétrole, du gaz et de l’énergie nucléaire. Dans le domaine du gaz, le Japon a développé plus qu’aucun autre pays le recours au Gaz naturel liquéfié (GNL). En matière nucléaire, il a su construire des centrales résistant à des séismes graves, et s’allier aux trois consortiums internationaux dominants : Hitachi a un partenariat de longue date avec General Electric ; Toshiba a racheté le constructeur de réacteurs Westinghouse ; Mitsubishi Heavy (MHI) a passé une alliance avec Areva.

MM. Ngô et Leban ayant souligné la capacité des industriels japonais à maintenir des liens rapprochés avec les laboratoires et à convertir ainsi rapidement en atouts commerciaux les résultats de recherche, M. Bauquis a expliqué que ce même constat l’avait amené, en tant que directeur de la stratégie de Total, à encourager les rapprochements avec des partenaires japonais, particulièrement pour le développement du DME (diméthyléther), carburant obtenu par liquéfaction du gaz naturel.

Il a par ailleurs confirmé une observation de M. Bataille concernant la capacité des milieux scientifiques américains à maintenir une activité de veille de qualité dans le domaine nucléaire ; il a signalé que les industriels du secteur avait en outre montré une étonnante capacité à se restructurer puisqu’en vingt ans presque toutes les centrales avaient changé de mains, et que des efforts d’optimisation considérables avaient permis d’augmenter fortement le taux d’utilisation des réacteurs, initialement de 60%, jusqu’à dépasser le niveau français de l’ordre de 85%, ce qui avait permis d’étendre virtuellement le parc nucléaire américain d’environ une vingtaine de centrales. M. Bauquis a noté qu’alors que le rapport Cheney de mai 2001 avait fait l’impasse sur l’énergie nucléaire, l’Administration américaine s’était heureusement rattrapée dans ce domaine en lançant le programme Gen IV.

M. Bataille signalant le relatif pessimisme qui ressort des auditions précédentes en ce qui concerne la possibilité d’une coopération entre acteurs publics et privés pour la recherche dans le domaine de l’énergie, M. Bauquis a indiqué que son expérience montrait que cette coopération avait plutôt bien fonctionné dans le domaine des hydrocarbures. La forte volonté politique qui a présidé à la constitution des grands acteurs du secteur durant soixante-quinze ans s’est accompagnée d’un effort pour les mettre en situation d’animer les efforts de recherche du tissu de PME qui les entouraient, à travers le Fonds de soutien aux hydrocarbures (FSH) et le Comité des Programmes d'Exploration-Production (COPREP).

M. Bauquis a regretté la disparition du COPREP, instrument d’allocation d’aides publiques à la recherche en direction des petites entreprises parapétrolières, au profit du CITEPH (Concertation pour l’Innovation Technologique dans. l’Exploration et la Production des Hydrocarbures), financé par dix grands sponsors industriels avec Total comme chef de file, moins à même selon lui d’apporter un soutien efficace aux PME. Il a estimé que l’État français commettait une erreur stratégique à se désengager ainsi, alors que les ressources en hydrocarbures constitueront encore, en dépit de phénomène du « Peak Oil », un enjeu majeur de la politique de l’énergie au cours des cinquante prochaines années. Il a critiqué la conception selon laquelle une grande entreprise aurait spontanément intérêt à irriguer financièrement le tissu des PME qui l’entoure, dans la mesure où seul l’intérêt à court ou moyen terme de la grande entreprise serait pris en compte dans cette configuration, du fait des contraintes financières qui s’imposent à toute structure privée.

En réaction à l’observation de M. Bataille selon laquelle le même raisonnement rendait très aléatoire le projet de privatiser les grandes entreprises de la filière nucléaire, M. Bauquis a défendu un modèle de détention partielle du capital par l’État, qui avait présidé à la création de Total en 1926, mais qui était aussi celui de la compagnie BP, longtemps possédée pour moitié par l’Amirauté britannique, et qui avait fait ses preuves, car il permettait d’allier les avantages d’une gestion performante et d’une prise en compte des intérêts nationaux de long terme ; en outre, ce modèle assurait une protection efficace contre les menaces d’OPA. Il a regretté la privatisation complète de Total, qui exposait la compagnie à une prise de contrôle hostile, avec le risque qu’elle soit ensuite démantelée, alors qu’une participation très minoritaire de l’État (5%) suffirait probablement à préserver l’investissement public historiquement accumulé par l’entreprise, y compris sous forme de soutiens diplomatiques. Il a estimé que, dans la filière nucléaire, ce modèle d’un contrôle partiel de l’État devait s’appliquer plus à Areva, entreprise porteuse de la technologie nucléaire, qu’à EDF, qui se commuait progressivement en simple utilisatrice de cette technologie.

M. Leban a mentionné la pression exercée par la Communauté européenne, à travers sa politique de libéralisation, en faveur d’une privatisation des opérateurs français de l’énergie. M. Bauquis a estimé que cette politique portait moins à conséquence tant qu’elle ne concernait, pour la mise en œuvre de la séparation patrimoniale (« unbundling »), que le transport d’énergie, dans la mesure où la privatisation du réseau national aboutirait à une sorte de situation d’affermage, permettant une gestion efficace tout en n’interdisant pas un contrôle rapproché des pouvoirs publics, notamment pour orienter les efforts d’investissement. L’absence de risque de délocalisation ou de démantèlement permettrait même d’ouvrir le capital des réseaux de transport de l’électricité et du gaz à des intérêts étrangers, c'est-à-dire de drainer des fonds étrangers, sans inconvénient ou risque majeur. Dans les négociations européennes, une ouverture dans cette direction, au lieu de la position de blocage défendue aujourd’hui par le Gouvernement, permettrait donc à la France de faire bonne figure à moindre frais.

M. Bataille a interrogé M. Bauquis sur le « Peak Oil » (le pic de Hubbert), le connaissant spécialiste de cette question. M. Bauquis a expliqué qu’il avait reçu directement de M. Thierry Desmarest, en 1998, la mission d’explorer ce sujet ; qu’il avait disposé d’une grande liberté pendant six mois pour conduire ses travaux ; qu’ils avaient abouti fin 1998 à la conclusion que le pic, toutes ressources confondues, interviendrait vers 2020, à plus ou moins cinq ans, et correspondrait à un niveau de production de l’ordre de 100 millions de barils par jour. M. Desmarest l’avait autorisé à l’époque à publier son étude, mais ne s’est rallié officiellement à cette même vision qu’en 2006. Entretemps, M. Bauquis n’a manqué aucune occasion de débattre de ses résultats avec des contradicteurs plus optimistes, notamment à l’Agence internationale pour l’énergie, mais chaque fois pour mettre en évidence la fragilité de leurs arguments. Les études de l’IFP ont finalement confirmé ces résultats en juin 2006. L’AIE, sous l’impulsion de M. Mandil, s’est aussi, pour finir, rapprochée de ce point de vue.

La décision de nombre de pays producteurs (OPEP, Russie, Mexique) de préserver leurs ressources pour leurs générations futures va avoir pour effet d’anticiper l’arrivée du pic, et d’abaisser son niveau. Il convient cependant de se réjouir que les tensions ainsi accentuées sur le prix du pétrole, conduisant à son quadruplement depuis 2004, aient permis d’alerter les opinions publiques et les gouvernements sur la nécessité d’adapter les politiques de l’énergie à une raréfaction future des hydrocarbures. L’ajustement sera ainsi moins brutal que celui qu’aurait rendu nécessaire une confrontation encore plus tardive à la réalité du « Peak Oil ».

M. Bataille a demandé à M. Bauquis d’éclairer l’apport des crédits publics du programme budgétaire 188 affectés à la recherche sur les hydrocarbures, bénéficiant au tissu des PME du secteur parapétrolier, ou finançant des programmes impliquant des laboratoires publics. M. Bauquis a choisi de décrire cet apport en considérant successivement les différents maillons de la chaîne pétrolière.

En matière de forage pétrolier, il n’y a plus de grande société française ; l’activité est prise en charge par une succession de petites entreprises, à l’image de Dietswell, qui connaît un grand succès ces dernières années. L’aide publique sert dans ce domaine à la mise au point d’outils ou de procédés que ni Total, ni l’IFP n’ont vocation à financer.

Le métier de la géophysique est dominé par deux entreprises Schlumberger et CGG Veritas. Une filiale de la seconde, Sercel, est leader mondial dans le domaine des équipements sismiques ; elle s’appuie sur un réseau de petites structures développant ces outils avec le soutien public.

Le secteur des tuyaux souples, où la France conserve encore aujourd’hui une position de leader mondial, résulte d’une innovation réalisée avec le soutien d’abord de l’IFP, puis du COPREP, et portée par la société Coflexip (créée par l’IFP) qui s’est développée jusqu’à sa fusion avec Technip en 2001 ; Technip avait elle aussi été créée par l’IFP en 1958. La mise au point des canalisations (pipes) super isolées par ITP Interpipe, s’est faite dans des conditions similaires de soutien public, et le concours de Total.

Dans le domaine du raffinage, la société Axens s’est créée en 2001 par transformation d’un ancien département de l’IFP s’occupant de la commercialisation des procédés mis au point par l’institut. L’idée d’une privatisation complète court actuellement, mais celle-ci serait une erreur, car elle couperait l’entreprise de son assise de recherche. Un désengagement progressif de l’État (via l’IFP), avec finalement le maintien d’une participation publique minoritaire, à l’image de ce qui s’est passé pour les deux autres filiales de l’IFP, Technip et Coflexip, permettrait en outre de limiter les risques d’OPA. [En juin 2007, l’IFP détenait encore 2,9% du capital de Technip, et la part des institutionnels français atteignait 18,6%.]

M. Bauquis a insisté sur le fait que l’industrie parapétrolière française était parvenue au niveau des leaders mondiaux bien que le pays soit lui-même pratiquement dépourvu de ressources pétrolières ; que le soutien public à travers l’IFP, et à travers des structures comme le FSH et le COPREP, instance de coopération entre grandes entreprises et PME du secteur, avait joué un rôle essentiel dans cette réussite. Selon lui, le CITEPH ne semblerait pas en mesure de prendre le relais ; il était illusoire de penser qu’on pouvait soutenir le tissu parapétrolier en passant par le canal des chefs de file, Total et d’autres grandes entreprises du secteur ; il fallait au contraire maintenir une structure de soutien public direct aux PME.

M. Leban a souligné qu’il était important que les pouvoirs publics aient conscience de ces mécanismes à l’œuvre au sein de l’industrie parapétrolière, afin qu’ils puissent faire des arbitrages stratégiques d’allocation des ressources publiques en connaissance de cause.

Revenant sur la question de la capture du gaz carbonique, M. Bataille a rappelé qu’un petit quart des émissions seulement était due à l’activité industrielle, l’essentiel des émissions prenant une forme diffuse, à travers l’utilisation, dans la vie quotidienne, des véhicules de transport ou des équipements du logement ; il a interrogé M. Bauquis sur la pertinence d’une réorientation des aides publiques à l’effort de recherche dans ce domaine vers la diminution des émissions diffuses, plutôt que le maintien d’une focalisation sur la diminution des émissions industrielles.

M. Bauquis a d’abord confirmé le constat sur l’origine des émissions, sa partie diffuse se partageant effectivement à peu près également entre le transport et le logement. Il a ensuite souligné la nécessité d’intervenir par des signaux très forts pour la maîtrise des émissions diffuses, car il s’agit de faire évoluer le comportement d’acteurs économiques qui, à la différence des acteurs industriels, réagissent peu à des variations de prix trop ténues. Il s’agit donc de lancer des signaux très forts au travers des instruments classiques de la puissance publique, de nature soit réglementaire soit fiscale.

Les instruments fiscaux ont pour objectif d’élever sensiblement le coût des émissions. Les calculs classiques, se référant notamment aux solutions de substitution, évaluent le coût d’émission de gaz carbonique aux environs de 20 à 50 dollars la tonne. Or, il faut atteindre un niveau de coût bien plus élevé, plus grand d’un facteur 10, c'est-à-dire de l’ordre de 200 à 500 dollars la tonne, pour obtenir une inflexion du comportement des « émetteurs diffus » que sont les consommateurs (à travers le logement et l’automobile). Sinon, l’impact en termes de surcoût dans les actes de la vie quotidienne est presque imperceptible, de l’ordre de quelques centimes sur la facture, ce qui n’est pas suffisant pour faire évoluer les comportements au moment de l’acquisition d’un véhicule ou d’un équipement de chauffage.

Cependant, la transposition directe de cette analyse au niveau de la fiscalité, ainsi que le préconise d’une certaine manière Jean-Marc Jancovici, risque de placer une certaine partie de la population dans une situation intenable : typiquement, les banlieusards dépendant de l’automobile. En conséquence, il convient de préférer une fiscalité très fortement progressive en fonction des émissions de gaz carbonique. Dans l’automobile, ce dispositif s’appliquerait à la vignette, et devrait atteindre des niveaux marginaux de l’ordre de ceux envisagés en son temps par l’ancien maire de Londres, Ken Livingstone, c'est-à-dire 25 livres (40 euros) par jour, pour le droit d’entrée dans le centre ville des véhicules émettant plus de 225 grammes de gaz carbonique par kilomètre (typiquement les 4X4). En revanche, une hausse de 10 centimes du litre d’essence risque de n’avoir aucun effet sur la préférence d’une certaine partie des automobilistes pour les 4X4.

Au passage, M. Bauquis a signalé qu’il conviendrait d’harmoniser la fiscalité pesant sur le diesel et l’essence, de manière à mettre fin à une distorsion longtemps voulue pour permettre un rééquilibrage du parc français des automobiles entre ces deux filières, car le but a été atteint, et même dépassé, au point maintenant d’entretenir un déséquilibre en sens inverse, puisqu’aujourd’hui, la France importe du diesel et exporte de l’essence (ce qui entraîne des surcoûts pour la collectivité).

Pour le contrôle des émissions diffuses à partir des bâtiments, il faudrait plutôt utiliser les outils réglementaires, et favoriser un nouveau progrès de l’électrification des équipements domestiques. A cet égard, M. Bauquis a rejoint M. Ngô sur la nécessité d’un développement à grande échelle des pompes à chaleur. Cela n’exclut pas de mobiliser d’autres technologies, comme le chauffage solaire, lorsque c’est pertinent … ou de réfléchir aux réseaux de chauffage urbain utilisant la chaleur nucléaire.

Cependant un développement de l’utilisation de l’électricité domestique risquerait d’accentuer le problème de la couverture des pointes de charge. De là, la nécessité de combiner cette avancée nouvelle dans l’électrification domestique avec une avancée parallèle dans l’électrification des automobiles, plutôt d’ailleurs sous forme de véhicules hybrides rechargeables que de petits véhicules « tout électriques ». L’encouragement à l’acquisition de ces véhicules, via une prime, pourrait être financé idéalement grâce aux ressources publiques récupérées par la taxation sur les émissions de gaz carbonique évoquée ci-avant. Le parc automobile français représente une puissance équivalente à 100 fois celle du parc de production d’électricité d’EDF : il constitue en soi une capacité de stockage d’électricité considérable, par rechargement des batteries pendant la nuit, permettant d’assurer une meilleure régulation des pointes. M. Ngô a précisé qu’en termes de consommation les deux parcs étaient équivalents, à hauteur de 500 TWh. M. Leban a observé qu’on retrouvait là l’idée du stockage chez l’utilisateur.

M. Ngô a signalé qu’un développement combiné des biocarburants et des véhicules rechargeables permettrait de diviser par deux la facture pétrolière et les émissions de gaz carbonique. S’agissant de la lutte contre les émissions diffuses, il a indiqué qu’un particulier voulant réduire ses émissions d’une tonne de gaz carbonique par an doit investir 700 euros, investissement sans intérêt si la taxe à acquitter est de l’ordre de 20 dollars la tonne. En ce qui concerne la mise au point de véhicules hybrides, rechargeables ou pas, les constructeurs japonais ont dix ans d’avance, et des moyens considérables pour continuer à investir dans cette direction.

M. Langlois a observé que la subvention accordée aux producteurs d’électricité utilisant des énergies renouvelables, à travers l’obligation de rachat par EDF, n’était en rien modulée en fonction des variations de la demande d’électricité, ce qui avait pour effet d’introduire un élément déséquilibrant supplémentaire dans la gestion des pointes de demande.

M. Bataille a demandé à M. Bauquis quelle place il voyait dans l’avenir pour les nouveaux vecteurs de l’énergie comme l’hydrogène. M. Bauquis a estimé qu’en ce qui concernait les transports, il s’agissait d’une aberration, du fait des limites qui s’imposent à l’amont de la filière, aux trois niveaux de la production, du transport, et du stockage embarqué. Toutes les modalités de production, sauf celles envisagées en couplage avec les réacteurs nucléaires de quatrième génération, produisent d’emblée du gaz à effet de serre, puisqu’il s’agit de casser des molécules d’hydrocarbures pour en éliminer le carbone ; en outre, cette opération mobilise près de deux fois plus d’énergie qu’elle ne permet d’en récupérer sous forme d’hydrogène pur. Le transport de l’hydrogène par canalisation est très peu efficace en comparaison du transport des carburants liquides, du simple fait des lois de la thermodynamique : le coût de la logistique de transport rapporté au coût de l’unité d’énergie transportée est en effet dix fois supérieur, car, pour une même pression, la quantité d’énergie transportée est dix fois moindre. S’agissant du stockage embarqué, il s’effectuerait nécessairement dans des conditions inefficaces, car sa masse correspondrait pour 5% seulement à l’hydrogène, et pour 95% au système d’emballage ou de stockage de cet hydrogène, et ceci, quelle que soit la technologie utilisée (pression hyperbare, hydrures, nanotubes de carbone).

Sur une remarque de M. Bataille concernant les difficultés rencontrées sur le catalyseur de la pile à combustible, M. Ngô a ajouté que le besoin en platine, dans le cas du basculement à l’hydrogène du parc mondial actuel de véhicules, représenterait 280 fois la production annuelle de ce métal. M. Bauquis a observé que néanmoins ce segment final de la conversion en énergie motrice restait le plus crédible de toute la filière de l’hydrogène, la possibilité de cette conversion étant connue depuis le dépôt du brevet du moteur d’Issac de Rivaz en 1805, et que là se trouvait l’origine de l’aveuglement des constructeurs, enclins à faire abstraction des contraintes pesant sur l’amont de la filière, fascinés qu’ils sont par la quête du Graal du combustible propre. Cet aveuglement est entretenu par une conjonction d’intérêts de courte vue : les producteurs d’hydrogène voient dans le développement de « l’hydrogène énergie » des marchés potentiels ; les technologues se font plaisir, et d’ailleurs mettent en place des dispositifs expérimentaux qui fonctionnent. Cependant, la réussite des projets pilotes masque le manque de viabilité économique de la filière complète (combinant un « effet de myopie » et un « effet lemmings »).

M. Bataille a rappelé le canular célèbre de l’ingénieur Jean-Albert Grégoire, dans les années 20, qui avait réussi à faire croire à la voiture au vin blanc. M. Ngô a indiqué qu’il avait découvert, voilà quelques années, une situation d’émulation symétrique auto-entretenue à propos de l’hydrogène : l’équipe d’un constructeur justifiait son effort dans cette technologie par l’intérêt que lui portait le CEA, alors qu’au sein du CEA, la pertinence, pour une équipe, de ce même thème de recherche reposait justement sur l’investissement du constructeur.

M. Bauquis a ajouté qu’une utilisation de l’hydrogène sous forme liquide supposait de permettre une évaporation permanente pour maintenir la température de l’hydrogène liquide, ce qui pouvait poser de gros problèmes de sécurité pour des véhicules terrestres ; qu’il était en outre difficile de satisfaire aux exigences des crash tests avec un réservoir d’hydrogène liquide. La seule utilisation raisonnable pourrait dès lors se faire avec un avion, dont le réservoir occuperait alors le tiers du volume, ou avec des véhicules terrestres sur des niches, avec des parkings dédiés ou une vidange systématique après usage des véhicules. M. Ngô a ajouté que le danger de l’hydrogène était d’autant plus grand qu’il brûlait avec une flamme invisible, uniquement repérable avec un détecteur infrarouge.

S’agissant de l’air comprimé, M. Bauquis a indiqué que c’était un système de stockage d’énergie peu efficace, pouvant à la rigueur être utilisé sur des créneaux très spécialisés, comme la circulation sur les terrains de golf, ou le transport local dans les gares. Mais il devient alors concurrent du moteur à hydrogène, ou mieux, du moteur électrique, qui seul a un large avenir.

M. Duhem, Secrétaire permanent du PREDIT, a indiqué que ce signe signifiait « Programme National de Recherche et d'Innovation dans les Transports Terrestres » ; c’est un dispositif de coordination interministérielle qui existe depuis 1990 ; chaque programme est prévu pour cinq ans ; le protocole d’accord fondant le dernier programme a été signé en mars 2002 par les quatre ministres de la recherche, de l’industrie, des transports, de l’environnement, par deux agences d’objectifs, l’ADEME et Oseo-Anvar ; l’engagement commun porte sur un effort d’investissement dans la recherche et l’innovation de 306 millions d’euros sur cinq ans ; cet argent reste la propriété des signataires qui passent les contrats de recherche en leur nom ; le PREDIT n’a donc pas de moyens propres en dehors d’une ligne budgétaire de 800 000 euros pour des actions d’animation et de communication.

L’intérêt du PREDIT a été souligné par le rapport Chambolle. Il s’agit d’une plate-forme d’expertise pour les financeurs, de concertation entre les acteurs concernés, mais aussi d’information sur les résultats de recherche disponibles, cette information passant notamment par la remise officielle de récompenses.

Le PREDIT a aussi pour vocation de rassembler des données pour aider à l’éclairage des politiques publiques en matière de transports, notamment à travers des études d’impact ou de prospective.

Le PREDIT 3 prend fin en 2008 pour être relayé par le nouveau PREDIT 4, toujours présidé par un parlementaire, Jean-Louis Léonard. Ce nouveau PREDIT intègre des acteurs apparus entre temps : l’ANR en 2005, les pôles de compétitivité en 2006, Oseo-Anvar dans sa configuration élargie par la fusion d’abord avec la BDPME, puis avec l’AII. Il mobilisera 400 millions d’euros sur cinq ans, montant en progression assez sensible notamment grâce à l’apport complémentaire de l’ANR.

La participation de l’Oséo-Anvar se fait dans un cadre de forte confidentialité. D’une part, cette agence gère prioritairement ses projets au niveau des directions régionales, et ne recourt aux experts du PREDIT à l’échelon national qu’en cas de besoin, selon un schéma bottom up. D’autre part, l’agence diffuse peu d’informations sur ses projets à ses partenaires du PREDIT, considérant que, pour une PME, révéler un sujet d’intérêt, c’est déjà prendre un risque stratégique. Cette attitude d’utilisation unilatérale du PREDIT pose d’autant plus un problème que l’agence va élargir encore son assise en assurant la gestion du fonds unique interministériel des pôles de compétitivité à partir de 2009.

Les pôles de compétitivité se sont développés d’abord en dehors du PREDIT, mais un processus de rapprochement est en cours, et désormais le PREDIT émet un avis sur les projets sélectionnés par les pôles. Les présidents des pôles de compétitivité seront membres du Conseil de surveillance du PREDIT 4.

Le PREDIT est concerné par le Grenelle de l’environnement à deux titres, puisque les comités opérationnels ont mis en avant, d’une part, un projet de voiture hybride (comité 8 : « Développement industriel véhicules performants »), et d’autre part, un projet de fonds de démonstration (comité 30 : « recherche »). Mais ces projets ne pourront être pris en compte qu’une fois leurs conditions de financement précisées.

M. Bataille a demandé si l’initiative des projets du PREDIT était gérée de façon centralisée (modèle « technology pushed ») ou à partir de l’expression des besoins des utilisateurs finaux (modèle « demand pulled »).

M. Duhem a expliqué que les structures du PREDIT faisaient une place aux deux mécanismes, car si les projets sont choisis par le comité de pilotage, celui-ci fonde ses décisions sur les analyses d’un conseil d’orientation, instance de dialogue composée de 48 personnalités, dont des représentants des organismes de recherche et d’études et de l’industrie des transports, mais aussi des représentants des utilisateurs, exploitants et entreprises de service, maîtres d’ouvrages publics, associations d’usagers et de la presse. Il comprend en outre les présidents des onze groupes opérationnels, au sein desquels aussi ont lieu des contacts avec les utilisateurs. Ces groupes, composés d’une vingtaine de membres chacun, sont chargés de définir, mettre en œuvre, suivre et valoriser les actions : commandes directes de recherches, appels à propositions, accueil de projets spontanés ; leurs secrétariats sont assurés par des représentants des ministères les plus impliqués dans leurs champs respectifs.

M. Bataille a souhaité savoir si la coopération entre acteurs publics et acteurs privés fonctionnait correctement, et M. Duhem a expliqué que toute la recherche technologique, sous la réserve des projets portés par Oseo-Anvar, s’effectuait en mode coopératif public-privé, puisque c’était là un des principes même du PREDIT. La moitié des projets environ est pilotée par le secteur privé, l’autre moitié par le secteur public.

S’agissant de la coopération avec les partenaires européens, M. Duhem a observé d’abord qu’il s’agissait d’un enjeu important, puisque la France a bénéficié d’un taux de retour de 11% sur le 6e PCRD, qui a alloué de l’ordre de 800 millions d’euros sur cinq ans pour les recherches relatives aux transports terrestres, soit près de 90 millions d’euros à comparer aux 306 millions du PREDIT 3. Il a indiqué ensuite qu’il y avait de moins en moins de partage des tâches au niveau thématique, car tous les pays membres s’investissent sur les mêmes questions, sauf sensibilité nationale particulière, et par exemple les recherches françaises sur les limitateurs de vitesse intéressent peu les Allemands, mais que les complémentarités s’affirmaient plus sous forme d’une hiérarchie géographique des niveaux de coopération : une entreprise qui souhaite développer une compétence va s’appuyer uniquement sur des soutiens régionaux ; si elle souhaite développer sa réputation sur cette compétence, elle va s’intégrer au PREDIT ; si elle souhaite prendre pied dans la compétition internationale, et peser sur l’élaboration de la normalisation européenne, elle va participer au PCRD. Cette hiérarchie des niveaux de coopération s’explique par le besoin de conserver un certain degré de confidentialité sur les recherches, plus facile à assurer dans des coopérations locales ; l’innovation est aussi plus facile à gérer dans des ensembles de coopération plus restreints, alors que les consortiums européens comportent jusqu’à 25 partenaires, parfois même extérieurs à la Communauté européenne (Israël, Canada). Par ailleurs, certains projets comme ceux visant à développer des limitateurs de vitesse n’ont qu’une dimension nationale, parce qu’ils reposent fondamentalement sur un dialogue avec les autorités de la règlementation routière.

M. Bataille s’interrogeant sur la possibilité de canaliser l’offre de recherche, M. Duhem a expliqué que cette canalisation relevait plus de la compétence des autorités de tutelle des organismes de recherche, à travers les contrats d’objectifs, que d’un programme de coordination comme le PREDIT. Il a ainsi été demandé à l’INRETS (Institut National de Recherche sur les Transports et leur Sécurité) de revenir dans le domaine délaissé des transports urbains ou les transports de marchandises. Cela dit, le PREDIT pèse de l’ordre de 20% de l’ensemble de l’effort de recherche française dans les transports terrestres, d’après les estimations faites par le ministère de l’industrie sur les financements privés consacrés à ce domaine (300 millions d’euros par an) ; par conséquent, le PREDIT dispose d’une masse de manœuvre pour l’orientation de l’effort français, qu’il a utilisé pour fixer certaines orientations, en particulier la nécessité de couvrir de manière plus complète les questions de sécurité routière, en faisant appel à des politologues notamment, ou encore la nécessité de développer la capacité d’analyse économique sur les transports ; il s’agit d’attirer sur ces sujets des universitaires qui ne sont pas spontanément attirés par leur dimension très appliquée. Mais la démarche du PREDIT peut être seulement incitative ; par exemple, l’économie de la sécurité routière est encore embryonnaire : on connaît le nombre de morts, mais le nombre de blessés est cent fois plus important, et on cerne mal les conséquences économiques de cette accidentalité ; le PREDIT a préparé pendant une année un appel à proposition pour combler ce manque : il a reçu seulement trois réponses. Désormais, lorsque le PREDIT pressent qu’un sujet ne trouvera pas preneur, il lance un « appel à idée » en préalable à l’appel à proposition, de manière à repérer des équipes de recherche pouvant avoir les compétences utiles. Les thèses peuvent permettre aussi de canaliser des étudiants vers des questions encore peu abordées ; l’ADEME a mis en place pour cela un dispositif de bourse. L’orientation incitative des étudiants est d’autant plus difficile que le fléchissement démographique se fait sentir, dans le secteur des transports comme dans les autres. Le ministère des transports a créé une « Ecole du fret et de l’intermodalité » pour renforcer le potentiel français dans le transport des marchandises.

M. Duhem a rappelé que le PREDIT couvrait le domaine des transports terrestres sous bien d’autres aspects que celui de l’énergie, par exemple la sécurité, le transport des marchandises, l’accessibilité aux handicapés ; qu’il avait soutenu, voilà un an, devant le Haut conseil de la science et de la technologie, qui l’auditionnait pour préparer son avis sur l’effort scientifique et technologique de la France en matière énergétique, que cette logique applicative avait sa cohérence, à côté d’une démarche transversale axée sur l’énergie. M. Bataille a demandé s’il était satisfait de la manière dont ces deux logiques applicative et transversale se coordonnaient. M. Duhem a indiqué que, parmi les dix critères pris en compte pour l’évaluation du PREDIT dans le cadre d’une démarche sur la qualité, l’un concernait justement la coopération avec des programmes extérieurs, et qu’il aurait été possible de faire mieux à cet égard ; deux exemples le montrent : premièrement, en 2004, le PREDIT a décidé, au terme d’une réunion d’évaluation, de mettre fin à un projet de pile à combustible, sur les arguments que son horizon était à trop long terme, qu’il faisait double emploi avec le lancement cette année là du plan PAN-H (plan d'action national sur l'hydrogène et les piles à combustible) du réseau PACo, et surtout que son coût était beaucoup trop élevé : à l’époque, pour la mise en place d’une démonstration sur un bus, la pile coûtait aussi cher que le véhicule ; deuxièmement, les liens de coordination avec le programme AGRICE (Agriculture pour la Chimie et l'Energie), pour l’adaptation des moteurs aux biocarburants n’ont pas été suffisamment resserrés. M. Duhem a fait valoir la difficulté d’assurer une bonne coordination avec d’autres programmes, alors que les interfaces thématiques avec d’autres programmes sont nombreuses, car le PREDIT 3 a comporté jusqu’à 1600 projets de recherche sur six ans, et qu’en pratique, la coordination suppose la participation à de nombreuses réunions.

M. Langlois ayant demandé si le PREDIT avait identifié des domaines de recherche en énergie où il valait la peine d’investir massivement pour mettre au point des technologies de rupture, M. Duhem a indiqué que la tendance était à la diversification des pistes de recherche, après une période désillusion des constructeurs sur les moteurs électriques qui avait abouti à un resserrement des projets exclusivement sur les moteurs thermiques. Au-delà de la France, cette volonté de diversification est portée par le consortium européen des constructeurs, EUCAR. Le PREDIT fera ainsi un effort sur les moteurs électriques et hybrides, avec comme objectif à court terme la diffusion la plus rapide possible du dispositif « stop and start ». Pour le moteur électrique, la technologie « lithium ion » a permis de faire un saut conséquent au niveau des batteries ; mais des recherches doivent se poursuivre.

M. Duhem indiquant que Johnson Controls-Saft a ouvert une usine de production, en Charente, depuis janvier 2008, M. Bauquis a précisé que Batscap, filiale de Bolloré, avait ouvert, presque simultanément, une autre unité de production en Bretagne.

M. Ngô a estimé qu’il restait encore des progrès à faire sur la sécurité de ces batteries, parce qu’il suffisait d’un véhicule électrique qui explose pour remettre en cause toute la filière. Or, une batterie d’un kWh mobilise l’équivalent de l’énergie d’un camion de 10 tonnes qui roule à 100 kilomètres à l’heure ; elle peut donc faire d’énormes dégâts si elle explose ; à cet égard, la batterie d’une automobile n’a rien à voir avec celle d’un téléphone portable. M. Bauquis a estimé que c’est la proportion par rapport au nombre de morts dus aux accidents de circulation qui servirait de référence, une proportion de moins de 10% restant acceptable. M. Duhem a abondé dans ce sens en observant que les moteurs thermiques causent aussi directement des accidents en prenant feu.

M. Duhem a mis en avant les dangers inhérents à l’électrification des véhicules par elle-même, en expliquant qu’une formation spécifique aux dégagements des blessés en environnement électrique avait été mise en place en Poitou-Charente, avec le concours de Toyota. M. Ngô a justifié cette préoccupation en rappelant qu’une Prius comporte des circuits fonctionnant à 500 volts.

M. Bauquis a rappelé que la filière GPL avait beaucoup souffert des accidents de Vénissieux en 1999 et de Mitry-Mory en 2002, et a observé que les accidents avaient un impact très variable selon l’énergie en jeu ; en particulier, la forte mortalité dans les mines de charbon n’émeut personne ; les décès causés par les barrages hydroélectriques sont proportionnellement bien moins médiatisés que les accidents nucléaires. M. Bataille a abondé en rappelant que la chute d’une échelle dans une centrale nucléaire était présentée comme un accident nucléaire.

M. Duhem a expliqué que, dans le cadre de la diversification des pistes de recherche, il y avait encore des perspectives de gain d’efficacité sur les moteurs thermiques : de l’ordre de 25% sur la consommation d’essence, et de 5% sur la consommation de diesel ; que la bataille de l’effet de serre sera d’ailleurs gagnée plutôt sur ce terrain là, en jouant sur les effets de masse du parc traditionnel, plutôt que dans la mise au point de prototypes vendus à quelques milliers d’exemplaires.

M. Bauquis s’est interrogé sur la pertinente de l’alternative présentée, en ce qui concerne l’effort de recherche, entre les moteurs électriques et les moteurs hybrides. Même les constructeurs raisonnent comme cela, alors que, selon lui, le véhicule hybride rechargeable constitue de toute évidence la solution la plus adaptée à long terme. En particulier, le recours au moteur électrique pour les trajets de moins de 30 km, ce qui correspond à environ 100 kg de batteries, permet d’économiser la moitié de la consommation de carburants pétroliers. M. Duhem expliquant que l’effort engagé sur ces deux axes convergera dans un second temps vers la mise au point du véhicule hybride rechargeable, M. Bauquis a estimé qu’il fallait renverser ce raisonnement, inscrire comme priorité absolue de recherche le véhicule hybride rechargeable, et profiter des retombées de cette recherche pour améliorer, dans un second temps, les véhicules électriques et hybrides.

MM. Ngô et Bauquis ont signalé que le véhicule hybride rechargeable permettrait d’abaisser la consommation automobile à moins de deux litres au cent kilomètres, ce qui justifiait une intervention de la puissance publique pour aider les constructeurs à surmonter leurs réticences à développer une technologie qui mettra du temps à s’imposer commercialement, comme l’illustre l’exemple de la Prius, longtemps déficitaire, mais qui fait gagner aujourd’hui de l’argent à Toyota.

M. Langlois a expliqué qu’il partageait avec M. Bauquis l’idée d’établir une taxation sensible de l’émission de gaz carbonique, dont d’ailleurs l’effet incitatif était d’avance démontré par le succès des petits véhicules ; le financement ainsi dégagé serait utilisé au développement de deux filières complémentaires réduisant le recours aux carburants fossiles : l’une pour le véhicule quotidien ; l’autre pour le véhicule des vacances. Il s’agirait de rompre à des fins d’efficacité sociale la relation univoque : un individu – une automobile ; les véhicules pourraient même alors être seulement empruntés, sur le mode des Velibs parisiens.

M. Duhem a confirmé effectivement que les études au sein du PREDIT avaient montré que l’atteinte de l’objectif du « facteur 4 » ne pourrait se faire dans les transports qu’à hauteur d’un facteur de 2,5 par la technologie ; le complément de 1,5 dépendant d’une adaptation des comportements, ou encore de l’aménagement urbain.

M. Ngô a contesté la possibilité d’atteindre cet objectif sans restriction sensible du niveau de vie, le seul précédent historique réussi en ce domaine étant la période de la dernière guerre mondiale, avec son rationnement. Il a estimé qu’au mieux un facteur 2 pourrait être atteint dans le domaine des transports, le facteur 4 pouvant être atteint dans les bâtiments, grâce en particulier à la diffusion des pompes à chaleur. Au total, compte tenu des modes de production de l’électricité, sans émission de gaz carbonique à hauteur de 90%, l’économie française ne peut compter à terme au mieux que sur un facteur 2.

M. Langlois a mentionné l’atout que représentait le renouvellement du parc pour permettre des évolutions technologiques relativement rapides, sur une décennie, dans le secteur des transports, atout jouant beaucoup moins dans le secteur du logement. M. Bauquis a indiqué que les pompes à chaleur sont peu efficaces dans les bâtiments anciens souvent très mal isolés. M. Leban a jugé, avec M. Ngô, que la mise à niveau technologique du parc ancien était possible, mais butait sur les coûts de transaction, c'est-à-dire, soulevait des problèmes de financement et d’organisation.

S’agissant de l’avenir des carburants fossiles dans le bilan énergétique global des transports, M. Leban a indiqué qu’une disparition totale n’était guère envisageable avant longtemps, et M. Bauquis a mentionné que ses analyses leur réservaient une part d’un quart de la consommation totale à la fin du XXIe siècle, les trois autres quarts allant à l’électricité, aux biocarburants, et aux carburants de synthèse ; à terme, le développement de la production de l’hydrogène servira essentiellement, selon lui, à la formation des carburants de synthèse.

M. Duhem a signalé son scepticisme à l’idée d’une dissociation du parc automobile en deux catégories de véhicules, dans la mesure où le monde urbain s’étend de plus en plus jusqu’à constituer des régions urbaines, où les distances à parcourir ne sont plus si courtes. Il a également émis des doutes sur la pertinence de l’établissement d’une taxe protégeant le centre ville des émissions de gaz carbonique, en raison des effets de déplacement d’activités économiques sur la périphérie qu’un tel dispositif pourrait produire ; de ce point de vue, ce qui peut paraître pertinent pour le cœur de Londres qui est un centre financier homogène (la City), paraît moins adapté pour le cœur de Paris où l’activité économique prend des formes plus variées. Il a rappelé le débat équivalent qu’avait suscité l’idée du maire Michel Destot d’établir, sur les autoroutes d’accès à Grenoble, un péage très proche de la ville, pour la protéger de la circulation.

M. Bauquis a défendu l’idée que la dissociation du parc automobile pouvait s’opérer en parallèle avec l’évolution des technologies, le Japon démontrant que ces deux phénomènes sont indépendants, puisque la dissociation s’y opère avec une même technologie, en l’occurrence celle de l’essence traditionnelle, le recours aux petits véhicules s’y développant fortement depuis cinq ans, jusqu’à atteindre 40% des ventes.

M. Duhem ayant évoqué le report modal comme autre mode d’adaptation, M. Ngô a fait observer qu’un tel dispositif ne pouvait fonctionner que si, d’une part, l’accessibilité en est assurée par des parkings de taille suffisante, d’autre part, la fréquence de circulation des transports collectifs est suffisante ; quant à la mise à disposition partagée de véhicules, elle suppose elle aussi que ceux-ci soient en nombre suffisant pour rendre le service rapidement disponible.

M. Duhem a évoqué une étude conduite par le PREDIT en collaboration avec son homologue allemand qui concluait à privilégier la proximité de l’habitat autour des gares, permettant une circulation à pied ou en bicyclette, plutôt que la construction de parkings. M. Ngô a objecté le coût et le délai d’une telle solution.

M. Bataille a conclu l’audition en observant que le problème du délai d’attente à l’accès au report modal prenait une forme aiguë à Paris en ce qui concerne les taxis.

M. Jean-Marie Chevalier a rappelé le contexte d’urgence créé par la pression sur la demande d’énergie au niveau mondial et le besoin de lutte contre le changement climatique. Il a souligné à cet égard la grande qualité du rapport Stern d’octobre 2006 qui a constitué un moment de cristallisation de la prise de conscience par la communauté des économistes de la gravité de la situation.

S’agissant des axes stratégiques d’une politique de recherche en réponse à ces défis, il a évoqué plusieurs points :

- d’abord, il a mentionné l’incertitude très grande de l’environnement économique, qui rend très hypothétique toute démarche d’optimisation sous forme d’un dimensionnement au plus juste des investissements en termes d’effort de recherche ; il vaut mieux essayer de définir des axes, et s’y tenir ; cette incertitude milite d’ailleurs pour une certaine diversification des pistes envisagées ; au passage, il a observé que l’entrée dans une phase de ralentissement économique faciliterait la gestion des questions énergétique et climatique ;

- ensuite, il a insisté sur le temps de retard qu’auront les solutions technologiques (énergie nucléaire de 4e génération, pile à combustible, a fortiori fusion nucléaire) par rapport à l’imminence des crises énergétique et climatique ;

- par ailleurs, la relance de l’énergie nucléaire aux États-Unis, au Royaume-Uni, en Chine ne suffira pas non plus pour répondre à l’urgence de la situation ; elle ne donnera lieu à l’installation de capacités nouvelles qu’à partir de 2020 ; même si cela concerne 20 à 30 centrales en Chine, la part de l’énergie nucléaire y restera marginale, passant de moins de un pourcent à trois ou quatre pourcents de la demande d’énergie primaire ;

- dans l’attente de l’arrivée des solutions technologiques, les principaux leviers d’action disponibles sont, d’un côté, la maîtrise de la demande d’énergie, de l’autre, l’augmentation de l’efficacité énergétique ; un gisement d’efficacité énergétique réside notamment dans l’application plus massive des nouvelles technologies de l’information au secteur de l’énergie (les « réseaux intelligents »). L’AIE met beaucoup l’accent sur l’efficacité énergétique, éditant en 2005 des rapports aux titres éloquents à cet égard (« Saving Oil in a Hurry », « Saving Electricity in a Hurry ») ; elle s’efforce de recueillir et diffuser les « best practices » allant dans ce sens ;

- pour obtenir une évolution des comportements, et une incitation décentralisée à investir tant en faveur des économies d’énergie que pour la limitation des émissions de gaz à effet de serre, l’ajustement des prix de l’énergie est indispensable ; c’est un mécanisme d’adaptation dont la brutalité doit éventuellement être corrigée pour les populations à faible revenu. Avec la mise en place du marché unique, les prix français vont de toute façon tendre à s’aligner sur les prix européens ;

- la piste du développement de l’énergie solaire pourrait faire l’objet d’un effort plus accentué, car elle est porteuse de potentialités importantes à relativement court terme ; il ne s’agit pas d’une solution réservée aux pays tropicaux, car l’ensoleillement ne varie au plus que d’un facteur trois d’une zone à l’autre du globe ; il existe des marges de progression conséquentes sur les films photovoltaïques ; enfin, un soutien à ce secteur pourrait demeurer très ciblé.

S’agissant du nécessaire ajustement des prix de l’énergie, M. Bataille a observé que la perte de la rente nucléaire au niveau du consommateur risque de remettre en cause l’acceptation de la filière électronucléaire par la population française.

M. Jean-Marie Chevalier a souligné le foisonnement actuel des entreprises innovantes en matière énergétique en Californie, les « Clean-Tech », s’appuyant sur des investisseurs en capital-risque, phénomène assez comparable à ce qui s’y est produit auparavant avec les nouvelles technologies de l’information.

M. Pierre-René Bauquis, ayant lui-même un pied dans le secteur de la création d’entreprises se consacrant aux nouvelles technologies de l’énergie, a estimé que ce phénomène des « CleanTech » correspondait dans la grande majorité des cas à une supercherie. Par ailleurs, il a contesté que la Californie puisse servir de modèle dans le domaine de la politique de l’énergie, après les défaillances mises à jour par les « black out » de 2000.

M. Jean-Marie Chevalier a expliqué qu’il faisait référence à des évolutions datant des toutes dernières années.

M. Birraux constatant que la « stratégie nationale » de mai 2007 ne mettait pas en avant de véritables priorités, et s’interrogeant sur l’apport complémentaire des travaux du comité opérationnel sur la recherche dirigé par Mme Marion Guillou, M. Abadie a indiqué qu’il avait lui-même découvert a posteriori ce document, puisqu’il n’avait pris ses fonctions à la tête de la Direction de la demande et des marchés énergétiques (DIDEME) qu’en juillet 2007, après une expérience de plusieurs années au cabinet du ministre de la défense ; qu’il présentait l’avantage de faire un état des lieux complet, mais avait effectivement trois défauts dont il serait tenu compte pour sa révision : un trop grand foisonnement des pistes envisagées ; l’absence d’une feuille de route, avec des repères temporels, selon la technique des « roadmaps » en usage dans la programmation militaire ; l’omission de la dimension industrielle de la recherche.

M. Abadie a estimé que le travail du comité opérationnel sur la recherche constituerait une avancée sur trois plans : d’abord au niveau des moyens, puisqu’une des missions du comité est de définir le meilleur moyen d’utiliser le financement supplémentaire pour la recherche annoncé par le Président de la République lors de son discours du 25 octobre 2007 de restitution des conclusions du Grenelle de l’environnement ; ensuite, au niveau des méthodes, puisque la démarche, par un souci d’efficacité, s’inscrit d’emblée en cohérence avec le calendrier budgétaire, de manière à avoir une traduction concrète rapide ; au niveau des outils, enfin, puisque la définition des nouvelles priorités donnera lieu à un ajustement des contrats d’objectifs des grands établissements de recherche, et que les instruments de pilotage de la recherche (ANR, grands établissements, pôles de compétitivité) seront complétés par un fonds pour les démonstrateurs.

M. Abadie a précisé que le secrétariat de ce fonds sera confié à l’ADEME, qu’il y aura un choix a priori, par un panel d’experts, des projets soutenus, selon une logique « Top-Down », que la cohérence de la feuille de route, et notamment l’intégration dans une démarche de développement industriel, seront au premier rang des critères de sélection. Le soutien accordé sera dimensionné pour demeurer en deçà du montant rendant nécessaire une autorisation au cas par cas de la Commission européenne (10 millions d’euros pour la recherche industrielle).

M. Birraux a observé qu’il faudrait faire attention à ce que ce fonds ne devienne pas captif de certains intérêts industriels. M. Abadie a signalé que l’activisme des promoteurs de la capture du CO2 (Alsthom) avait été jusqu’ici endigué.

S’agissant de l’intérêt pour la France d’investir dans la technologie de la capture du CO2, M. Abadie a expliqué qu’il était revenu à cet égard d’un premier mouvement qui la lui faisait voir comme une invention Shadock, car il lui semblait important que l’industrie française puisse mobiliser ses atouts dans un domaine d’envergure internationale, qui intéresse les opérateurs français de l’énergie pour leurs activités à l’étranger, mais aussi d’autres acteurs industriels comme les sidérurgistes et les cimentiers. Le problème est d’ailleurs d’une ampleur telle, ne serait-ce que pour installer des démonstrateurs, que l’effort français n’aura de sens qu’en liaison avec une large coopération internationale. L’État ne pourra pas être le seul bailleur de fonds.

M. Abadie a décrit la réorganisation en cours au Ministère de l’écologie, de l’énergie, du développement durable et de l’aménagement du territoire (MEDAD), faisant apparaître, en lieu et place de dix directions, cinq pôles, dont une nouvelle direction générale sur l’énergie et le climat, qui englobera les activités de l’État visant aux économies d’énergie dans le transport et l’habitat. La nouvelle structure continuera à piloter la recherche dans le domaine de l’énergie en coordination avec la direction générale de la recherche et de l'innovation (DGRI) du ministère de l’enseignement supérieur et de la recherche.

A une question de M. Birraux sur la coopération de l’effort de recherche entre secteur public et secteur privé, M. Abadie a reconnu qu’il s’agissait d’un problème par nature assez complexe, sur lequel certains progrès étaient possibles. Ainsi le crédit d’impôt, dans sa forme nouvelle, constitue un instrument de pilotage de l’effort du secteur privé ; et le fonds de démonstration fonctionne par définition dans le cadre d’un effort financier combiné des deux secteurs ; enfin, dans le domaine de l’énergie, certains acteurs de poids, pouvant générer des effets d’entraînement, appartiennent encore à la sphère publique, comme EDF, quoique leur engagement se trouve de plus en plus encadré par les règles de la concurrence.

S’agissant de l’articulation entre le niveau national et le niveau communautaire pour structurer l’effort de recherche, M. Abadie a salué l’effort de programmation stratégique effectué par la Commission européenne à travers le « SET Plan ». Il a estimé que la mise en œuvre de celui-ci se ferait surtout, dans un premier temps, par une mobilisation combinée des crédits publics nationaux et communautaires, mais qu’à terme les ressources de financement devraient s’accroître de l’attribution par voie d’enchères des quotas de CO2.

M. Cyrille Vincent, développant plus particulièrement la problématique de la coopération internationale pour la recherche dans le domaine nucléaire, a indiqué qu’elle se révélait indispensable puisqu’elle permettait un partage non seulement de l’effort financier, mais aussi des risques, et qu’elle contribuait à l’acceptation sociale de l’énergie nucléaire en évitant un isolement susceptible d’être mal interprété. Il a signalé les deux limites de la coopération : d’une part, la concurrence industrielle, qui restreint sa portée au domaine de la recherche fondamentale, car aussitôt que des solutions technologiques sont en jeu, l’intérêt économique lié à la propriété intellectuelle empêche la poursuite d’une collaboration ouverte, sauf au sein de partenariats bilatéraux juridiquement encadrés, sur des sujets assez étroits éventuellement ; d’autre part, la territorialité des questions à traiter, comme celle typiquement du stockage des déchets nucléaires. M. Vincent a estimé que, si des tiraillements commençaient à se faire sentir dans le cadre du programme international Gen IV, ce qui imposait un repli sur des partenariats bilatéraux par projet, la coopération de la recherche sur les réacteurs nucléaires se poursuivait sans difficulté au sein de la Communauté européenne, la Commission européenne aidant à surmonter certaines réticences d’États membres, notamment depuis septembre 2007 par son soutien à la plateforme SNE-TP (Sustainable Nuclear Energy Technology Platform), et le traité Euratom garantissant la poursuite des efforts engagés, puisque fonctionnant selon la règle de l’unanimité.

A une interrogation sur les modèles étrangers de pilotage de l’effort de recherche en énergie, M. Abadie a répondu en soulignant l’aptitude du DOE américain à organiser son action à partir de feuilles de route (« Road Maps »).

S’agissant du besoin d’une importante main d’œuvre qualifiée pour mettre en service et maintenir les technologies de l’énergie dans le secteur du bâtiment, M. Abadie a indiqué que cette mobilisation allait de pair avec une standardisation de l’offre de solutions techniques, plus facile évidemment à obtenir dans le secteur des bâtiments neufs ; que le MEDAD avait déjà pris contact avec différentes structures professionnelles pour étudier le moyen de renforcer la formation des artisans : le Centre scientifique et technique du bâtiment (CSTB), ou l'Agence nationale de l'habitat (ANAH) ; que l’effort de formation correspondant pourrait être géré par les organisations professionnelles d’artisans, dès lors que la transition à opérer ne serait pas trop rapide. M. Abadie a estimé que les professionnels du diagnostic auraient aussi un rôle crucial à jouer pour orienter l’effort des particuliers dans l’aménagement de leur habitat ; que les ressources dégagées par les pénalités versées au Trésor public en cas de non respect des objectifs à atteindre en termes de certificat d’économies d’énergie pourraient servir à soutenir les efforts de formation de l’ensemble des professionnels concernés. Pour bien montrer que le Gouvernement avait bien perçu l’enjeu d’une mobilisation des métiers du bâtiment, et l’intérêt d’assurer le suivi des filières des technologies de l’énergie jusqu’au niveau du client final, il a signalé que, dans le cadre de la réorganisation de l’administration gérant les questions d’énergie au MEDAD, la piste avait été explorée de rattacher la sous-direction de la construction à la direction de l’énergie ; celle-ci est finalement restée au sein de la direction de l'habitat, de l'urbanisme et des paysages ; mais une structure de projet pourra toujours permettre, de surcroît au sein du même ministère, de combiner les efforts administratifs nécessaires pour faire face à cet enjeu.

S’agissant du besoin de gestion managériale des projets, de manière à opérer en cours de route des réorientations qui permettent d’atteindre plus efficacement les objectifs fixés, M. Abadie a expliqué qu’il s’agissait d’une préoccupation assez inédite dans le domaine de la recherche en énergie, où les projets sont le plus souvent en phase initiale, mais qu’il pouvait se manifester plus concrètement dans le cadre de programmes ayant plus d’antériorité comme ceux du PREDIT ou du PREBAT ; en l’occurrence, la démarche consistant à lancer les projets dans un cadre coopératif pour ensuite en confier la responsabilité plus particulière à un membre du consortium semble répondre au besoin. Par ailleurs, M. Abadie a expliqué, s’appuyant sur son expérience au ministère de la Défense, qu’il existait un risque à déléguer trop tôt la gestion de projet à un organisme ayant une capacité de pilotage, même si c’était là un moyen probablement efficace pour atteindre des résultats plus rapidement, car un pilotage monocolore trop précoce peut empêcher l’exploration de voies alternatives techniques intéressantes.

M. Langlois s’est interrogé sur le fait qu’à côté de l’affichage du respect de grands objectifs fixés par l’Union européenne, comme celui relatif à la diminution d’émission de CO2, la DGEMP produit des « scénarios de référence » qui s’en écartent très fortement. M. Abadie a expliqué que les « scénarios de référence » étaient préparés par l’Observatoire de l’énergie, organisme totalement intégré au sein de la DGEMP, mais avaient justement pour fonction de mettre en évidence les conséquences à moyen terme des écarts actuels par rapport aux objectifs fixés, de manière à mieux montrer l’impact des politiques correctrices.

M. Ngô a demandé s’il existait une réflexion sur l’optimisation, du point de vue des économies d’énergie et des émissions de CO2, de l’ensemble combiné du transport et de l’habitat, la reconstruction d’une maison plus performante plus loin, par exemple, faisant perdre sur le transport ce qu’on gagne sur l’habitat ; la dissociation du PREDIT et du PREBAT ne semble pas favoriser pas ce type de réflexion combinée ; il a par ailleurs souligné le gain potentiel pouvant être retiré d’une action d’efficacité énergétique à travers la rénovation du parc ancien, concernant cent fois plus de logements que la construction neuve. M. Abadie a indiqué que la préparation d’un plan massif de rénovation avait commencé avant même que les travaux du Grenelle de l’environnement ne soulignent son urgence ; que cette préparation, qui avait fait la matière du rapport Pelletier de janvier 2008, avait souligné la nécessité de combiner les outils de l’incitation financière (prêt bonifié, crédit d’impôt) et de la réglementation technique, la seconde fonctionnant comme un couperet en complément de la première. Il a reconnu que les mesures d’incitation financière avaient souvent jusque là péchées par leur précarité dans la durée, les réformes se succédant rapidement dans ce domaine ; il a indiqué que les réflexions en cours privilégiaient un ciblage plus poussé des incitations financières, et recherchaient le moyen de mettre en adéquation les besoins de financement avec les montants d’économie réalisés à terme.

S’agissant de l’optimisation de l’ensemble combiné du transport et de l’habitat, il a observé qu’elle était pour l’heure difficile puisque le MEDAD lui-même poursuivait des objectifs contradictoires à cet égard, comme l’encouragement de l’accession à la propriété, qui multiplie les maisons individuelles au détriment de l’efficacité énergétique. La solution de la densification de l’espace de vie est du reste rejetée par la population française. Une réflexion autour des « éco-quartiers » s’impose donc effectivement, qui reste entièrement à structurer, et qui pourrait relever d’une instance en charge de questions transverses comme le Commissariat général au développement durable. Cette réflexion se complexifie d’ailleurs considérablement si l’on étend la recherche d’optimisation à d’autres flux, comme celui des eaux usés, qui ont aussi un potentiel calorifique.

M. Bauquis, revenant sur le constat de M. Langlois, s’est déclaré étonné de la capacité des pouvoirs publics à produire des études successives qui semblent ne pas tenir compte d’objectifs politiques forts affichés antérieurement, y compris par le Président de la République, comme la réduction d’un facteur 4 des émissions de gaz à effet de serre ; il a indiqué faire référence au plan EDF-DGEMP qu’il avait eu l’occasion de critiquer dans un article de mai 2006 : le plan EDF-DGEMP analysait l’impact, après la construction d’un premier EPR, d’une disparition progressive par vieillissement du parc nucléaire, et d’une montée en puissance d’un parc de centrales thermiques au gaz représentant jusqu’à 50% de la production électrique en 2030.

M. Bauquis a soutenu ensuite la nécessité, au-delà des décisions stratégiques prises au niveau politique, de mettre en place une capacité de pilotage des projets de recherche sur la base d’une véritable compétence technique, allant jusqu’à la maîtrise de l’intégration. Il a rappelé le modèle de la COPREP dans le secteur pétrolier, qui conduisait à confier le pilotage des recherches sur les hydrocarbures aux industriels du secteur, avec Total et l’IFP comme chefs de file, le tout sous le contrôle de l’État, légitimement soucieux du bon usage des crédits du FSH (Fonds de soutien des hydrocarbures).

Il est revenu enfin sur le modèle américain de stratégie énergétique pour constater que, sur la trentaine d’années écoulées, les options prises se sont révélées contreproductives. Dans le domaine nucléaire, les Américains ont certes à leur actif le choix des filières à eau légère, et l’initiative de la coopération pour la génération IV, mais ils sont obligés de revenir aujourd’hui sur l’abandon du retraitement des combustibles usés, l’hostilité au MOX, et ils ont pris du retard sur les Européens pour la technologie d’enrichissement par centrifugation ; en outre, leur attitude vis-à-vis d’ITER a été très fluctuante. Dans le domaine pétrolier, la technologie de l’off-shore profond est dominée par les Européens, qui ont pris le pas sur McDermot ; celle des sables bitumineux est dominée par le procédé SAGD canadien (Steam-Assisted Gravity Drainage - drainage par gravité au moyen de la vapeur). Pour les schistes bitumineux, les technologies utilisées par la compagnie Unocal (Union Oil of California) à Green River Basin (Colorado), largement financées sur fonds publics, ont mené à un échec et à l’abandon en 1985 du soutien fédéral à travers la Synthetic Fuels Corp, qui fut au total une catastrophe économique et écologique. Les technologies de l’exploration sismique sont dominées par une société française, CGG Veritas et une société franco-américaine, Schlumberger. Dans le domaine des énergies renouvelables, la politique américaine concernant le bioéthanol semble, elle aussi, aboutir à une impasse. Les États-Unis, bien qu’utilisateurs massifs du charbon, n’ont pas de véritable programme sur la capture du CO2, à part quelques recherches sur les membranes permettant de séparer le gaz carbonique. Au total, le DOE conduit une démarche assez désordonnée, et les initiatives américaines intéressantes sont le fait d’industriels, d’universités ou d’organismes de recherche opérant de manière indépendante.

M. Birraux a appuyé la conclusion de M. Bauquis en mettant à la décharge du DOE, d’une part les errements du président Carter, et d’autre part, la démarche trop intéressée de certains membres influents du Congrès, faisant notamment fi de l’avis des populations pour imposer le lieu de stockage des déchets nucléaires à Yucca Mountain (Nevada).

M. Abadie a indiqué que sa référence au modèle américain concernait surtout la justification de l’importance d’un démonstrateur dans le cadre d’une démarche de recherche, notamment comme moyen d’assurer une implication forte des industriels. Il s’est déclaré ouvert à des informations sur les modèles étrangers de gestion de la recherche en énergie.

M. Bauquis a signalé l’intérêt du modèle du Japon, mis en œuvre dans un contexte voisin de celui de la France pour ce qui concerne l’absence d’atouts énergétiques naturels, qui a permis à ce pays, moyennant une forte dose d’interventionnisme, comme la France au cours des deux décennies de l’après-guerre, de prendre des positions fortes dans le domaine nucléaire et même, pour quelques niches, dans le domaine pétrolier et dans celui du GNL (gaz naturel liquéfié).

M. Leban a observé que le Japon alliait une pertinence de ses choix stratégiques à une capacité à orienter efficacement l’effort de recherche du secteur privé, ce qui signifiait une qualité du pilotage au niveau de la mise en œuvre de la politique publique définie. M. Birraux a conclu en confirmant qu’une bonne stratégie de recherche devait dégager des priorités pertinentes, mais que celles-ci devaient ensuite être bien mises en œuvre, et que cela supposait la mobilisation d’un management compétent sur le fond.

M. Moisan a présenté l’ADEME à travers les grandes lignes du contrat d’objectif de l’établissement pour la période 2007-2010.

L’ADEME, placée sous la double tutelle des ministères de la recherche et de l’écologie, exerce quatre métiers résumés en quatre formules : connaître (recherche et observation) ; convaincre (sensibilisation du public, des professionnels, des collectivités locales) ; conseiller (mission la plus mobilisatrice, s’exerçant auprès de l’État ou des collectivités locales) ; aider à réaliser (qui va de l’aide à la décision à l’aide à la mise en place de démonstration).

Son budget, en matière de recherche (hors fonds démonstrateur) est d’environ 50 millions d’euros par an, dont 30 à 35 millions consacrés aux nouvelles technologies de l’énergie. Les soutiens accordés par l’ADEME vont pour les deux tiers aux industriels, le tiers restant allant à la recherche publique.

En matière de recherche, l’ADEME n’a pas de laboratoire propre. Elle est amenée à faire des appels à proposition et à labelliser certains projets de recherche. Elle se place délibérément à l’interface entre recherche publique et recherche privée, dans une perspective de développement industriel, et dans un continuum d’interventions allant jusqu’à la diffusion sur les marchés. Ces interventions prennent diverses formes :

- l’animation. Cela concerne des réseaux de recherche (PREDIT, PREBAT, mais aussi le Club CO2 créé en 2001), des pôles de compétitivité, des actions régionales ; le Club CO2 comprend des grandes entreprises comme Arcelor, Alsthom, Lafarge, Saint-Gobain, et s’élargit constamment ;

- la mise en œuvre de démonstrateurs. L’ADEME a milité depuis juillet 2007 pour un soutien public spécifique dans ce domaine. Il prendra la forme d’un fonds dédié de 400 millions d’euros pour quatre ans, dont l’ADEME assurera la gestion. Le choix des projets sera confié à un comité de pilotage, dont les décisions seront notifiées à la Commission européenne si elles correspondent à un engagement financier de plus de 7,5 millions d’euros. Le démonstrateur de recherche se différencie de la démonstration, étape de validation finale en grandeur réelle, en ce que le premier concerne une maquette à l’échelle 1/10 et vise à détecter des besoins de recherche complémentaires. Il constitue déjà néanmoins en soi une référence nationale pouvant aider les entreprises concernées à prendre position vis-à-vis des marchés futurs, notamment d’exportation (Alstom, pour le domaine de la capture du CO2 par exemple)..

- le financement de bourses de thèses. Environ 80 thésards en bénéficient chaque année, en général cofinancées par d’autres acteurs publics ou privés qui ont la possibilité ensuite de les embaucher pour renforcer leur potentiel de recherche ;

- l’évaluation de la performance des technologies en situation réelle, par exemple des filtres à particules sur des véhicules en condition réelle de circulation ;

- le soutien à l’ouverture des marchés, dont il est important qu’il soit intégré à la stratégie de recherche. Ce soutien conduit à créer des niches de rentabilité le long de la courbe d’apprentissage, de manière à permettre à l’innovation de pénétrer plus rapidement les marchés. La création de ces niches se fait, par exemple par la mise en place de tarifs de rachat, par des commandes publiques des collectivités locales, ou des subventions. Grâce aux espaces de marché ainsi créés, les entreprises peuvent commencer à produire et à baisser les coûts. Ce soutien à l’ouverture des marchés doit être engagé au bon moment, car il peut être très coûteux s’il est prématuré. Mais typiquement, c’est ce genre d’interventions qui a permis à certains pays (Allemagne, Japon) de se trouver à la pointe du développement de l’énergie photovoltaïque. La démarche là est très différente de celle des grands projets technologiques dont l’essentiel de la R&D se fait dans les laboratoires publics et qui passent directement du stade de la recherche à celui de la mise en œuvre industrielle, sans transition sous forme d’une politique de niche.

M. Moisan a resitué le rôle de l’ADEME par rapport à ceux de l’ANR et de l’OSEO. L’OSEO fonctionne comme un guichet ouvert, tourné vers les petites et moyennes entreprises, mais sans ciblage thématique, alors que l’ADEME, soutient la politique de recherche en énergie, en coopérant au besoin avec des grandes entreprises.

L’ADEME se distingue de l’ANR en ce qu’elle s’inscrit dans une perspective de soutien à la recherche plus continue, car les financements de l’ANR ont surtout pour objectif de donner des impulsions (« booster ») dans un domaine spécifique, et ne perdurent que pour deux ou trois ans. Par ailleurs, l’ANR ne retient qu’une faible partie des projets qui lui sont soumis dans chaque domaine, n’en retenant environ qu’un quart en fonction de critères d’excellence scientifique (environ 70% des crédits vont aux laboratoires publics), tandis que l’ADEME a vocation à apporter son concours à des projets d’un domaine qu’elle juge prioritaire au titre du développement industriel dans le domaine de l’énergie. M. Moisan a estimé qu’il était particulièrement important de pouvoir apporter un concours qui ne relève pas seulement de l’excellence scientifique et sur moyen terme aux recherches sur les NTE.

En ce qui concerne la collaboration entre l’ADEME et l’ANR, l’ADEME a été unité support de plusieurs programmes de l’ANR dans le domaine des NTE ; en effet, l’ANR ne dispose pas ou peu de moyens propres pour la gestion des programmes, et doit faire appel pour cela à des structures de recherche dotées de ressources de pilotage ; l’ADEME dispose d’environ 70 ingénieurs pour la gestion des projets de recherche. Toutefois l’ANR ne souhaite plus à l’avenir, confier la gestion de nouveaux programmes à l’ADEME afin d’éviter un risque de confusion entre le rôle de chacune des agences. L’ANR et l’ADEME entretiennent toutefois une étroite coordination entre leurs interventions respectives.

M. Moisan a évoqué la NEDO (New Energy Development Organization), créée en 1980 par le gouvernement japonais pour développer des technologies alternatives au pétrole afin de limiter sa dépendance énergétique. Cet organisme a ensuite élargi son activité à la recherche et au développement de technologies destinées à la protection de l'environnement, à la production de nouvelles formes d'énergies ainsi qu'à l'efficacité énergétique. Son fonctionnement est similaire à celui de l'ADEME dans la mesure où la NEDO, d’une part, pilote des projets de R&D menés par des équipes universitaires et industrielles sans disposer elle-même d'infrastructures de recherche ; et d’autre part, porte chaque projet du stade de R&D à celui de la commercialisation, en intervenant de manière cruciale au stade de la mise en place des démonstrateurs.

Le contrat d’objectifs de l’ADEME fixe sept thèmes prioritaires de recherche : le transport propre (au sein du PREDIT), les bâtiments économes en énergie (au sein du PREBAT), le captage et le stockage du CO2, l’énergie photovoltaïque, les biocarburants, les réseaux électriques intelligents, les écotechnologies (dépassant le strict cadre de l’énergie).

Les réseaux électriques intelligents visent à gérer au mieux l’intermittence de l’offre décentralisée d’électricité produite à partir d’énergie renouvelable (éolienne, solaire), par stockage, ou par déclenchement synchrone des appareils consommateurs chez l’utilisateur (le chauffe-eau, typiquement). L’ADEME conduit ce programme en liaison avec EDF, RTE, Areva T&D, Schneider, et en coopération avec la NEDO, qui conduit des expérimentations à Ota City, où 540 maisons sont équipées de panneaux photovoltaïques.

Ces priorités ne correspondent pas nécessairement à des financements lourds de la part de l’ADEME, puisqu’en matière de captage et stockage du CO2, par exemple, les projets de recherche ont été pris en charge pour l’essentiel par l’ANR  (l’ADEME a surtout une fonction d’animation (à travers le club CO2). L’ADEME avait financé des recherches avant la mise en place de l’ANR ainsi que des études comme celle sur les sites potentiels pour le stockage du CO2. Dans le domaine de l’énergie photovoltaïque aussi, l’ADEME a apporté un financement complémentaire à l’ANR, souvent plus en aval que les projets ANR. A titre d’exemple, L’ADEME a apporté une aide à la création d’une installation pilote de fabrication de silicium de pureté « solaire » (projet SILPRO).

M. Birraux s’est interrogé sur le rôle éventuel de l’ADEME dans la mise en place d’une offre de services d’installation et de maintenance, permettant de constituer les filières industrielles jusqu’au bout. Il a souligné le risque qu’une mauvaise qualité de service à l’utilisateur final, à travers la vente de solutions inadaptées ou la pratique de prix artificiellement relevés en vue de capturer les aides, n’hypothèque la diffusion des nouvelles technologies, et par là, la poursuite de l’effort de recherche. M. Moisan, prenant l’exemple des énergies renouvelables, a expliqué que, malgré la dispersion des professions concernées, l’ADEME s’est efforcé d’agir sur la qualification des installateurs : un label « Qualisol » a ainsi été mis en place pour l’installation des capteurs solaires thermiques, géré par l’association « Qualit’ENR » visant à assurer la qualité d’installation de l’ensemble des systèmes à énergies renouvelables. La qualification des installateurs et professionnels du bâtiment constitue par ailleurs un des grands chantiers de mise en œuvre du Grenelle de l’environnement ; l’ADEME se trouve particulièrement bien placée pour apporter sa contribution, puisqu’il s’agit d’une tâche de longue haleine, et qu’elle-même inscrit son action dans la durée ; dans le domaine des énergies renouvelables elle organise elle-même des modules de formation.

M. Ngô, observant que les nouvelles technologies de l’énergie pour l’habitat concernaient un marché de masse, et non pas quelques niches, puisque la réhabilitation concerne environ trente millions de bâtiments, a insisté sur l’importance d’une mobilisation de l’enseignement secondaire pour orienter plus d’élèves vers les filières d’installation et de maintenance de ces technologies ; ces filières offrent des débouchés vers des métiers intéressants et bien rémunérés. Il a estimé que l’ADEME avait un rôle à jouer dans cet effort de réorientation des élèves, de manière notamment à ce que cette réorientation devienne un choix délibéré, et non le résultat d’un aiguillage par l’échec comme c’est le cas aujourd’hui ; de la réussite d’une telle démarche de sensibilisation dépend le déploiement à grande échelle des nouvelles technologies de l’énergie.

M. Moisan a répondu que le déploiement à grande échelle pouvait dépendre non seulement de la disponibilité d’une main d’œuvre qualifiée capable de mettre en place des solutions sur mesure, mais également de solutions industrialisées par de grands groupes et permettant une pénétration plus rapide du marché de la construction. Le comité opérationnel sur la recherche a considéré que c’était là la voie à suivre pour les technologies de l’habitat, tant en construction qu’en réhabilitation, une entreprise comme Saint-Gobain se sentant tout à fait capable de mener à bien cette industrialisation ; diverses démonstrations réalisées en région prouvent qu’il est possible d’atteindre des niveaux de performance très élevés en matière d’économie d’énergie.

M. Birraux ayant rappelé que le Haut Conseil de la science et de la technologie, dans son avis d’avril 2007 sur l’effort scientifique et technologique de la France en matière énergétique, avait souligné le besoin de renforcer la recherche en sciences humaines et sociales pour l’étude des adaptations nécessaires à la lutte contre le réchauffement climatique, M. Moisan a indiqué que, suite à cet avis du Haut Conseil, l’ADEME avait été chargé par le Gouvernement d’un état des lieux sur le potentiel de recherche en sciences humaines et sociales. Ce rapport a été remis au ministère chargé de la recherche en novembre 2007 ; il fait le constat d’une difficulté à attirer durablement des chercheurs dans une voie qui est faiblement valorisée par le monde académique. En pratique, les équipes expertes de ce domaine sont peu nombreuses en France, et les appels à proposition, y compris au niveau européen, ne suffisent pas pour renouveler leur rang : ce sont toujours les mêmes chercheurs qui proposent leurs services. D’éventuelles incitations financières resteraient inefficaces tant que subsistera ce handicap de valorisation académique.

M. Bamberger a indiqué que l’effort de recherche d’EDF représentait de l’ordre d’un million d’euros par jour, soit près de 400 millions par an, 2 000 personnes, et un grand nombre de partenariats, avec le CEA, ou avec d’autres acteurs français dans le cadre des projets de l’ANR, avec des acteurs européens dans le cadre du PCRD, avec l’Electric Power Research Institute (EPRI) aux États-Unis, avec l’Energy Technologies Institute (ETI) en Grande-Bretagne. Les axes de recherche visent, en ligne avec la stratégie nationale de recherche, à obtenir plus d’électricité avec moins d’émission de gaz carbonique, et concernent l’efficacité énergétique, l’énergie nucléaire, et les énergies renouvelables.

L’objectif est une augmentation de la part d’électricité dans la consommation finale d’énergie de 20% aujourd’hui en Europe à 33% à l’horizon 2030 - 2040. Cela suppose une amélioration des usages de l’électricité : les chaudières au fuel doivent pouvoir être remplacées par des pompes à chaleur sans énergie fossile d’appoint ; les moteurs hybrides rechargeables doivent prendre le relais des moteurs thermiques.

S’agissant de l’efficacité énergétique, EDF fait des efforts au-delà du seul périmètre de la recherche, en organisant récemment un concours d’architecture sur la maison « bas carbone » (moins d’un kilogramme de gaz carbonique par mètre carré et par an) qui a suscité près de 160 dossiers de candidature, et permis de proclamer trois lauréats (pavillon, maison, immeuble) à la Foire de Paris ; l’an prochain, un même concours sera organisé pour les bâtiments en rénovation.

S’agissant de l’énergie nucléaire, l’essentiel de l’effort d’EDF porte sur la poursuite de l’amélioration de la performance et de la sûreté du parc actuel, et notamment sur la durée de vie des centrales actuelles. Les modèles non linéaires disponibles aujourd’hui permettent de mieux apprécier la portée des marges de sécurité extrêmes qui ont été prises lors de la construction, et d’envisager ainsi un fonctionnement sur des durées de 60 à 80 ans. Des études visent à appréhender les besoins d’adaptation, à l’horizon 2070, rendus nécessaires par le changement climatique : moindre étiage de la Loire obligeant à une consommation moindre d’eau, variation du niveau de l’océan dans le Cotentin devant être anticipé pour ajuster le canal d’amenée d’eau. Par ailleurs, EDF accorde son soutien à l’effort de développement des réacteurs de quatrième génération, à hauteur d’une dizaine de millions par an, en qualité de futur exploitant probable.

S’agissant des énergies renouvelables, EDF fait des recherches sur l’énergie marémotrice, et sur la filière photovoltaïque. M. Bamberger a observé que la France disposait d’un avantage comparatif au niveau de la minimisation des émissions de gaz carbonique pour la fabrication des cellules. Il a souligné en outre l’intérêt de cette technologie en termes d’indépendance énergétique, et de mobilisation décentralisée des acteurs en faveur de la politique énergétique, puisqu’elle peut être mise en œuvre au niveau de l’habitat individuel, et de l’aménagement urbain.

Il a insisté sur un point, qui semble insuffisamment pris en compte dans la stratégie nationale, à savoir sur les progrès à effectuer dans l’analyse du fonctionnement systémique du réseau, lequel va se complexifier avec la multiplication des sources de production décentralisées. De ce point de vue, le réseau va devenir l’élément stratégique de l’optimisation de l’utilisation de l’énergie électrique, tout comme il l’est devenu dans l’univers informatique : c’est dans cette perspective que doivent se situer les recherches sur l’intelligence du réseau et sur le stockage d’électricité.

M. Bataille invitant M. Bamberger à donner son sentiment sur la stratégie nationale de recherche énergétique, M. Bamberger s’est d’abord félicité qu’un tel document existât, et a regretté qu’il n’y soit pas fait plus souvent référence ; il a reconnu qu’il s’agissait surtout d’un état des lieux, mais que c’était là la limite d’un premier exercice ; qu’à l’avenir, il faudrait y inscrire plus clairement des priorités tenant compte de la nécessité pour la France, pays aux ressources limitées, de faire des choix, en distinguant mieux les domaines où il faut occuper une position de leader, de ceux où une position de suiveur est suffisante.

Il a insisté sur la nécessité d’une cohérence globale de la politique publique, les priorités de la stratégie nationale devant être respectées aussi bien par les organismes de recherche que par les pouvoirs publics dans leurs décisions ultérieures. Il a fait référence d’une part, à l’obligation du débit réservé minimal pour les barrages (art. L.214-18 du code de l’environnement, créé par la loi sur l’eau et les milieux aquatiques du 30 décembre 2006), qui entrave la production hydroélectrique pourtant conforme à l’objectif de lutte contre les émissions de gaz à effet de serre, et d’autre part, aux normes d’économie d’énergie dans le bâtiment telles que prévues dans le projet de loi de programme relatif à la mise en œuvre du Grenelle de l’environnement, qui fixent des objectifs en énergie primaire, sans tenir compte du faible contenu en émission de gaz carbonique de l’électricité française. Le chauffage électrique se trouve ainsi pénalisé alors qu’il constitue une solution très adaptée pour les petits appartements. Le chauffage au gaz se trouve à l’inverse favorisé.

Faisant référence à la succession rapide des divers rapports sur l’énergie commandés par les pouvoirs publics au cours des dernières années, il a regretté que le cadre de travail de la recherche change trop fréquemment.

S’agissant des modèles étrangers de conduite de l’effort de recherche en énergie, M. Bamberger a mis en avant l’organisation exemplaire du Japon, qui s’est doté d’une stratégie nationale à long terme, déclinée en roadmaps, et mise en œuvre par la très puissante NEDO, responsable de toute la chaîne de la recherche jusqu’à l’étape de démonstration. Il a estimé qu’il serait souhaitable que l'ADEME fût renforcée pour atteindre la stature du NEDO japonais.

M. Bamberger a jugé nécessaire d’accélérer certaines recherches en énergie, sauf à connaître une situation difficile à l’horizon 2015-2020. La stratégie nationale met en avant deux conditions essentielles à la structuration de l’effort de recherche : la lutte contre l’effet de serre, et la préservation de l’indépendance énergétique. A partir de là, quatre priorités se dégagent selon lui : l’énergie photovoltaïque, le stockage d'énergie, l'efficacité énergétique dans les bâtiments et la mise au point du véhicule hybride rechargeable. Ce sont justement des domaines dans lesquels l'industrie française est faible ; elle n’a aucun fabriquant d’importance dans la filière photovoltaïque, et l’Europe ne compte qu’un seul acteur important dans le domaine des batteries : SAFT.

En revanche, M. Bamberger a estimé qu'il y avait trop d'argent sur la pile à hydrogène, car c'est une technologie à laquelle il faut laisser sa chance, mais à un horizon plus lointain; par ailleurs, il n'est pas forcément souhaitable de vouloir accélérer les travaux sur les réacteurs de génération IV, car il faut laisser du temps aux progrès de la recherche sur les matériaux et, de toute façon, l'objectif du cycle fermé dans l'énergie nucléaire ne deviendra indispensable qu'avec l'apparition des tensions sur l'approvisionnement en uranium d'ici 150 ans; en revanche, il est important d'investir dans la mise en œuvre et la poursuite de l'amélioration des réacteurs de génération III, qui peuvent contribuer utilement à la solution des difficultés énergétiques qui s'annoncent dans les toutes prochaines décennies.

M. Bataille a observé que cette analyse allait à l'encontre de l'analyse des promoteurs d'une énergie nucléaire toujours renvoyée vers le futur, qui proposent de faire l'impasse sur la génération III pour mieux attendre l'arrivée de la génération IV, au nom d'un mieux disant scientifique. M. Birraux a estimé qu'à l'inverse, il ne fallait pas néanmoins revenir à un calendrier trop ouvert sur la génération IV, de peur de prendre du retard sur l'effort à accomplir. M. Christian Ngô a signalé que la génération III constituait de toute façon une étape nécessaire sur le chemin de la mise au point de la génération IV.

M. Raymond Leban s'est interrogé sur l'argument d'avoir à effectuer un rattrapage par rapport à une avance stratégique perdue par la France sur la filière au sodium, du fait de l'arrêt de Superphénix en 1998. M. Pierre René Bauquis a évoqué l'idée d'une remise en route de la centrale de Creys-Malville pour la mettre au service des recherches sur la génération IV; il s'est étonné de ce qu'aucune mission officielle n'ait eu à étudier cette hypothèse, en faisant scientifiquement le point sur l'état effectif des installations, et sur les possibilités de réhabilitation qu'offrent les technologies actuelles. M. Bataille a souligné l’intérêt de cette idée et a signalé qu'elle ferait l’objet d’une analyse dans le rapport.

S'agissant de la phase du développement d'une technologie à partir de laquelle le secteur privé doit prendre le relais du soutien public, M. Bamberger l'a située à la phase de démonstration, en signalant que les recherches sur l'énergie marine étaient clairement encore en amont de ce point, et les recherches sur l'exploration des hydrocarbures plutôt à l'aval. Il a estimé que la coopération entre les laboratoires publics et les industriels avaient bien progressé au cours des dernières années dans les domaines concernant EDF du moins, et que la priorité était maintenant à une stabilisation du paysage institutionnel. Il a souligné la perturbation provoquée par la relance trop fréquente, par les diverses instances des pouvoirs publics, de l'exercice de remise à plat de la stratégie nationale de recherche, qui a pour effet de désorienter les acteurs publics et privés, et de distendre leurs liens. Après la réorganisation qui a utilement fait de l'ANR un centre d'impulsion de la recherche, et de l'ADEME, un porteur des projets de démonstrateurs, il conviendrait de laisser un peu de temps aux acteurs pour qu'ils retrouvent leurs marques.

S'agissant de la capture du CO2, M. Bamberger a estimé indispensable de participer à l'effort européen, mais excessif de multiplier les expérimentations françaises sur fonds publics. Pour bien dimensionner la démarche française, il a préconisé de réaliser en préalable un bilan des sites de stockage disponibles dans notre pays, en évaluant les coûts afférents à leur mise en exploitation.

Sur l'étude des liens entre la consommation d'énergie, l'aménagement urbain et l'évolution des transports, il a rappelé la compétence de l'INRETS, et signalé qu'il serait utile de l'associer à un groupe de réflexion auquel pourrait participer, outre des chercheurs d'EDF et de RTE se consacrant déjà à cette question, certaines instances du MEDAD. L'ANR pourrait aussi utilement alimenter quelques projets de recherche dans ce domaine.

M. Christian Ngô a observé que, pour économiser l'énergie, il faudrait essayer de mieux utiliser les deux kWh de chaleur qui sont dissipés chaque fois qu’on produit un kWh d’électricité nucléaire. Il a évoqué un procédé SAIPEM de stockage d’énergie reposant sur le chauffage de céramiques : portées à une température initiale de 300 degrés, puis couplées avec une pompe à chaleur, elles peuvent absorber un supplément de chaleur jusqu’à atteindre une température de 800 degrés ; l’énergie ainsi accumulée permet ensuite de restituer du courant électrique avec un rendement de 70%. C’est un rendement proche de celui d’un stockage hydroélectrique, avec des conditions de mise en œuvre plus souples.

M. Bamberger a indiqué qu’EDF s’efforce depuis longtemps, à travers des recherches et des expérimentations, de valoriser cette chaleur dissipée du fait de la contrainte de refroidissement liée au cycle de Carnot ; la difficulté vient de ce que les centrales nucléaires sont situées loin des villes, et que le transport éventuel de chaleur doit se faire avec une eau à une température de 70 degrés, difficile à utiliser de manière massive; du reste, en cas de transport, l’interrogation quant à la prise en charge de l’infrastructure reste ouverte. Néanmoins toutes les investigations anciennes ont été relancées, en essayant cette fois de mobiliser des technologies modernes, comme les pompes à chaleur. M. Pierre René Bauquis a observé que les pétroliers savent faire des tuyaux capables de transporter la chaleur, et que la question des pertes sur un transport de chaleur a été inscrite au programme d’une discussion de l’Association française des techniciens du pétrole- Société française d’énergie nucléaire (AFTP-SFEN), organisée le 3 juin 2008, sur les synergies des technologies pétrolières et nucléaires.

M. Jean-Paul Langlois s’est interrogé sur la possibilité d’une rupture technologique dans le stockage sur batterie, la Chine annonçant dans ce domaine des progrès rapides. M. Bamberger a rappelé les progrès importants, mais progressifs, réalisés sur les petites batteries de téléphone portable. Sur les batteries de véhicule, les progrès sont sensibles, trimestre après trimestre, aux États-Unis, au Japon, en Chine, mais aussi en France, au point de laisser penser qu’elles permettront de faire le trajet domicile - lieu de travail d'ici 2012-2015 ; voire quelques dizaines de kilomètres, d’ici 2020 ; et que le parc automobile français sera composé à hauteur de 40% de véhicules hybrides rechargeables ou électriques d’ici 2030. La stratégie nationale de recherche énergétique, si elle était révisée, devrait envoyer un signal très fort aux chercheurs et aux industriels pour qu’ils investissent dans ce domaine, et il serait souhaitable que les équipes se consacrant à ces recherches puissent poursuivre leur effort dans une démarche au long cours.

Les experts de l’IED expliquent en préambule que les représentants du personnel d’EDF Division Recherche et Développement (DRD) ont décidé, lors de la séance du 2 mars 2006 du Comité Mixte à la Production (CMP), de confier à l’institut Energie et Développement (IED) une expertise portant sur la politique de recherche dans le domaine de l’électricité.

C’est dans le cadre des conclusions et recommandations de cette expertise qui est sur le point d’être achevée que MM. Michel Boin, Bernard Salles, Henri Sureau et Jean-Paul Tissot ont souhaité rencontrer MM. Claude Birraux et Christian Bataille, membres de l’OPECST.

Les experts de l’IED indiquent que la DRD est soumise à des facteurs d’évolution forte que sont l’ouverture à la concurrence du marché électrique et gazier, la crise de l’énergie et de l’environnement et la crise de la recherche au niveau national et européen.

Cette évolution, au cours de laquelle EDF a perdu sa fonction régalienne, s’accompagne d’une grande inquiétude quant à la perte de vision à long terme, quant à la capacité de la DRD, qui a vu ses effectifs décroître de façon importante, de conduire des recherches sans faire appel à un partenariat académique et industriel français ou étranger.

La question qui se pose, tant aux professionnels qu’aux politiques, est de savoir qui décide de l’orientation des recherches dans le domaine concurrentiel, du partage du travail, du processus de financement, comment remutualiser la recherche et le développement (R&D) entre opérateurs concurrents, comment piloter la R&D de service public ? La préparation de l’avenir à long terme en dépend. Existe-t-il une réelle volonté politique en France et en Europe de prendre en compte les enjeux sociétaux que représente l’orientation de la recherche en cette période de crise ?

En ce qui concerne les problèmes en matière de co-développement et de qualification des matériels et équipements industriels, les experts de l’IED rappellent qu’auparavant EDF disposait de bans d’essai de matériels et supportait les coûts de qualification et de développement des matériels commandés aux constructeurs. Aujourd’hui, EDF a fermé ces bans d’essai car l’effort de financement de la R&D par les entreprises est trop faible en France. Le changement de statut d’EDF, qui n’est plus un EPIC, a eu pour conséquences une baisse importante des crédits de la R&D et une réorientation de celle-ci vers des sujets devant donner un avantage concurrentiel à l’entreprise, avec un souci de rentabilité à court terme.

Les experts de l’IED s’inquiètent du fait qu’en France les entreprises consacrent un budget de R&D beaucoup moins important qu’au Japon, aux États-Unis ou en Allemagne et que la stratégie à long terme fait défaut. Ils soulignent également l’importance vitale pour une entreprise comme EDF de conserver une R&D compétente en son sein même si pour diverses raisons il peut être intéressant de s’adresser ailleurs.

Les experts de l’IED suggèrent de créer à la tête du groupe EDF un comité de la prospective qui définisse les priorités, fasse des arbitrages et choisisse les grandes orientations qui permettent de répondre dans 20 ou 30 ans à la demande énergétique. L’accent est mis sur le caractère pérenne que doit avoir cette structure afin d’en garantir l’efficacité.

Ils indiquent enfin, concernant les enjeux technologiques du futur, et plus particulièrement celui du photovoltaïque, qui devrait concerner EDF de près, que l’on assiste à une balkanisation des laboratoires qui sont nombreux à travailler sur ce thème. Des entreprises comme EDF, le CEA, le CNRS, Saint-Gobain évoluent dans le paysage éclaté du photovoltaïque. La question qui se pose est de savoir s’il ne pourrait exister un organe de contrôle public qui pourrait coordonner et piloter ces efforts de recherche.

M. Olivier Appert a indiqué qu'il s'efforcerait d'expliquer comment l'IFP perçoit l'élaboration d'une stratégie nationale de recherche énergétique, et quelle pourrait être la contribution de l'IFP.

Il a rappelé les trois déterminants mondiaux de la politique énergétique d'aujourd'hui : l'explosion de la consommation mondiale d'énergie primaire (qui double entre 1990 et 2030); la perspective d'un épuisement des ressources fossiles; la contrainte de la lutte contre le changement climatique (le secteur énergétique contribuant à hauteur de 80% aux émissions de CO2). Ces trois déterminants contribuent à la hausse du coût de l'énergie.

Il a indiqué qu'une des missions de l'IFP consistait à aider à la définition d'une stratégie d'adaptation du système énergétique français à ce contexte, et qu'en ce domaine, un grand nombre de rapports avait été produit au cours des dernières années, en France et au niveau international, auxquels l'IFP avait largement contribué. Il a estimé que toute nouvelle réflexion devait faire son profit de ces rapports, et a mis en avant quelques éléments clefs qui s'étaient ainsi dégagés :

- le rapport de l'AIE sur les perspectives des technologies de l'énergie a montré la contribution déterminante de l'efficacité énergétique à la réduction des émissions de CO2; l'apport également de la substitution au pétrole d'énergies moins carbonées; enfin, l'impact des technologies de capture et stockage de CO2 appliquées à l'industrie, au raffinage, et à la production d'électricité ;

- le rapport Chambolle a montré l'intérêt d'une démarche multicritères, prenant en compte des préoccupations de compétitivité et de développement économique, ayant permis de dégager un consensus entre les pouvoirs publics et les milieux de la recherche. M. Appert a estimé que ce rapport méritait d'être réactualisé ;

- l’European Strategic Energy Technology Plan (SET Plan), présenté par la Commission européenne en novembre 2007, a fourni l’occasion de décrire l’effort de recherche dans le domaine de l’énergie sous forme d’une “Road Map”, distinguant les technologies disponibles rapidement de celles qui ne le seront qu’à un horizon plus lointain avec une dimension d’incertitude. Cette mise à plat de la réalité des possibilités technologiques permet de démentir toutes les thèses des panacées miraculeuses : l’adaptation du système énergétique ne peut s’envisager que dans la diversité des solutions technologiques. Il serait indispensable de recourir à ce type de “Road Map” pour piloter l’effort de recherche en France; l’IFP pour sa part en a élaboré une pour décrire l’état technologique du couple “moteurs-carburants”.

M. Olivier Appert a défini l’IFP comme étant au service de l’innovation, qu’il a définie comme s’inscrivant dans un continuum entre la recherche fondamentale et la recherche appliquée. Même si l’IFP s’occupe principalement dans la recherche appliquée, cela n’exclut pas des incursions au niveau de la recherche fondamentale pour lever des verrous scientifiques. L’organisme est en mesure de mobiliser des technologies transverses, ainsi la connaissance des technologies pétrolières constitue un atout pour l’étude du captage et stockage du CO2, et l’électronique d’asservissement permet la mise au point de moteurs plus économes.

L’IFP veille à ce que ses travaux contribuent au développement économique et à l’emploi, à travers la valorisation industrielle de ses résultats : cette valorisation passe par la fourniture de prestations sur contrats, la prise de participation dans des sociétés assurant l’exploitation industrielle des brevets, ou l’assistance à l’essaimage. Les recettes propres de l’IFP progressent ainsi régulièrement à un rythme de l’ordre de 6 à 7% depuis une quinzaine d’années, alors que la dotation budgétaire s’est maintenue en euros courants (ce qui correspond à une baisse d’un tiers en euros courants); le budget total de l’IFP repose aujourd’hui pour moitié sur des recettes propres. Ce haut niveau de retour financier démontre la capacité de l’IFP à faire des choix pertinents en matière de recherche. Il illustre également le bien fondé de son modèle économique qui, aux cotés des soutiens des pouvoirs publics, le dote d'un niveau élevé de ressources propres (prestations et recherches collaboratives, redevances sur brevets et dividendes).

Revenant plus globalement sur l’effort budgétaire conduit au sein du programme 188 “Recherche dans le domaine de l’énergie”, M. Olivier Appert a insisté sur l’erreur qu’il y aurait à dépouiller les secteurs désormais traditionnels des hydrocarbures et de l’énergie nucléaire, qui reposent sur de puissants groupes d’envergure internationale, entraînant dans leur sillage de nombreux équipementiers (Alstom, Technip et la Compagnie générale de géophysique – CGG Veritas), et qui conserveront encore longtemps, en tout état de cause, une place cruciale dans le paysage énergétique mondial, y compris en faisant jouer des synergies entre eux.

Néanmoins, les nouvelles technologies de l’énergie (NTE), concept lancé par le rapport Chambolle, doivent prendre évidemment une place croissante dans l’effort budgétaire français. Cependant, leur poids est plus ou moins important, selon la définition retenue : si l’on s’en tient à l’effort financier de l’action 2 "NTE" du programme 188 qui pour l'IFP recouvre l'ensemble de ses travaux de R&D dans les domaines des biocarburants, de la transformation des énergies fossiles hors pétrole en carburants liquides, de la production d'hydrogène et des technologies de captage et stockage du CO2 , ils représentent 25% du budget de l’IFP; si l’on y agrège l’effort en direction des “véhicules économes” (dont véhicules hybrides) au sein de l’action 3, selon la logique du “document de politique transversale Climat” (DPT “Climat”), ils représentent 45% du budget de l’IFP; si l’on ajoute l’effort de R&D pour un “raffinage propre”, conformément à la définition large des NTE retenue par l’ADEME (qui agrège : technologies d’usage de l’énergie, énergies renouvelables, transformation et stockage des vecteurs d’énergie), ce sont 66% du budget de l’IFP qui sont consacrés aux NTE. Rappelons également que cette action 3 "hydrocarbures et automobile"du programme 188 inclut également les activités conduites par l'IFP dans le domaine de la recherche exploratoire, du développement industriel, de la formation (Ecole du Pétrole et des Moteurs) et de la diffusion des connaissances.

La mise en oeuvre du contrat d’objectifs 2006-2010 se fait en prenant en compte trois évolutions structurelles majeures recommandées par le rapport Chambolle : un doublement de l’effort de R&D au profit des NTE, un rééquilibrage de cet effort au profit des transports, un recentrage sur les travaux bénéficiant de débouchés industriels.

Sous réserve d’autres orientations suggérées par les autorités de tutelle, l’IFP voit son avenir à l’horizon 2020 se structurer autour de six points : une position de leader dans le captage et stockage du CO2, dans les carburants renouvelables, dans la transformation du gaz et du charbon en carburants liquides, et dans la conversion des hydrocarbures lourds en produits légers; une forte présence dans la R&D sur les véhicules hybrides et sur l’utilisation du sous-sol (stockage du CO2 ou de l’énergie, gestion des aquifères, géothermie).

A une question de M. Claude Birraux sur la capacité des ciments à fermer les sites de stockage du CO2 avec une étanchéité suffisante, M. Olivier Appert a répondu en distinguant le cas d’une récupération d’un ancien site d’extraction d’hydrocarbures de celui des acquifères. Dans le premier cas, des recherches sont poursuivies pour étudier dans quelles conditions les chemisages en acier, et les ciments utilisés dans les puits peuvent supporter l’acidité du gaz carbonique; une fois le site fermé en revanche, les risques de remontée du gaz carbonique vers la surface devraient être limités, puisqu’il s’agit de réservoirs ayant montré leur capacité à retenir des hydrocarbures pendant une ou deux centaines de millions d’années. Dans le cas des acquifères, la remontée vers la surface devrait être freinée par la densité relative des eaux chargées en gaz carbonique dissous, qui devraient donc rester au fond des structures géologiques, et même conduire à terme à une minéralisation; mais des études sont en cours pour examiner ces phénomènes. L’IFP perçoit le domaine du captage et du stockage du CO2 comme un marché potentiel, et a créé, en liaison avec GéoStock et le BRGM, une société GéoGreen se donnant comme objectif de fournir du conseil sur les techniques concernées, notamment sous l’angle de la sécurité.

M. Claude Birraux s’est interrogé sur le recours à une “Road Map” pour guider les travaux du comité opérationnel sur le recherche du Grenelle de l’environnement (dont M. Appert est membre), et sur l’identification des secteurs de la recherche sur lesquels pourraient le plus efficacement se focaliser les aides publiques. M. Appert a indiqué que les travaux du comité opérationnel avaient retenu l’intérêt d’une analyse en termes de “Road map” sans avoir le temps de la mettre en oeuvre, mais que certains secteurs de la recherche avaient effectivement été mis en avant pour bénéficier d’aides supplémentaires, pour autant que celles-ci ne soient pas financées fictivement par simple redéploiement : l’énergie solaire photovoltaïque, pour laquelle un rattrapage semble envisageable malgré le retard français, le captage et stockage du CO2 qui permettrait d’exploiter un avantage comparatif français sur les technologies à mobiliser, les biocarburants de seconde génération, le stockage de l’énergie, les véhicules propres.

A l’évocation par M. Birraux de la place de la coopération internationale dans la recherche, M. Appert a répondu en mentionnant l’obstacle du nationalisme des organismes de recherche (TNO hollandais, Fraunhofer allemand, Sintef norvégien); la constitution de consortiums (Joint Industry Project) est un moyen privilégié pour engager des coopérations avec des organismes ou instituts étrangers. Les programmes européens ont permis indéniablement d’ouvrir des coopérations, et de rencontrer de nouveaux partenaires, mais les financements associés ne sont pas à la hauteur des enjeux; en outre, les programmes sont conçus prioritairement pour favoriser l’intégration européenne, et veillent donc à un équilibre de participation de tous les pays membres, chacun voulant impliquer un laboratoire, une entreprise, une université; les consortiums résultant sont en conséquence énormes et très difficile à gérer (30 partenaires pour le programme CASTOR sur le captage et stockage du CO2 mis en place dans le cadre du 6e PCRD).

Quant aux modèles étrangers de structuration de la recherche, M. Appert a estimé que le dispositif japonais reposait sur des bases culturelles trop particulières pour inspirer la France, et que le dispositif américain était faussement présenté comme reposant sur un financement privé, puisque 60 à 75% des recherches conduites en université bénéficiaient d’un soutien de l’État fédéral (selon une étude du service scientifique de l’Ambassade de France à Washington). La particularité du modèle américain consiste en un effort massif sur des projets de durée limitée (trois ans), à l’inverse du modèle français de financement récurrent; de ce point de vue, le dispositif de l’ANR constitue une transposition intéressante du modèle américain, bien que partiellement dévoyé par l’augmentation du nombre des programmes “blancs”.

Claude Crampes s’est interrogé sur l’existence d’une politique proactive d'encouragement au sein de l’IFP expliquant la montée en puissance des ressources propres. M. Appert a indiqué que la culture de la recherche industrielle au sein de l’IFP conduisait à se préoccuper de la protection par brevet avant de publier le résultat, et d’étudier systématiquement la manière de construire des partenariats avec le monde industriel pour valoriser ce résultat. Par ailleurs, la fonction même d'un chercheur est de trouver; c'est pourquoi, l’IFP pratique un système de rémunération individuelle récompensant les bons chercheurs. A cet égard, M. Appert a souligné la difficulté à gérer le système d'attribution de la prime d'intéressement (instituée par la loi du 5 février 1994 et le décret du 2 octobre 1996, et aujourd'hui codifiée à l'article R611-14-1 du code de la propriété intellectuelle) qui attribue la moitié des redevances aux chercheurs dans les universités et les EPST, dans la mesure où, premièrement, il faudrait en toute justice reverser une part de cette rémunération supplémentaire aux services fonctionnels de l'IFP, et deuxièmement, il existe en permanence un risque, déjà concrétisé chez Rhône-Poulenc par le passé, qu'un employé engage une action en justice pour revendiquer a posteriori sa quote-part de la rémunération produite par une recherche connaissant un grand succès commercial. Pour retrouver une situation équilibrée, l'IFP a passé (sur la base de l'article L611-7 du code de la propriété intellectuelle) un accord avec les partenaires sociaux ayant permis de mettre en place un système équilibré de primes.

Georges Picard, directeur général adjoint, a ajouté que l'IFP déposait désormais une soixantaine de brevets par an dans le domaine des NTE (au sens de l'action 2 du programme 188) , ainsi que le retraçaient les indicateurs budgétaires du programme 188; qu'une partie de la valorisation de ceux-ci s'effectuait au travers des filiales créées spécifiquement lorsque l'IFP n'avait pas trouvé de partenaires industriels sur le marché; que les dividendes reversées par les filiales venaient tripler les ressources de propriété intellectuelle par rapport à la prise en compte des seules redevances.

Christian Ngô s'est interrogé sur l'échelle de mise en œuvre du captage et stockage du CO2, en constatant que la production annuelle de gaz carbonique représentait 6 milliards de tonnes de carbone, dont le cycle naturel du carbone ne pouvait absorber que la moitié, ce qui laisse un excédent annuel d'émission de 3 milliards de tonnes de carbone, soit 10 milliards de tonnes de CO2; en imaginant qu'on puisse en stocker ne serait-ce que 10% chaque année, cela représente un effort de captage et stockage d'un milliard de tonnes. Or, les meilleures installations actuelles ne peuvent stocker qu'un million de tonnes de CO2 par an, ce qui signifie qu'il faudrait en construire 1 000 nouvelles par an, soit deux ou trois par jour, ce qui supposerait non seulement un effort très important de mobilisation de ressources techniques et humaines, mais surtout l'absence de freins du côté de l'acceptation sociale pour ce genre d'ouvrages. Le constat de ce problème d'échelle amène à se demander si les recherches sur le captage et stockage du CO2 ne sont finalement pas qu'un artefact intellectuel visant à redonner une légitimité écologique à la poursuite de la production d'électricité à partir d'énergies fossiles.

M. Olivier Appert a noté que ce genre de réflexions, au demeurant fondées dans leur principe si l’on prend en compte les probables arrières pensées de certains producteurs d’électricité allemands et américains, rejoignaient les analyses de Greenpeace, qui a commencé à exprimer récemment, dans son rapport « False Hope » de mai 2008, des doutes quant à la pertinence du captage et stockage du CO2, après avoir maintenu longtemps une attitude neutre sur le sujet. Il a insisté sur la nécessité de considérer cette technologie, non pas comme une panacée, mais comme un outil parmi d'autres de la panoplie des solutions permettant de faire face aux difficultés énergétiques des prochaines décennies; de la même façon, les biocarburants ne constitueront pas à eux seuls une solution aux contraintes futures sur l'énergie dans les transports, mais apporteront une contribution à une adaptation mobilisant plusieurs voies technologiques. Il est revenu sur la mise en avant par l'Agence internationale de l'énergie de scénarios de transition combinant toutes les solutions, y compris l'efficacité énergétique. Dès lors, l'effort de recherche visant à abaisser les coûts du captage et stockage du CO2 conserve, à l'échelle d'une contribution partielle, toute sa légitimité. Des démonstrateurs, comme celui d’In Salah en Algérie, capable de retenir un million de tonnes de gaz carbonique, doivent permettre d’abaisser le coût du stockage, en visant un alignement sur le coût de la tonne de carbone tel qu’il ressort de l’évolution du marché des quotas d’émission en Europe.

M. Claude Crampes s’interrogeant sur la nocivité du gaz carbonique, M. Olivier Appert a observé que le gaz carbonique faisait partie de l’environnement courant, en densité même un peu plus forte en cas de respiration dans un espace confiné, mais ne devient dangereux que lorsqu’il devient assez dense pour provoquer l’asphyxie. Il faut des circonstances exceptionnelles pour cela, comme le nuage de gaz carbonique très dense qui s’était formé au dessus du lac volcanique Nyos au Cameroun en août 1986, suite à une remontée accidentelle en surface des eaux profondes, qui avait provoqué la mort par asphyxie d'au moins 1746 personnes. Une fuite à partir d’un site de stockage serait en fait sans danger, et aurait simplement pour inconvénient d’annihiler tout l’effort antérieur de captage, de transport, de stockage; mais cette analyse ne pèse guère face au réflexe du NIMBY, et même le pilote de Total à Lacq, qui consiste à faire fonctionner à l’envers une installation qui extrayait du méthane, et qui maintenant vise à réinjecter du gaz carbonique en utilisant les mêmes conduites, a suscité des réticences de la part des populations environnantes qui ne voyaient pourtant jusque là aucun problème à la voir fonctionner en mode d’extraction.

M. Bucaille a expliqué que la recherche d’Areva représentait un effort d’un milliard d’euros, dont 200 millions ne représentent pas de la recherche au sens strict, puisqu’il s’agit de dépenses qu’on peut considérer comme préalables à la commercialisation, comme celles concernant la certification des réacteurs au plan mondial. Cet effort est en sensible augmentation, puisqu’il croît de 80 à 100 millions d’euros par an depuis deux ans, rythme qui devrait se poursuivre dans les cinq ans qui viennent, si la croissance de l’entreprise en fournit les moyens comme prévus. M. Bucaille présente un rapport sur la politique de recherche de l’entreprise tous les ans au Conseil de surveillance, et donc aux autorités de tutelle à travers leurs représentants, pratique par laquelle il poursuit une bonne habitude prise dans un poste antérieur chez Lafarge. L’exercice consiste à faire cette présentation d’une manière synthétique en deux heures. Il est clair que son contenu intéresserait au plus haut point les concurrents russes et japonais d’Areva.

La politique de recherche et d’innovation d’Areva s’organise principalement autour de trois axes :

1. d’abord, renforcer la position concurrentielle d’Areva sur le marché mondial, sur tous les segments de la filière nucléaire, à un horizon de dix ans ; cela doit permettre à l’ensemble de la filière de réaliser un gain de productivité de l’ordre de 10 à 15% ;

2. ensuite, mettre au point des réacteurs permettant pour une même quantité d’uranium, et tout en restant dans les technologies actuelles, d’augmenter sensiblement la production d’électricité pour un surcoût limité ; il s’agit en l’occurrence de pouvoir répondre à l’éventualité d’une expansion rapide de la production électronucléaire après 2015 ; cela concerne des recherches notamment dans le domaine de la métallurgie, et sur l’optimisation des équipements, dans le cadre de partenariats ;

3. enfin, le renouvellement de l’expertise, qui s’appuie sur la formation à la recherche, ou par la recherche ; aujourd’hui, Areva compte 350 experts dont 15 de niveau mondial, les autres étant de niveau au moins national ; un doublement du nombre d’experts est envisagé, et une part importante des ressources de la gestion de la recherche, de l’ordre de 15%, est consacrée à une activité de recrutement ; la contrainte de formation met la direction de la recherche d’Areva en position d’obliger les directions opérationnelles à recruter des experts potentiels.

Dans le domaine de la transmission et de la distribution d’électricité, Areva est en position de « suiveur » derrière l’allemand Siemens et le suisse ABB, et se donne l’objectif de rattraper son retard en cinq ans. Consolider la position de l’entreprise dans ce domaine à travers la recherche est essentiel, car les opérateurs chinois vont y arriver en force, et risquent de s’imposer à l’échelle mondiale sur la partie la moins technologique du marché.

S’agissant des recherches sur les réseaux intelligents (« Smart Grids »), il n’existe pas de programme français défini, et aucune collaboration avec EDF n’est en place. L’autorité de tutelle ne pousse à aucun effort collectif et mutuel ; mais, à terme, dans la mesure où les réseaux ont vocation à s’interconnecter, les efforts de recherche dans ce domaine devront nécessairement s’effectuer en coopération. Areva souhaite un doublement de l’effort de recherche dans les activités de transmission et distribution, pour atteindre un ratio de l’ordre de 4% du chiffre d’affaires, devant permettre de compenser la période antérieure d’immobilisme technologique dans ce secteur. La priorité dans ce domaine de recherche concerne la mise en place d’un système de défense en profondeur pour éviter les « black out » ; le stockage d’énergie par retenue d’eau pourrait connaître un regain d’intérêt à cet égard.

M. Birraux s’interrogeant sur la provenance des experts appelés à renforcer le potentiel humain de recherche d’Areva, et la part qui y serait faite aux universitaires, M. Bucaille a indiqué que l’effectif supplémentaire serait composé pour un tiers de chercheurs venant du secteur public, pour un tiers de chercheurs venant du secteur privé, et pour un tiers d’universitaires, et a ajouté que les Français ne représenteraient que 35% au plus du total, en cohérence avec le souci du groupe de maintenir son ouverture internationale. Ces recrutements ne devraient pas poser de difficultés, car le secteur nucléaire bénéficie en ce moment d’une image positive, qui entretient son attractivité.

Il a expliqué que, sur un horizon de plus long terme, deux domaines de recherche priment pour Areva : d’un côté, la mise au point des réacteurs à neutrons rapides (RNR) ; de l’autre, le développement des applications de l’énergie nucléaire dans le secteur pétrolier, ou plus encore, pour les futurs besoins de l’automobile.

En ce qui concerne la recherche sur les RNR, la collaboration avec le CEA se passe bien, mais on peut d’ores et déjà estimer que le démonstrateur industriel sera prêt plutôt en 2014 qu’en 2012, comme le prévoit la loi. Ce délai va tenir essentiellement aux procédures d’homologation par l’Autorité de sûreté nucléaire, permettant de mettre en évidence un gain en matière de sûreté. Il est maintenant pratiquement acquis que c’est le réacteur au sodium qui sera qualifié pour la quatrième génération, mais cela n’implique pas nécessairement que ce sera avec la technologie d’Areva. D’ores et déjà, le projet de réacteur, en l’état des recherches françaises, représente une avancée claire par rapport à la technologie de Superphénix, mais sans qu’il y ait eu un véritable bond en avant ; le progrès est cependant très net en matière de sûreté du cœur ; les recherches se poursuivent sur l’amélioration des systèmes de contrôle-commande, qui reposent sur une utilisation avancée des technologies de l’information. De son côté, Areva NC, filiale positionnée sur l’aval du cycle, prépare l’intégration des filières de 3e et 4e générations au niveau du traitement des combustibles usés, avec l’objectif de disposer d’un dispositif industriel opérationnel vers 2025.

S’agissant des recherches intéressant le secteur pétrolier, elles concernent surtout la production massive d’hydrogène avec la mise au point d’une technologie d’électrolyse de masse de l’eau alternative aux deux procédés du reformage du méthane, ou de la gazéification du petcoke63. Cette démarche ne s’inscrit pas dans la perspective du véhicule à hydrogène, mais plutôt dans l’appui à une stratégie de développement de la production de carburants de synthèse à partir de sources carbonées renouvelables, biomasse ou gaz carbonique lui-même. Ainsi, selon la même logique, Areva poursuit des recherches sur la purification du gaz carbonique. Des contacts ont été pris avec Shell pour combiner ces recherches avec la préparation d’une filière Coal to Liquid.

Cette piste de recherche répond au besoin d’anticiper l’épuisement des ressources pétrolières, et des programmes équivalents sont certainement poursuivis chez General Electric et Toshiba. Elle devient viable, sous réserve d’une bonne orientation des taux d’intérêt, dès lors que le baril de pétrole dépasse 100 dollars le baril.

La voie thermochimique pour la production massive d’hydrogène n’apparaît pas réaliste, et a été écartée par Areva dès 2003, bien qu’elle demeure au programme de recherche du DOE qui continue à financer un programme dans ce domaine à l’Idaho National Laboratory. L’électrolyse de masse ne suppose pas nécessairement un apport de chaleur.

Les recherches sur le captage et stockage du gaz carbonique relèvent d’un objectif de fond incontestable, et sont justifiées au regard de l’ancrage durable du charbon dans le paysage énergétique mondial. Mais la communication sur cette technologie, qui, de manière stupéfiante, fait largement l’impasse sur la difficulté fondamentale de la disponibilité des caches géologiques, relève quasiment, selon M. Bucaille, de la supercherie. Il a expliqué que ce décalage lui semblait personnellement d’autant plus flagrant qu’il avait eu à traiter de questions géologiques dans différentes zones du monde au cours de ses premiers postes au sein du corps des Mines. Selon lui, la réutilisation des anciens puits d’extraction ne fournit pas une solution à l’échelle des volumes d’émission concernés ; l’idée d’un stockage dans les fonds marins est encore très spéculative ; par ailleurs, tous les pays ne disposent pas nécessairement d’aquifères salins, et lorsqu’il en existe, comme en Chine, ceux-ci sont souvent très éloignés des zones industrielles.

S’agissant du positionnement d’Areva dans les énergies renouvelables, une offre existe déjà en matière d’utilisation de la biomasse, mais elle n’implique pas de développements technologiques particuliers. L’intérêt d’Areva pour l’énergie éolienne off-shore est lié à l’importance stratégique de cette technologie pour le dessalement de l’eau de mer. Dans le domaine de l’énergie solaire, Areva n’a pas de projet concernant l’énergie photovoltaïque, mais souhaite en revanche se développer dans les centrales thermiques de concentration, technologie bien adaptée pour les pays disposant à la fois d’espace et d’ensoleillement ; l’avantage de cette technologie est qu’elle peut intégrer des dispositifs de stockage d’énergie, dont la performance peut encore progresser.

Christian Ngô a observé que l’énergie solaire de concentration pouvait être plus efficace que l’énergie photovoltaïque pour produire de l’électricité. Pierre-René Bauquis a rappelé les déboires qu’avait connus Total, dans les années 70, en rachetant la société Photon Power pour essayer d’entrer au plus haut niveau technologique dans le secteur de l’énergie photovoltaïque ; le groupe revient maintenant vers ce secteur en se donnant des objectifs plus modestes. D’une manière générale, les entreprises pétrolières n’ont guère réussi leur diversification dans l’énergie solaire photovoltaïque, car si Shell et BP y ont maintenu une activité, elles ne sont pas parvenues à se différencier.

M. Bucaille a indiqué qu’il était mal placé pour apprécier la stratégie nationale de recherche en énergie, puisque le groupe Areva ne touchait aucune aide publique pour son effort de recherche, et ne participait donc pas aux négociations d’arbitrage sur les orientations publiques dans ce domaine, à la différence du CEA. Il a estimé néanmoins que cette stratégie donnait l’impression d’une grande dispersion.

En tant qu’observateur extérieur des réflexions conduites dans le cadre du Grenelle de l’environnement, il a jugé que celles-ci avaient mal intégré aussi bien les perspectives technologiques que les contraintes de la réalité mondiale, notamment en ce qui concerne les enjeux de la négociation sur le changement climatique.

Cette négociation ne pourra, selon lui, en venir à imposer des contraintes sectorielles (concernant la cimenterie, par exemple) que si un accord a été préalablement obtenu sur trois points cruciaux : la maîtrise des émissions dues à la production d’électricité ; la diminution des émissions dues à l’automobile ; une vaste opération de reconstitution de la forêt financée sur fonds internationaux. L’Europe se prépare de façon peu réaliste à cette négociation en comptant sur l’effet d’entraînement de son exemple ; il existe peu de chance que l’Inde ou la Chine ne se rallient jamais à un mécanisme de permis d’émission.

M. Bucaille a rappelé sa prise de position de longue date sur le besoin d’un développement mondial conjoint des énergies nucléaires et renouvelables, mais a dénoncé l’illusion que les énergies renouvelables puissent un jour fournir une contribution majeure à la production d’énergie dans le monde ; s’agissant du développement de l’énergie nucléaire, il a mentionné l’effort important envisagé par l’Inde, bien qu’elle ait à surmonter le handicap de son refus d’adhérer au Traité de non prolifération ; mais dès celui-ci levé, des alliances entre Areva et des opérateurs indiens seront envisageables64. Il a par ailleurs observé que le Canada, en promouvant l’exploitation de ses ressources en schistes bitumineux, activité par nature très polluante, se mettait en position difficile pour la négociation sur le changement climatique.

Christian Ngô s'est interrogé sur l'existence d'une offre autre que l'EPR au catalogue d'Areva, notamment des réacteurs moins complexes et de plus faible puissance, ou des réacteurs à eau bouillante, qui semblent assurer une part importante du chiffre d'affaires des constructeurs japonais. M. Bucaille a rappelé qu'Areva était engagé dans un partenariat avec E.on pour développer un réacteur à eau bouillante (SWR), filière permettant selon lui de descendre à une puissance de 600 MW; cette filière présente en outre l'avantage de raccourcir le délai de disponibilité opérationnelle des centrales nouvellement construites. Il a par ailleurs signalé que, pour des motifs éthiques, prenant en compte les risques de prolifération, Areva s'interdisait d'inscrire à son catalogue d'autres sortes de réacteurs de moindre puissance, tels que les réacteurs CAS 4G, dérivés directement des réacteurs de propulsion de sous-marin nucléaire, ou les réacteurs sur barge, dont la mise en œuvre dépendrait, de toute façon, de la constitution préalable d'une très hypothétique autorité de sûreté nucléaire internationale.

Pierre-René Bauquis s'est déclaré en accord avec les deux analyses selon lesquelles, d'une part, le développement futur de la production d'hydrogène correspondrait plus à une utilisation comme composant chimique que comme vecteur énergétique, et d'autre part, la production de masse d'hydrogène s'effectuerait plus par électrolyse que par un procédé thermochimique. Il a estimé néanmoins qu'il était prudent que le CEA maintienne sa veille technologique sur la voie thermochimique.

Pierre-René Bauquis a demandé ensuite s'il n'y aurait pas une pertinence à étudier une remise en route de Superphénix, pour l'utiliser comme démonstrateur. M. Bucaille a indiqué que la question avait été déjà examinée à l'initiative de Jean-Pierre Delalande dans la foulée de son arrivée au secrétariat général d’Areva en 2001; la conclusion à l'époque avait été négative. Aujourd'hui, les éléments de contexte sont certes différents, mais ce qui domine, c'est l'intense compétition internationale pour la mise au point des réacteurs de quatrième génération : celle-ci implique les Américains, les Japonais, tous deux partis sur des pistes technologiques au long cours, mais surtout les Russes (avec le réacteur BN-600 de Beloïarsk dans l’Oural) et les Indiens, ces derniers ayant d'ailleurs bénéficié au départ d'une forte assistance française basée justement sur l'expérience acquise avec Superphénix. Au point où la recherche en est arrivée en France, la mise en place d'un démonstrateur intégrant les derniers acquis technologiques est proche, dans le respect du calendrier prévu par la loi du 28 juin 2006; une relance de Superphénix présenterait donc un intérêt scientifique moindre sans véritablement faire gagner du temps.

En 2012, il sera possible de présenter, conformément aux prescriptions de la loi, une analyse des différentes conceptions possibles ; en 2014, un premier démonstrateur devrait être disponible, sous réserve que l’Autorité de sûreté nucléaire admette une démarche en deux temps, en n’imposant le respect du cahier des charges de sûreté complet que sur le second démonstrateur qui suivra cinq ans plus tard, le premier ne devant se conformer qu’à un cahier des charges centré sur l’essentiel. Par ailleurs, le CEA devra arrêter un choix en ce qui concerne le combustible, la solution la plus rapide à mettre en œuvre étant la combinaison hétérogène d’un cœur d’oxydes d’uranium et de plutonium avec une couverture radiale d’actinides, car la solution d’un mélange homogène d’oxydes et d’actinides nécessite encore une dizaine d’années pour être qualifiée au regard des obligations de sûreté. Au final, c’est le moins mauvais des RNR au sodium qui va gagner la partie, et la France est bien placée pour arriver en tête, même sans Superphénix.

M. Claude Birraux s’interrogeant sur l’état de la coopération internationale dans la recherche nucléaire, notamment dans le cadre du programme Gen IV, M. Bucaille a indiqué que celle-ci est devenue assez formelle depuis trois ans, même au niveau de l’alliance plus étroite avec les États-Unis et le Japon ; clairement, pour les recherches sur les réacteurs de 4e génération, l’esprit de concurrence commence à l’emporter sur l’esprit de collaboration. Il n’y a aucune illusion à se faire sur la possibilité de construire un réel partenariat avec les Américains ; un accord de développement sera de toute façon indispensable avec les Japonais, même si la Japan Atomic Energy Agency (JAEA) en retirera plus d’avantages que le CEA ; il devrait être possible de trouver un terrain d’entente avec les Russes, évidemment au prix de négociations assez difficiles ; quant à une éventuelle relance de la collaboration avec les Allemands, elle dépend beaucoup des évolutions de leur contexte politique, et ne pourra de toute façon intervenir que dans le cadre du marché intérieur européen.

M. Bucaille a estimé que les Japonais et les Russes étaient des concurrents très sérieux parce que raisonnant juste d’un point de vue stratégique ; que la répartition des forces japonaises entre trois grands groupes prenant chacun appui sur des alliances étrangères différentes était une structure curieuse, mais qu’elle constituait plutôt une chance pour Areva ; que les Américains avaient montré une effarante capacité au gâchis, mais étaient de toute façon assez puissants pour reconstituer rapidement un potentiel redoutable.

M. Didier Beutier a expliqué que l’expansion de la filière nucléaire dépendait, in fine, de sa rentabilité relative par rapport à celle de la seule technologie alternative, sur le long terme, de production massive d’électricité, à savoir la centrale à charbon équipée d’un dispositif de captage et stockage du gaz carbonique. Cette comparaison vaut également pour les filières de 3e et de 4e générations.

Le taux de rentabilité des centrales nucléaires actuelles varie dans un intervalle allant de 10 à 20%, selon la valeur retenue pour le coût du capital, ce coût dépendant lui-même des taux d’intérêt obtenus pour le financement, et donc de l’hypothèse quant au taux d’actualisation. Pour un opérateur privé européen, ce taux d’actualisation est de l’ordre de 8 à 9%, mais il tombe à 4% pour un opérateur public, ce qui divise par deux le coût actualisé du capital. Par conséquent, un soutien public fort, permettant l’accès à des financements moins coûteux, garantit plus sûrement l’avantage économique de l’énergie nucléaire. Quant à la rentabilité des centrales à charbon, elle dépendra, dans le futur, du surcoût que représentera la mise en œuvre des dispositifs de captage et stockage.

M. Didier Beutier a indiqué que l’absence de dispositif de captage et stockage ne ferait que déséquilibrer l’arbitrage financier à l’avantage des centrales à charbon.

M. Claude Birraux s’est interrogé sur la prise en compte, dans les études prospectives réalisées par Areva, d’analyses relevant des sciences humaines et sociales, ainsi que l’a recommandé le Haut Conseil de la science et de la technologie, dans son avis d’avril 2007 sur l’effort scientifique et technologique de la France en matière énergétique. Il a également demandé si Areva conduisait des recherches sur les interactions entre la consommation globale d’énergie et l’aménagement urbain, dans le cas par exemple d’une relocalisation de la population vers des habitats à basse énergie mais plus éloignés des centres d’activité, ou dans le cas d’un développement des transports modaux, compte tenu des déplacements que ceux-ci supposent jusqu’aux points d’embarquement.

M. Didier Beutier a indiqué que les études prospectives d’Areva sur les évolutions de la demande d’énergie s’appuyaient sur les travaux des grands organismes spécialisés de référence, en portant au besoin un regard critique sur les hypothèses qui sous-tendent leurs projections. S’agissant de l’impact de l’évolution des modes de vie sur la consommation d’énergie, il a estimé qu’il devait intégrer le développement des énergies renouvelables et des usages de l’électricité, que l’ensemble des opérateurs d’électricité s’en préoccupent au travers de leurs réflexions sur les besoins d’adaptation des réseaux, mais qu’en ce domaine, il reste encore difficile de percevoir le calendrier des échéances.

M. Christian Ngô a observé que le début du déploiement des véhicules hybrides rechargeables n’interviendrait pas avant une quinzaine d’années au moins.

M. Alain Bucaille a convenu qu’une analyse de nature sociologique de l’impact du changement climatique pourrait être intéressante, mais a observé que la recommandation du Haut Conseil concernait aussi le domaine du droit, et qu’à cet égard, il serait utile de conduire des recherches pour améliorer les instruments de pilotage de la lutte contre l’effet de serre ; il a souligné que ni la taxation, ni les permis d’émission n’étaient adaptés à la réalité du contexte international, puisqu’ils n’ont pas de véritables effets contraignants en dehors de la sphère des pays industrialisés ; il a estimé que ce décalage provenait de ce que la théorie sur laquelle ces instruments étaient fondés ne cadrait pas avec les faits, et qu’il restait à faire preuve de créativité dans ce domaine.

M. Pierre-René Bauquis a observé que cette défaillance du droit international s’observait aussi dans le morcellement de la planète pour ce qui concerne les conditions juridiques d’exploitation de l’activité nucléaire, puisque chaque pays produit ses propres normes dans des domaines aussi cruciaux que la gestion des déchets radioactifs, l’enrichissement des combustibles, les garanties financières imposées aux producteurs électronucléaires, les règles de certification pour les réacteurs. Ce morcellement est préjudiciable au déploiement mondial de l’énergie nucléaire, et une réflexion sur l’harmonisation des règles paraît indispensable sur le long terme.

M. Claude Birraux a indiqué que, s’agissant des flux internationaux de déchets radioactifs, la seule position tenable était celle fixée par la loi française, qui impose le retour au pays d’origine des déchets après leur traitement en France.

M. Mosconi a rappelé en préliminaire la tendance à l’augmentation de la demande mondiale d’énergie, en liaison avec la croissance du PIB des pays. Total s’appuie sur l’AIE pour établir ses prévisions de demande énergétique, mais utilise ses propres scénarios pour modéliser l’évolution de l’offre mondiale. Or, Total estime que cette offre ne pourra croître qu’au rythme de 1,2% par an au cours des années 2005-2030, alors que la croissance atteindra sur la période 4,2%, la demande mondiale se trouvant donc bridée par l’offre, ce qui imposera des efforts d’économie d’énergie très importants. Ces efforts concerneront au premier chef les trois sources d’énergie fossiles (charbon, pétrole, gaz), dont la part dans l’offre mondiale devrait revenir à 75% en 2030 contre 81% en 2005, sous réserve que les sources renouvelables et nucléaires se développent effectivement.

Le pétrole va se concentrer sur les usages pour lesquels il n'est pas substituable, et notamment sur le transport. Son utilisation pour la production d'électricité devrait progressivement disparaître, au profit du gaz naturel, du charbon, et de l'énergie nucléaire.

M. Claude Birraux a observé que la hausse du prix du pétrole se répercuterait néanmoins sur le coût de l'électricité, à travers le prix du gaz naturel qui suit celui du pétrole. M. Mosconi a expliqué que la dépendance entre prix du gaz et prix du pétrole était effectivement très marquée en Asie, où le gaz naturel constitue une ressource incontournable, les deux prix s'y ajustant au point d'atteindre la parité énergétique, mais qu'une décote systématique existait aux États-Unis du fait d'un arbitrage possible avec le recours au charbon, notamment pour la production d'électricité; de surcroît, la politique énergétique américaine met l'accent sur l'utilisation du charbon national, avec un programme visant à produire du charbon "propre". M. Claude Crampes signalant l'effort de développement des terminaux méthaniers aux États-Unis, M. Mosconi a indiqué qu'ils fonctionnaient pour beaucoup en sous-capacité, à commencer par le terminal de regazéification de gaz naturel liquéfié (GNL) construit par Total à Sabine Pass en Louisiane.

M. Mosconi a expliqué que les arbitrages sur le prix du gaz naturel se faisaient parfois sur des cargaisons en mer, des déroutages intervenant parfois en chemin, notamment lorsqu'il existe une pointe de demande au Japon, par exemple à la suite du violent tremblement de terre de juillet 2007 qui a conduit à l'arrêt de la centrale nucléaire de Kashiwazaki-Kariwa: un cargo peut ainsi partir du Moyen-Orient à destination des États-Unis pour une livraison à 9 dollars par BTU (British Thermal Unit), et être redirigé vers le Japon où un acheteur propose 16 dollars par BTU. Tous les contrats d'approvisionnement ne permettent pas ce genre d'arbitrage, mais les qataris se réservent souvent cette souplesse.

La production de produits pétroliers devrait plafonner à 100 millions de barils par jour du fait des contraintes géologiques et géostratégiques, contre 87 millions de barils par jour aujourd’hui.

La production d'huile fossile devrait elle-même plafonner, après 2020, dans les meilleures hypothèses, à 95 millions de barils par jour. L'augmentation de la demande pousse la production d'un million de barils par an, mais l'offre se stabilise aux États-Unis (sauf en offshore) et en Mer du Nord, et le reste de la production mondiale dépend de compagnies nationales aux stratégies restrictives : ainsi l'Arabie Saoudite limite délibérément sa production à 12,5 millions de barils; le Nigeria produit 2 millions de barils alors qu'il aurait un potentiel de production de 3 millions avec une situation pacifiée, et de 4 millions avec de nouveaux investissements; l'Irak, en seconde position pour les réserves pétrolières dans le monde, produit 2,5 millions de barils par an, alors que son potentiel de production serait de 4,5 millions sans guerre, et de 8 millions s'il était complètement mis en valeur; le Venezuela aussi a une production de 2,5 millions de barils pour un potentiel de 4 millions. Les schistes bitumineux du Canada pourraient permettre une extraction de 4 millions de barils par an, sous réserve de la résolution des problèmes d'émission de gaz carbonique et de retraitement de l'eau.

L'apport des autres produits pétroliers prendra la forme du CtL (Coal to Liquid), pour 1,6 million de barils en 2030, du GtL (Gas to Liquid), pour un million de barils en 2030, tous deux conduisant à la production de diesel, et des biocarburants.

Les biocarburants

La production de biocarburants pourra représenter, dans une perspective assez volontariste, plus de 3 millions de barils par jour contre 0,3 million aujourd'hui. Il s'agira surtout de bioéthanol, qui est produit à partir de la canne à sucre dans des conditions de bilan énergétique et d'émission de gaz à effet de serre tout à fait satisfaisantes au Brésil, grâce au recyclage de la bagasse en source d'énergie. Ce double bilan est moins favorable pour la production à partir du maïs aux États-Unis; il est clairement défavorable pour la production à partir du blé ou de la betterave en Europe. M. Christophe Cevasco a indiqué que cette dernière appréciation n'avait pas empêché Total de participer à l'action gouvernementale française en faveur de l'E85, dont l'usage ne se développe pas en dépit de l'approvisionnement d'une cinquantaine de pompes et d'un prix au litre très attractif, du fait d'une offre insuffisante de véhicules "flexfuel". M. Didier Mosconi a indiqué que le biodiesel, quoique d'un double bilan plus satisfaisant en moyenne que le bioéthanol, était appelé à un développement mondial moindre, puisque sa consommation était essentiellement européenne. Cependant la demande de biocarburants rend nécessaire, en tout état de cause, un développement des filières de deuxième génération reposant sur l'hydrolyse enzymatique pour le bioéthanol, et sur la gazéification de la biomasse pour le biodiesel, qui limiteront l’effet d’éviction des productions alimentaires.

M. Claude Crampes a observé que cette éviction se produisait dès lors qu’on recourait à des facteurs productifs de base comme l’eau et la terre. M. Pierre René Bauquis a signalé que les bilans économiques de fabrication des biocarburants omettaient souvent la valeur d’usage des éléments présentés comme des déchets, qui pouvaient servir de paille, par exemple, ou d’engrais s’ils étaient brûlés.

L’effort de R&D pour aller plus loin dans l’exploitation des gisements

Il reste encore dans le monde de larges réserves d’hydrocarbures exploitables selon les méthodes classiques, mais elles sont sous le contrôle d’États menant des stratégies d’exploitation restrictives pour préserver la part de la rente devant revenir aux générations futures. Plus généralement, on estime que l’arrivée au « Peak Oil » ne va pas laisser une quantité de pétrole équivalente à celle extraite depuis l’origine (thèse soutenue par M. Yves Cochet notamment), environ mille milliard de barils, mais une quantité double, grâce au progrès technique : mille milliards correspondent à des réserves connues non exploitées (localisées pour 60% au Moyen-Orient) ; deux cent milliards à des découvertes probables ; trois cent milliards devraient provenir d’une efficacité accrue de récupération à partir des réservoirs exploités, grâce surtout à des progrès en géochimie (le taux de récupération actuelle est de l’ordre de 32%, il pourrait monter jusqu’à 37%) ; et six cent milliards devraient pouvoir être extraits des schistes bitumineux, principalement disponibles au Venezuela, dans la ceinture de l’Orénoque, et au Canada.

Les schistes bitumineux, qui sont difficiles à extraire, et nécessitent un traitement très consommateur d’énergie et d’eau, constituent un premier exemple des ressources nouvelles potentielles supposant un effort de R&D. Total, s’appuyant sur son expérience historique acquise sur le gaz de Lacq, très chargé en sulfure d’hydrogène (16%), au point que certains experts avaient préconisé à l’époque de renoncer au gisement, développe aujourd’hui une capacité d’exploitation des gaz très acides. L’effort de R&D concerne encore l’exploitation des « tight gas » (les gaz compacts), inséré dans des roches peu perméables, les gisements se situent en Chine et en Algérie. Les recherches sur l’amélioration du taux de récupération visent notamment à trouver des polymères pour faciliter la circulation de l’huile. L’exploitation des réservoirs très profonds, à plus de 5 000 mètres, notamment en Mer du Nord, constitue un défi pour la mise au point de matériels résistants à des pressions de plus de 1000 bars et des températures de plus de 200 degrés. Total travaille enfin à la mise au point d’équipements miniaturisés permettant d’effectuer la séparation huile-gaz directement à la sortie des puits offshore, au fond de l’océan, alors que celle-ci s’effectue aujourd’hui sur les plateformes pétrolières ; cela permet d’effectuer des forages dans des eaux encore plus profondes, jusqu’à 1500 mètres en Angola.

Enfin, Total investit dans des recherches touchant à l’environnement, que ce soit pour traiter les gaz résiduels issus des exploitations, ou l’eau qui vient progressivement obturer les puits pétroliers au fur et à mesure de l’extraction de l’huile ; un programme d’études est consacré aux micro-volcans sous-marins, dont la formation, notamment dans le golfe de Guinée, peut déstabiliser les plates-formes pétrolières ; un petit robot affrété en collaboration avec l’IFREMER dans le cadre du projet NERIS suit la faune et la flore à proximité des zones d’exploitation en mer, et le site canadien de Joslyn en Athabasca dispose de moyens pour éviter la pollution des sols et des eaux.

M. Christophe Cevasco a indiqué qu’une partie essentielle de ces travaux de R&D s’effectuait dans le cadre des 1,8 milliard d’euros consacrés à l’exploration pétrolière, sans pour autant toujours être comptabilisés comme R&D, puisqu’ils faisaient masse avec les investissements ; que le directeur général de Total avait pris conscience de ce problème, et avait demandé la mise au point de nouveaux indicateurs, permettant de mieux répondre aux interrogations des parlementaires. M. Didier Mosconi a précisé que la comptabilisation de la R&D comme investissement répondait souvent au refus de certains actionnaires ou partenaires de Total de financer des frais de recherche. M. Pierre René Bauquis, arguant de son expérience d’ancien dirigeant de filiale du groupe, a indiqué qu’il était possible de faire varier le montant de la R&D d’un facteur 1 à 4, sans jamais mentir.

Le captage et stockage du gaz carbonique

M. Didier Mosconi a rappelé que la France avait un profil d'émission de gaz carbonique, en fonction des sources, très décalé par rapport à celui du monde, du fait de son énergie nucléaire, puisque la première source mondiale est la production d'électricité, notamment parce qu'elle repose à hauteur de 40% en moyenne sur le charbon, avec des pics à 80% pour la Chine, et 50% pour les États-Unis.

Rappelant rapidement les points clés de l’analyse du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) incitant à développer un programme de captage et stockage du CO2, il a expliqué que le démonstrateur de Lacq reposait sur la transformation d’une ancienne chaudière pour y traiter le gaz naturel selon le procédé de l’oxycombustion, une des trois technologies de captage du CO2 avec la précombustion (décarbonation préalable) et la postcombustion (récupération par un solvant dans une colonne de lavage).

L’oxycombustion consiste à brûler le gaz avec de l’oxygène pur pour améliorer l’efficacité du captage en augmentant la concentration des fumées en CO2 (ce procédé induit une perte de rendement énergétique de l’ordre de 10%). L’installation comporte une unité de distillation cryogénique (mise en place par Air Liquide) pour extraire l’oxygène de l’air. Le gaz carbonique ainsi récupéré fait l’objet d’un transport par pipeline, ce qui permet d’étudier la résistance des conduits. Puis, il est injecté à 4 000 mètres de profondeur dans un ancien réservoir de méthane déplété, protégé par une couche d’argile. Le réservoir a été minutieusement choisi, après une série d’analyses sismiques, comme adéquat pour le stockage du gaz carbonique.

L’expérience a pour enjeu, outre d’étudier le moyen d’industrialiser le procédé d’oxycombustion, de tester la capacité du réservoir à retenir effectivement le gaz carbonique pendant des millions d’années. Elle devrait débuter effectivement en mars 2009.

La configuration retenue correspond assez bien à un type d’exploitation assez répandue au Canada, notamment, et Christophe Cevasco a observé que c’était un des grands intérêts du pilote de s’appuyer sur d’anciennes installations d’exploitation de gaz, car ce modèle de mise en place d’un dispositif de captage et stockage par adaptation d’un site industriel antérieur pouvait être ainsi transposé ailleurs.

L’expérience dite « de Lacq », mais située en fait dans la région de Rousse, suscite une réticence du côté de la population environnante (majoritairement constituée de viticulteurs et de propriétaires de résidences secondaires), bien que la mise au point du démonstrateur ait globalement porté l’ancienne installation à un état technologique plus respectueux de l’environnement.

M. Didier Mosconi a indiqué que Total étudiait aussi la piste du stockage en aquifère salin, en s’associant au projet conduit en Norvège à Snohvit (aquifère offshore), en collaboration avec StatOil, qui bénéficie depuis 1996 de son expérience du réservoir de Sleipner. M. Christophe Cevasco a ajouté que Total suivait aussi, d’un peu plus loin, la piste du stockage du gaz carbonique par réinjection dans des veines de charbon non exploitables, qui pourrait bien répondre à une configuration énergétique comme celle de la Chine. M. Didier Mosconi a précisé que des expériences de ce mode de stockage étaient en cours aux États-Unis, au Wyoming ; M. Pierre-René Bauquis a signalé que cela supposait un charbon pré-micro-fracturé que l’on ne rencontrait au mieux que dans 10% des cas.

M. Didier Mosconi a indiqué que les divers procédés de capture du CO2 devrait permettre d’éliminer, dans l’ensemble formé par l’Amérique du Nord, l’Europe et la Chine, 20 à 40% des émissions produites par les sources « stationnaires » (c'est-à-dire non mobiles, comme les véhicules de transport). M. Christophe Cevasco a ajouté que Total poursuivait ses recherches dans une perspective de large partage des résultats.

M. Claude Birraux s’interrogeant sur d’éventuelles collaborations avec d’autres majors pétroliers, M. Didier Mosconi a signalé que les majors américains n’avaient aucun projet connu dans ce domaine, à part Exxon Mobil qui aurait lancé une expérimentation sous la pression, au conseil d’administration, de la famille Rockefeller, et que BP avait abandonné un projet en Australie en raison de l’inadéquation du réservoir envisagé.

M. Christian Ngô a observé que le chiffre d’une élimination de 20% à 40% des émissions à partir des sources stationnaires, qui produisent une dizaine de milliards de tonnes de gaz carbonique par an, était peu réaliste, car il correspondait à la création de plusieurs milliers d’installations de type « Sleipner », d’une capacité d’accueil de l’ordre du million de tonnes par an. Etant donné le temps nécessaire pour mettre à jour les réservoirs géologiquement adéquats, sans anicroche rédhibitoire du côté de l’acceptation sociale, même l’horizon 2050 paraît trop rapproché pour atteindre un tel niveau de capacité de stockage. M. Pierre-René Bauquis a abondé dans le même sens, en estimant qu’on ne pourra atteindre qu’une capacité de stockage annuelle de quelques pourcents dans la configuration la plus favorable ; à cet égard, il a comparé l’apport du captage du CO2 à celui des biocarburants, qui a fait l’objet d’annonces disproportionnées, avant qu’on ne s’aperçoive qu’il ne correspondait au mieux qu’à une solution additionnelle, justement de l’ordre quelques pourcents.

M. Christian Ngô a observé que le dossier se compliquait encore du fait que les installations de captage et stockage mobilisent une énergie qui produit elle-même du gaz carbonique.

M. Didier Mosconi a signalé que, parallèlement, des efforts étaient faits pour limiter les émissions en améliorant encore le rendement des centrales thermiques, Alsthom annonçant des gains possibles de 5% pour les centrales CCGT (Combined cycle gaz turbine) ; que, par ailleurs, le même groupe Alsthom mettait désormais sur le marché des centrales dites « Capture Ready », n’attendant plus qu’un couplage avec un réservoir de stockage. M. Pierre-René Bauquis a estimé que ce label « Capture Ready » présentait l’inconvénient d’entretenir une attente irréaliste à l’endroit de la technologie de capture du gaz carbonique, qui bute fondamentalement sur la disponibilité des réservoirs.

Quant à l’erreur d’échelle sur les possibilités réalistes de stockage du gaz carbonique, M. Christian Ngô a fait l’analogie avec l’idée parfois évoquée du remplacement de la ressource pétrolière par l’énergie nucléaire : les 450 réacteurs dans le monde produisent une énergie équivalente à 0,6 milliard de tonnes de pétrole ; s’il faut combler un déficit de 3,5 milliards de tonnes de pétrole, cela nécessite de construire plusieurs milliers de nouvelles centrales nucléaires, au rythme d’une par semaine pendant cinquante ans. Avec la capture du gaz carbonique, l’erreur d’échelle est plus grande encore, puisque l’écart à combler est plus important d’un ordre de grandeur.

M. Didier Mosconi a reconnu qu’il fallait prendre en compte un calendrier de mise en œuvre de plusieurs décennies pour que l’impact sur les émissions de gaz carbonique devienne substantiel ; mais qu’en tout état de cause, cette voix technologique bénéficiait d’appuis sérieux, puisqu’on comptait une quinzaine de projets expérimentaux en Europe, et une dizaine aux États-Unis.

La recherche dans les NTE

L’investissement de Total dans les NTE va des recherches les plus en amont (600 contrats en cours), comme la participation à la mise au point d’enzymes génétiquement modifiés permettant de transformer la cellulose en éthanol, jusqu’à la mise en œuvre des procédés au niveau industriel, comme l’illustre l’investissement au Japon, en partenariat avec des opérateurs locaux, dans un démonstrateur, puis une usine, de fabrication du DME (Diméthyl Ether, gazole obtenu à partir du méthane).

M. Didier Mosconi a indiqué que Total s’efforçait, dans le domaine de l’énergie solaire, de maintenir une approche en portefeuille pour être présent sur toutes les pistes technologiques. La technologie cristalline, sur laquelle Total est présent en partenariat avec Suez et l’IMEC (l’équivalent belge du CNRS) dans PhotoVoltech, bute sur un problème de disponibilité du silicium du fait de la concurrence avec les besoins de l’industrie électronique, ce qui conduit Total à envisager de consolider ses ressources en ce domaine. En outre, la fabrication des cellules photovoltaïques est complexe, car les usines sont classées en catégorie Seveso II.

La technologie des couches minces devrait permettre de diffuser plus largement les capteurs, en rendant possible de les placer sur les vitres par exemple, mais n’assure pas une véritable accélération de la diffusion de l’énergie solaire. La rupture viendra peut-être après 2015 avec la technologie des nanotubes, un certain espoir étant mis dans le recours à l’arséniure de galium pour l’effet photovoltaïque.

M. Pierre René Bauquis a rappelé qu’une incursion de Total dans l’énergie solaire avait déjà été tentée par le passé, avec un investissement massif dans ce qui apparaissait à l’époque comme une technologie de rupture, en achetant les brevets de la société américaine Photon Power, et en s’assurant le concours des meilleurs scientifiques, et que l’échec avait été complet, aucun panneau solaire n’ayant été finalement produit. Il a conseillé la plus grande prudence vis-à-vis des annonces scientifiques qu’il est difficile de transcrire ensuite au niveau industriel.

M. Mosconi a indiqué que cette leçon de prudence avait été bien retenue, et que, d‘une façon plus générale, Total abordait la recherche sur les NTE en prenant bien en compte les freins concrets au niveau de la disponibilité des ressources, de l’acceptatibilité sociale, et des contraintes d’intégration systémique dans les circuits actuels de gestion de l’énergie. A cet égard, il a rappelé que la production d’électricité éolienne avait un caractère intermittent et aléatoire, l’apport en électricité pouvant survenir à un moment où le réseau est déjà saturé, ce qui le rend vain ; ainsi le parc installé de 20 GW en Allemagne n’est effectivement opérationnel, du fait de la variabilité du vent, qu’environ 15% du temps (pour une production consolidée effective à peu près équivalente à la consommation des appareils électriques allemands à l’état de veille, a précisé Christian Ngô). M. Birraux a rappelé que le système d’incitation à la construction d’éoliennes, décalqué en France du système allemand, garantissait la marge des investisseurs à l’encontre de toute logique d’efficacité énergétique, puisque le bilan triennal prévu par ce dispositif conduisait à maintenir la subvention si la localisation de l’installation ne la rend pas spontanément rentable.

L’effort de Total dans la R&D

M. Mosconi a indiqué que l’effort de Total en faveur de la R&D pour 2008 représentait un milliard de dollars, en croissance de 20% par rapport à l’an dernier, et que l’investissement dans l’exploration représentait 1,8 milliard de dollars. Il a mis l’accent sur le lancement en 2008, à Feluy en Belgique, d’une unité pilote de fabrication d’oléfines (en fait, des alcènes comme l’éthylène) à partir de méthanol issu du gaz naturel, et d’un programme de 825 millions de dollars sur cinq ans (dont 220 millions en 2008) d’amélioration de la qualité de l’air et de l’eau dans les sites industriels de Total. A côté des efforts effectués par Total pour améliorer sa propre efficacité énergétique, mobilisant plus de 350 millions de dollars sur cinq ans, il a évoqué la mise en place d’un partenariat de développement avec l’ADEME, à l’appui duquel Total engage 150 millions de dollars sur cinq ans, pour renforcer l’efficacité énergétique dans l’industrie en général, par le moyen d’un soutien aux projets innovants de PME.

Le développement de Total dans l’énergie nucléaire

Sur une interrogation de M. Pierre René Bauquis, qui constatait que Total était le premier major pétrolier à montrer de l’intérêt pour l’énergie nucléaire, à travers un accord récent avec Areva et Suez pour l’équipement des Emirats arabes unis, et que cette orientation pouvait produire un avantage compétitif du fait des réelles synergies potentielles entre les énergies pétrolières et nucléaires, M. Mosconi a confirmé qu’il s’agissait d’une véritable option stratégique de Total, ancrée par la création d’un nouveau département spécifique au sein de la direction de recherche.

M. Lempérière a ouvert son propos en expliquant que ses analyses se nourrissaient de son expérience d’entrepreneur, de concepteur et gestionnaire de projet, à l’échelle nationale et internationale ; qu’il avait fait l’essentiel de sa carrière dans la construction d’ouvrages hydroélectriques, assurant encore à ce jour la présidence d’un des comités techniques de la commission internationale des grands barrages, mais qu’il disposait aussi d’une expérience de la construction d’ouvrages en mer ; que c’est d’ailleurs le rapprochement de ces deux expériences qui l’avait amené à imaginer un nouveau dispositif de stockage d’énergie de masse à un coût admissible.

Il s’est ensuite proposé d’analyser les conditions de la réponse à l’évolution de la demande d’énergie en trois temps : d’abord à l’échelle mondiale ; ensuite en France ; enfin, en détaillant les possibilités offertes par le stockage d’énergie en mer.

Dans son analyse de la situation de l’énergie à l’échelle mondiale, il a estimé qu’il se produirait une véritable explosion de la demande d’ici 2050, celle-ci devant être multipliée par cinq ; il a pris comme exemple l’évolution très rapide de la demande d’énergie au Vietnam, qui atteindrait à cette échéance le niveau de la France. Il a indiqué que l’hydroélectricité sous différentes formes, dont les centrales alimentées au fil de l’eau, pourrait répondre au maximum à hauteur de 15% à 20% de la demande mondiale, la Chine et l’Inde ayant déjà engagé des programmes très importants pour exploiter leur potentiel dans ce domaine. Il a estimé que l’énergie nucléaire aurait une contribution incontournable, d’autant qu’il s’agissait d’une énergie à prix bas, de l’ordre de 5 centimes d’euro le kWh, nécessitant peu d’emprise dans le paysage, et garante d’indépendance énergétique ; que les limites des réserves mondiales d’uranium, qu’il a évaluées à 100 fois la consommation historique de la France, ne lui permettrait de fournir que de l’ordre de 20% de la demande mondiale, ce qui correspondrait à la construction d’environ un millier de réacteurs EPR d’ici 2040.

Il a en conséquence mis en avant l’apport indispensable des énergies éolienne et solaire, dont il a souligné la complémentarité à divers titres, permettant d’assurer une certaine continuité de fourniture à une échelle géographique large : d’une part, l’énergie solaire est plus abondante dans les pays en développement tandis que l’énergie éolienne est plus abondante dans les pays développés ; d’autre part, la période d’activité des vents est décalée d’une zone à l’autre, ce qui permet de compenser partiellement l’intermittence locale de production d’électricité par une mutualisation des réseaux de collecte. Il a évalué à 5 centimes d’euro le kWh le coût brut de production d’électricité éolienne, l’électricité solaire devant tendre vers ce même coût à la faveur du déploiement de grandes usines de capture thermique ; l’Afrique du Nord pourrait notamment devenir pour l’Europe une source d’approvisionnement importante en énergie solaire, à un coût de l’ordre de 10 centimes d’euro le kWh, si l’on tient compte du transport d’électricité.

M. Lempérière a indiqué qu’avec un stockage de masse d’énergie tel qu’il l’envisageait, le coût de revient de l’électricité éolienne pourrait atteindre de l’ordre de 10 centimes d’euro le kWh. Ainsi, toutes les énergies renouvelables seraient disponibles à un surcoût de 5 centimes d’euro par kWh par rapport à l’électricité nucléaire, mais pourraient assurer le bouclage de l’approvisionnement énergétique mondial, moyennant un prélèvement sur le revenu de l’ordre de 1% du PIB mondial, équivalent à celui opéré par le quintuplement du prix du baril de pétrole depuis 2004.

S’agissant de la réponse à l’évolution de la demande d’énergie en France, M. Lempérière a souligné l’apport potentiel de l’énergie marémotrice, puisque l’équipement des côtes françaises permettrait en théorie d’atteindre une production de 1000 TWh par an. Le seul équipement des deux sites les plus efficaces, à savoir l’Ouest du Cotentin et le long des falaises du pays de Caux, pourrait fournir 100 TWh par an, soit l’équivalent d’un cinquième de la demande française d’énergie à l’horizon 2050 (500 à 600 TWh par an). Ce supplément de fourniture d’électricité serait de surcroît bien situé, puisque la moitié Nord de la France, plus industrialisée, à une consommation plus importante.

La technologie des usines marémotrices fait l’objet d’un regain d’intérêt dans le monde, et M. Lempérière a été amené à effectuer, dans ce domaine, de récentes missions de conseil d’une part en Russie, en vue notamment d’équiper une enclave de la mer de Barents en Sibérie (Mezenskaya), à 1 000 km de Moscou et Saint-Peterbourg, sur une surface de 2 000 km2, et d’autre part en Inde, en vue d’équiper dans le Nord-Ouest du continent un confluent de trois grands fleuves, près de Ahmedabad, sur une surface de 2 000 km2 également.

Une usine marémotrice utilise le dénivelé d’eau entre la mer et un bassin artificiel côtier. Elle peut l’utiliser dans les 2 sens. Lorsque la mer monte, le bassin se remplit, et l’eau déversée dans le bassin alimente les turbines ; lorsque la mer redescend, le bassin artificiel se vide et l’eau déversée vers le large alimente à nouveau les turbines, mais dans l’autre sens.

M. Lempérière a précisé que le coût au kWh de l’électricité ainsi produite pouvait tomber en dessous de 10 centimes d’euro si la zone d’exploitation était suffisamment vaste. En effet, le coût fixe de revient, lié principalement à l’amortissement de la construction, dépend de la longueur de la digue, tandis que la capacité de production dépend de la surface de mer enfermée. Ce type d’ouvrage doit donc couvrir une surface minimale de l’ordre de 100 km2 pour atteindre ces niveaux de prix unitaire de revient.

L’impact principal pour l’environnement de ce dispositif de capture d’énergie, à savoir l’atténuation des marées sur les plages, peut être compensé par le recours au pompage, qui permet de compléter le remplissage du bassin artificiel à marée haute, puis de le vider complètement à marée basse : on peut ainsi reconstituer une marée intérieure au bassin artificiel avec un décalage de trois heures. La digue d’une dizaine de mètres de hauteur étant située à une dizaine de kilomètres du rivage ne peut pas représenter une nuisance visuelle. Elle protège des marées noires. Elle enferme une zone d’eau calme où l’on peut développer des activités de pisciculture et de loisir.

Le problème de l’intermittence de la production d’électricité, dû au fait que les turbines ne peuvent tourner que lorsque la mer est suffisamment haute dans un sens, suffisamment basse dans l’autre sens, peut être résolu de deux manières : indirectement par un stockage de quelques heures, ou directement par le recours au dispositif VHALS (Very High And Low Schemes).

Ce dispositif utilise deux bassins : le bassin supérieur, plus haut que le niveau moyen de la mer, est rempli à marée haute, par pompage ; le bassin inférieur, plus bas que le niveau moyen de la mer, est vidé à marée basse, par pompage également. A marée haute, les turbines sont alimentées par la mer, l’eau se déversant dans le bassin inférieur ; à marée basse, les turbines sont alimentées par le bassin supérieur, l’eau se déversant dans la mer. Une partie de l’électricité produite sert au pompage de remplissage ou de vidage, selon le cas. Par conséquent, non seulement l’oscillation du niveau de la mer entre les deux bassins fournit de l’électricité à plein temps, mais encore le pompage permet le stockage d’une partie de l’énergie produite, pouvant être restituée au moment voulu pour faire face à des pics de demande.

Cette idée d’utiliser la mer comme bassin dans le cadre d’un système de stockage hydraulique d’énergie est reprise par M. Lempérière dans le dispositif des atolls artificiels, qu’il a encore appelés les « lacs émeraudes ». C’est en effet à l’occasion d’une étude effectuée, voilà quelques mois, à la demande d’EDF, sur les potentialités de la côte française en énergie marémotrice, qu’il a structuré ses réflexions sur cette forme de stockage d’énergie de masse.

Il s’agit de créer un réservoir d’eau au milieu de la mer, comme un cratère à ciel ouvert de volcan éteint prenant son assise sur le fond de l’océan. Le plateau continental proche, d’une profondeur d’une vingtaine de mètres, est particulièrement propice à ce genre de construction recourant à des digues classiques. Il suffit que le réservoir domine le niveau de la mer d’une cinquantaine de mètres pour stocker environ 2 GWh par km2(65). Le réservoir est rempli par pompage à l’aide du courant électrique qu’il s’agit de stocker ; le déstockage d’énergie s’effectue par déversement de l’eau accumulée dans le réservoir sur des turbines, comme dans un barrage hydroélectrique.

La construction d’un ouvrage de ce type ne ferait appel qu’à des techniques bien connues : des digues de 70 mètres de hauteur, alors qu’on sait aujourd’hui édifier des retenues d’eau jusqu’à 300 mètres de hauteur ; des brises lames à l’extérieur pour protéger le réservoir, comme on en utilise pour protéger les ports. Il s’agirait de véritables îlots artificiels pourvus sur leur parement extérieur de végétation.

Un dispositif de réservoir en creux est aussi possible, avec des digues affleurant la surface de la mer, ce qui aurait l’avantage de les rendre peu visibles. Dans la Manche, il faudrait les implanter dans les zones les plus profondes du plateau continental, à 25 ou 30 mètres sous la surface, car il serait bien trop coûteux de créer de la hauteur de déversement en creusant le fond de la mer. Mais avec une hauteur de déversement deux fois moindre, il faudrait un réservoir de surface quadruple pour stocker la même quantité d’énergie.

Le coût d’un tel ouvrage dépend de la longueur de la digue formant la paroi du réservoir. Comme la surface de la zone emprisonnée croît comme le carré de la longueur de la digue, le coût de revient de la construction au kWh stocké décroît avec l’augmentation de la taille de l’ouvrage. Pour une capacité de stockage de 200 GWh, correspondant à une longueur de digue de 35 km, le coût de construction atteint 4 milliards de dollars, soit environ 3 milliards d’euros, ce qui équivaut, peu ou prou, à l’ordre de grandeur du coût de construction d’une centrale nucléaire d’une puissance d’un gigawatt.

Le prix total de revient de l’électricité obtenue par turbinage intègre non seulement le coût de construction de l’atoll, mais aussi celui du parc de production d’énergie associée : nucléaire, solaire, éolienne ou marémotrice. Selon M. Lempérière, le surcoût lié spécifiquement au stockage comprend trois parties :

1. le génie civil des lacs de stockage, dont le coût au kWh varie avec la durée de stockage et l’échelle des ouvrages ; il est de l’ordre de 1 cent par kWh ;

2. l’acquisition des stations de pompage et turbinage, d’une puissance de 30 à 50% de la puissance de production installée, et d’un coût au kW environ moitié, soit un surcoût d’environ 20% sur le coût direct au kWh ;

3. la perte induite par le transfert d’énergie imparfait des opérations de pompage et turbinage, estimée à environ 10% de l’énergie annuelle initialement produite.

Si l’on ajoute au 1 cent par kWh pour le génie civil des lacs, environ 30% d’un coût direct de 5 à 8 cents, soit environ 2 cents par kWh, le surcoût total lié au stockage est donc de l’ordre de 3 cents par kWh.

Le stockage permet un transfert d’énergie de nuit vers les heures de pointe et une meilleure gestion des réseaux électriques. Ce surcoût se trouve donc justifié par la valeur économique supérieure du courant obtenu par turbinage par rapport à celui résultant d’une production directe d’électricité.

M. Claude Birraux s’interrogeant sur le raccordement de l’atoll de stockage au réseau électrique terrestre, M. Lempérière a répondu en évoquant le cas de l’exportation du courant vers l’Angleterre à travers la Manche : il est possible de faire circuler de l’électricité à haute tension à travers un câble sous-marin, cette configuration présentant même l’avantage de résoudre la question du refroidissement du conducteur. Pour un atoll d’un diamètre de dix kilomètres, la puissance livrée peut atteindre en pointe 10 GW, ce qui est de l’ordre de grandeur de la puissance fournie par un site nucléaire de plusieurs réacteurs (3 GW).

M. Langlois s’interrogeant sur la corrosion par l’eau salée des ciments et des turbines, M. Lempérière a mentionné la résistance de l’usine marémotrice de la Rance, en service depuis 40 ans.

M. Leban s’interrogeant sur les obstacles technologiques risquant de se faire jour durant la construction, M. Lempérière a indiqué que les atolls poseraient certainement moins de difficultés sur ce point que les barrages de montagne, qui imposent par exemple souvent de creuser des tunnels dans la zone d’aménagement.

M. Bugat a rappelé que l’énergie constitue l’un des trois axes de la recherche fixés par le contrat d’objectif du CEA signé en 2004, à côté de la défense et la sécurité globale, et des technologies pour l’information et la santé. Dans le domaine de l’énergie, le CEA s’intéresse, non seulement à l’énergie nucléaire, mais aussi à de nombreux aspects des nouvelles technologies de l’énergie : l’hydrogène et la pile à combustible ; l’énergie solaire, surtout celle d’origine photovoltaïque ; le stockage de l’électricité ; les biocarburants de deuxième génération ; la maîtrise de l’énergie, notamment dans l’habitat.

Il a signalé que le CEA attendait d’une prochaine réunion du Comité de l’énergie atomique une validation de l’investissement du CEA dans le domaine des biocarburants de deuxième génération ; il semble que l’idée se heurte au souhait de respecter un certain partage des tâches entre les grands établissements de recherche français, puisque l’INRA et l’IFP sont déjà présents sur le sujet ; pourtant le CEA est en mesure de mobiliser des technologies assurant une augmentation sensible des rendements, atténuant le problème de la concurrence d’utilisation de la biomasse (agriculture, papeterie). Dans ce domaine, le CEA soutient un projet de production qui serait implanté dans la zone de Bure, avec une finalité de développement économique local plus que de recherche ; l’accord du ministre de tutelle est acquis, mais il reste à valider le dispositif de financement.

En ce qui concerne les crédits publics qu’il mobilise, le CEA dispose d’un soutien de 360 millions d’euros pour la recherche sur l’énergie nucléaire (hors subventions couvrant les salaires versés pour les activités de démantèlement), et de 30 millions d’euros pour les nouvelles technologies de l’énergie. Mais les ressources financières disponibles sont doubles du fait des revenus produits par les droits de propriété financière ou intellectuelle, dont notamment le dividende d’Areva, ou d’autres financements externes.

Les recherches conduites dans le domaine de l’énergie se font pour l’essentiel dans le cadre de partenariats avec l’industrie, bilatéraux ou multilatéraux, et bénéficient alors d’un financement complémentaire des programmes auxquels ils se rattachent (ANR, OSEO, PCRD) ; la part de recherche fondamentale en physique et chimie correspond à un soutien public de l’ordre 80 millions d’euros.

L’essentiel des recherches du CEA sur l’énergie solaire sont conduites au sein du laboratoire de l’Institut national de l’énergie solaire (INES) de Chambéry, sous réserve de quelques travaux spécifiques menés ailleurs, notamment ceux touchant à la biologie végétale.

S’agissant de la « stratégie nationale » de recherche, M. Bugat observe qu’elle ne manque pas de travaux de synthèse sur lesquels elle aurait pu s’appuyer, puisqu’une analyse des orientations stratégiques a été effectuée successivement dans le cadre des rapports Chambolle de 2004 et Syrota de 200766 ; que le comité opérationnel du Grenelle de l’environnement dirigé par Marion Guillou a une nouvelle fois repris l’exercice en 2008. Toutes ces démarches ont permis de dégager clairement des priorités, sur des bases d’autant plus consensuelles que les experts mobilisés n’étaient pas toujours les mêmes, alors que la stratégie nationale de mai 2007 revêt plutôt la forme d’un catalogue. Les quatre priorités sont : l’efficacité énergétique dans l’habitat ; l’énergie nucléaire de quatrième génération ; les biocarburants de deuxième génération ; la capture et le stockage du gaz carbonique.

M. Bugat observe que cette quatrième priorité, rajoutée a posteriori, relève moins de la recherche en énergie que du renforcement d’un atout industriel, dont dispose la société Alstom notamment, de manière à bien positionner la France sur un marché mondial.

M. Leban s’interrogeant sur l’absence de l’énergie solaire dans cette liste, M. Bugat a répondu qu’elle signifiait la priorité accordée dans ce domaine au décollage industriel, par descente de la courbe d’apprentissage, plus qu’à la recherche proprement dite, dont la nécessité, s’agissant notamment des progrès à réaliser sur les cellules photovoltaïques, n’était pas pour autant contestée. Mais il a été estimé que l’effort financier devait plutôt porter, à travers des aides fiscales notamment, sur la diffusion de la technologie déjà disponible. Avec la perspective d’arrêter ce soutien lorsque le marché se serait suffisamment élargi pour laisser spontanément jouer les économies d’échelle, comme cela s’est passé au Japon.

Sur le fond, il a convenu avec M. Leban que les recherches sur les cellules photovoltaïques de génération avancée méritent plus de figurer dans la liste des priorités de la « stratégie nationale » que la capture du gaz carbonique.

M. Bugat a précisé que les recherches sur la pile à hydrogène n’avaient pas non plus été retenues comme une priorité, dans la mesure où la poursuite des efforts engagés semblait suffire dans ce domaine, sans qu’aucune accélération ne soit jugée nécessaire.

Il souligne que les quatre priorités énoncées correspondaient à un consensus des dirigeants de la recherche française, qui n’avait jamais été officiellement formalisé. Du reste, les différentes analyses sur les orientations stratégiques mentionnées (Chambolle, Syrota, Guillou) ne bénéficiaient à chaque fois, compte tenu des conditions dans lesquelles elles avaient été décidées, que d’une légitimité partielle au regard de la nécessité d’effectuer des choix qui engagent l’ensemble de la politique énergétique française. Il a estimé qu’il existait d’ailleurs de ce point de vue une anomalie française, puisque les nations concurrentes de la France définissaient très clairement leurs priorités stratégiques de recherche, tout responsable national étant capable de les mentionner.

M. Bugat explique que les priorités définies prennent d’abord leur sens en fonction de la position relative de la France dans le paysage de la recherche européenne, soit pour maintenir une avance (situation de l’énergie nucléaire ou du stockage de l’électricité), soit pour effectuer un rapide rattrapage afin de reprendre l’avantage (« crash program », situation potentielle pour les biocarburants de deuxième génération, domaine où l’Allemagne a pris un peu d’avance). Pour illustrer ce second cas, M. Bugat a rappelé que le programme de recherche française dans le domaine des piles à combustible a été impulsé par une demande de rattrapage formulée en 1994 par M. Jean-Yves Helmer, alors à la tête de la division automobiles du Groupe PSA, à M. Yannick d’Escatha, alors Administrateur général adjoint du CEA ; aujourd’hui, la recherche française se positionne parmi les meilleures mondiales du domaine, même si la France est en retard sur l’implantation de démonstrateurs, du fait notamment de l’activisme d’un lobby « anti-hydrogène ».

Revenant, à la suite d’une question de M. Bataille, sur la manière de coordonner l’effort de recherche français avec le cadre européen, M. Bugat a estimé qu’il s’agissait d’une dimension tout à fait fondamentale de la stratégie française à mettre en place, d’autant plus opportune que l’Union européenne a désormais structuré sa démarche à travers le « SET Plan » (Strategy Energy Technology Plan) présentée par la Commission européenne en novembre 2007.

M. Bugat a rappelé que l’Europe, qui utilise une panoplie énergétique diversifiée, occupe une position de leader dans les technologies énergétiques. Mais pour maintenir son avance, elle doit mobiliser plus de moyens que si telle ou telle technologie avait été privilégiée (nucléaire, gaz ou pétrole), car elle doit progresser sur plusieurs fronts à la fois. Les dix principaux acteurs européens de l’énergie commencent à s’organiser, et cela devrait permettre d’avoir une meilleure vue d’ensemble, non seulement sur l’ensemble des fonds européens consacrés à la recherche, mais également sur les choix des différents pays européens en matière de recherche énergétique.

M. Bugat a indiqué que, selon lui, l’Europe est le niveau le plus approprié pour conduire l’effort de recherche en énergie. Mais cela implique de confier le pilotage de la recherche au pays le plus en avance technologiquement dans chaque domaine. Cela est possible dans le cadre d’alliances à géométrie variable prévoyant un accès aux résultats obtenus contre une juste rétribution. Malheureusement, il n’existe pas de procédure juridique bien adaptée pour construire ce type de partenariats : la formule de groupement d’intérêt économique européen est plutôt conçue pour des activités commerciales, et les articles 169 et 171 du Traité instituant la Communauté européenne sont assez lourds à mettre en œuvre.67

Pour M. Bugat, les pays modèles en matière de recherche énergétique sont la Finlande et l’Allemagne.

M. Christian Bataille s’interrogeant sur l’idée de réserver le soutien public aux technologies visant à créer ex nihilo un marché émergent, en délaissant celles intéressant des secteurs déjà bien ancrés dans le paysage économique comme l’énergie nucléaire ou les hydrocarbures, M. Bugat a expliqué qu’il fallait effectivement concentrer les financements publics sur les recherches visant à une rupture technologique (« crash program »), ou bien encore sur celles qui sont encore très en amont du stade de la commercialisation ; dans cette optique, il ne serait pas très pertinent de financer la recherche dans des domaines comme l’énergie éolienne ou l’énergie solaire thermique, par exemple.

Quant aux recherches dans les domaines du nucléaire et du pétrole, elles doivent bénéficier, par l’intermédiaire des établissements publics de recherche, d’un soutien intelligemment dosé ; d’une part, parce que les activités concurrentes dans d’autres parties du monde bénéficient d’une aide publique sous diverses formes ; d’autre part, parce que l’intérêt des grands groupes industriels, orienté fortement vers l’immédiate rentabilité, diverge de plus en plus de l’intérêt public, et que les financements publics sont un moyen de les amener à participer à certaines actions d’intérêt public.

En théorie, on pourrait laisser entièrement la charge des recherches sur l’amélioration des procédés ou des combustibles nucléaires aux acteurs privés, en concentrant les aides publiques sur les recherches tournées vers l’avenir (réacteurs de quatrième génération, gestion des déchets radioactifs), mais cela entraînerait sans doute une baisse sensible de l’effort correspondant.

En fait, une collaboration entre recherche publique et recherche privée permet de mieux garantir l’efficacité d’un résultat, le monde industriel étant notamment bien placé pour signaler le caractère irréalisable d’une option. Le système reposant sur un partage complet de l’effort entre recherche publique et recherche privée est de plus en plus remplacé par deux nouveaux schémas de financement : d’un côté, les projets à long terme sont financés par la recherche publique à hauteur de 80% et par la recherche privée à hauteur de 20% ; de l’autre, les projets à court terme sont financés par la recherche privée à hauteur de 80% et par la recherche publique à hauteur de 20%. Le premier schéma permet aux industriels de se tenir informés des développements en cours, d’influer au besoin sur la décision, mais sans décider ; le second schéma permet à l’industriel d’orienter vraiment les études et de conserver in fine la propriété intellectuelle.

S’agissant de la pertinence, en France, des recherches sur le captage et stockage du gaz carbonique, alors que notre pays est déjà très bien placé en Europe pour les émissions de gaz carbonique par habitant, grâce à l’électricité d’origine nucléaire, M. Bugat l’a justifiée par la nécessité d’assurer dans ce domaine technologique une présence de l’ingénierie française, représentée par la société Alstom notamment, qui risquerait sinon de perdre sa place sur le marché mondial.

Quant à l’avenir des recherches sur la pile à hydrogène, M. Bugat a souhaité que des opérations de démonstration (voitures, groupes électrogènes…) soient menées.

Revenant sur la question du stockage de l’énergie, M. Bugat pense qu’il s’agit d’une grande priorité un peu oubliée, car très éclatée entre les différents domaines de recherche ; elle pâtit d’un manque d’intérêt de la part des acteurs industriels ; l’entreprise SAFT est certes spécialisée dans ce secteur, mais reste très refermée sur elle-même, et fait peu appel à la recherche publique. Pour conforter leur développement, il faudrait que des acteurs comme Uniross puissent bénéficier d’un apport de technologies nouvelles, sur le modèle de ce dont a pu bénéficier, grâce au CEA, la société Photowatt dans le domaine photovoltaïque.

S’agissant de la perspective d’un renouvellement du parc automobile pour favoriser la voiture hybride rechargeable, M. Bugat a estimé qu’à l’horizon de 2020, le taux de pénétration des véhicules hybrides ne dépassera vraisemblablement pas 10 à 15 % du parc automobile, et que l’augmentation de consommation d’électricité correspondante ne représentera que l’équivalent de production de quelques réacteurs nucléaires.

M. Beffa a expliqué qu’ayant cédé la place à M. Pierre-André de Chalendar au poste de directeur général de Saint-Gobain depuis juin 2007 pour conserver la présidence non exécutive du conseil d’administration, il a cependant reçu mission de piloter le développement du groupe dans le domaine de l’énergie solaire, axe considéré comme stratégique, l’entreprise étant très bien placée pour se positionner dans ce domaine appelé à un grand avenir.

Saint-Gobain est un leader mondial dans les domaines de l’isolation et du vitrage, et dispose d’implantations industrielles dans 47 pays. Cette présence en de multiples points du globe permet à l’entreprise d’entretenir une connaissance approfondie des différents marchés nationaux, qui sont suivis mois par mois. M. Beffa a regretté que les gestionnaires de la politique de la recherche en France n’aient pas suffisamment une vision de la réalité industrielle et technologique à l’échelle du monde.

A la tête de la division en charge de l’énergie solaire, Saint-Gobain SOLAR, l’entreprise a placé un expert des couches minces, qui a commencé sa carrière dans le laboratoire commun au CNRS et à Saint-Gobain, et a dirigé la division du vitrage en Allemagne. Les moyens engagés par Saint-Gobain sur cet axe stratégique sont très importants, puisque l’effort engagé représente déjà 300 millions d’euros. L’objectif est de réaliser un chiffre d’affaires supérieur à 2 milliards d’euros d’ici 4-5 ans. Cela fait de Saint-Gobain le second acteur industriel français significatif dans le domaine de l’énergie solaire, à côté de « EDF – Energies nouvelles ».

M. Beffa s’est dit convaincu du rôle crucial que va jouer l’énergie solaire dans la réponse à l’augmentation de la demande d’énergie mondiale, face à l’inertie structurelle d’ajustement de l’offre d’énergie nucléaire et aux difficultés posées par l’exploitation de l’énergie éolienne. Il a estimé que, grâce à une série de ruptures technologiques, l’énergie solaire serait disponible au prix « réseau » (prix du marché de gros) d’ici quatre ans, du moins dans quelques pays comme l’Ouest des États-Unis, le Japon, mais aussi l’Italie où le prix de l’électricité est très élevé.

En France, le développement de l’énergie solaire est handicapé par la distinction faite, en ce qui concerne le prix de rachat de l’électricité solaire, selon que le composant servant à produire cette électricité est intégré ou non au bâti68. Saint-Gobain s’interroge sur la pertinence de cette distinction, bien que l’entreprise soit elle-même productrice de solutions intégrées sous la forme de tuiles ou de bardeaux solaires, par exemple.

Des progrès vont se poursuivre dans la technologie des miroirs concentrateurs, qu’il sera possible de fabriquer de manière à obtenir la même efficacité avec moins de courbures, ce qui en limitera le coût. Saint-Gobain peut mobiliser dans ce domaine l’expérience acquise dans la fabrication des composants pour l’automobile, notamment dans le dépôt de couches. La question clef du nettoyage des miroirs fera elle aussi l’objet de progrès grâce à l’utilisation de robots et l’optimisation de la géométrie des miroirs.

Saint-Gobain a décroché récemment un gros contrat de fourniture de miroirs concentrateurs en Espagne, et met en place une usine de production au Portugal. Ce domaine de fabrication constitue un grand enjeu d’avenir pour l’industrie française, même si l’utilisation de ces technologies en France restera limitée par la force des choses.

Les progrès enregistrés sur les dépôts de couches ouvrent de très crédibles perspectives de rupture technologique. Saint-Gobain attend notamment beaucoup de la voie CIGS (Cuivre Indium Gallium Sélénium), qui pourra ensuite être déclinée sous forme de cellules souples, plus faciles à mettre en œuvre dans le monde du bâtiment. La concurrence à l’échelle internationale se manifestera sur ce terrain du côté des fabricants de composants électroniques américains. Malheureusement, il faut rattraper un retard important, et seul un volontarisme à l’échelle de celui qui s’est manifesté dans le domaine de l’énergie nucléaire, avec la création d’un « Commissariat à l’énergie solaire » dirigé par une personnalité de la dimension d’André Giraud, permettrait à la France de revenir au premier plan mondial dans le domaine de l’énergie solaire, en concentrant des efforts aujourd’hui dispersés, après un bilan de l’efficacité des moyens publics mobilisés, au vu des défis de la concurrence internationale. Il faut faire des arbitrages et éviter le maintien de crédits de compromis.

Ainsi le CEA poursuit aujourd’hui au sein de l’INES une voie de recherche (projet Photosil) visant à la simplification de la fabrication des cellules photovoltaïques au silicium, qui semble offrir a priori moins de perspectives pour une rupture technologique, même s’il est vrai que toutes les options restent ouvertes.

Saint-Gobain et Shell ont racheté les vieux brevets Arco de Siemens, et mis en place une entreprise commune du nom de « Avancis » pour produire des cellules CIGS ; deux usines vont être construites dans les prochains mois, correspondant à des investissements de 70 millions et 240 millions d’euros. Les investissements de Saint-Gobain pourraient atteindre à terme 700 à 800 millions d’euros, car le groupe fait le pari que la courbe d’apprentissage de la cellule photovoltaïque va descendre de 2 à 3 euros par Watt à moins d’un euro par Watt. Une partie de l’effort de recherche de Saint-Gobain est effectuée en France ; mais si une politique affirmée tarde à se mettre en place, le groupe pourrait être tenté de regrouper toutes ses forces en Allemagne, où il bénéficierait sans difficulté des soutiens dont il a besoin.

M. Bataille interrogeant M. Beffa sur les conditions dans lesquelles une offre de service de qualité peut permettre d’assurer la diffusion en France des solutions intégrant des nouvelles technologies de l’énergie, celui-ci a indiqué que la meilleure solution consistait en une offre intégrée, pour laquelle deux acteurs sont bien placés : EDF Energies Nouvelles Réparties (EDF ENR), filiale à parité d’EDF et d’EDF Energies Nouvelles, qui propose des offres complètes incluant équipements et services aux particuliers, aux professionnels et aux entreprises ; et Saint-Gobain, qui se propose de faire de même à travers ses filiales de distribution comme « Point P » ou « Lapeyre ». L’offre de Saint-Gobain devrait concerner aussi bien le particulier que l’architecte, et pourrait englober le conseil, la gestion de projet, la logistique, la pose et la maintenance.

M. Ngô a soulevé la difficulté de mobiliser un nombre suffisant de jeunes pour se diriger vers ce type de services. M. Beffa a indiqué que les réorientations nécessaires s’opéreraient par des salaires attractifs selon un processus de plusieurs années propres à tout ajustement d’ordre industriel. Saint-Gobain sera amené à contribuer largement aux formations nécessaires.

M. Bataille évoquant la question du management de la recherche, M. Beffa a insisté sur un besoin de recentralisation prenant la forme d’un Commissariat à l’énergie solaire. Il a mis en avant la nécessité de procéder à des arbitrages de réorientation, en arrêtant certains programmes moins cruciaux, lorsqu’un effort supplémentaire de recherche plus ambitieux apparaît comme une priorité. A cet égard, il a souligné le besoin d’améliorer les indicateurs de suivi des programmes publics de recherche, montrant comment ceux-ci pouvaient être présentés sur un graphique comportant, sur un axe, une échelle des risques, sur l’autre, une échelle des enjeux (technologie de rupture ou simple amélioration), et donnant à la bulle représentant chaque recherche une taille proportionnelle à l’effort financier dont elle bénéficie. Il a regretté de n’avoir pu obtenir, du temps de sa présidence de l’AII, que l’ANR, dont il était membre du conseil d’administration, décrive l’ensemble des projets dont elle avait la charge sous cette forme synthétique facilitant les réorientations stratégiques, expliquant que ces techniques de suivi sont utilisées couramment dans les entreprises, mais aussi dans les pays étrangers, notamment par la NEDO au Japon, et dans le cadre de la gestion des programmes internationaux.

Il a en outre regretté qu’une partie de l’argent public soit gaspillée en France à financer des recherches sans considération des efforts déjà engagés dans d’autres parties du monde, parfois sans qu’il n’y ait même aucun espoir de rattrapage, voire sans tenir compte des brevets déjà pris au Japon par exemple.

M. Leban a demandé ce que M. Beffa préconisait pour inciter les consommateurs à investir dans l’efficacité énergétique de leur habitat, afin d’exploiter un potentiel d’économie d’énergie très important qui reste malheureusement encore peu exploité. M. Beffa a insisté d’abord sur le fait que toutes les technologies nécessaires étaient disponibles. Il a ensuite défendu l’idée que l’impulsion pour une mise à niveau devait se faire par une évolution de la réglementation, tant dans le neuf que dans l’ancien ; dans l’ancien, il s’agirait de fixer un seuil mesurant l’importance de la rénovation, au-delà duquel les normes plus exigeantes s’imposeraient. M. Beffa a en revanche contesté la pertinence d’une approche d’incitation fiscale dans ce domaine, conduisant à assimiler toute amélioration d’efficacité énergétique à un service de luxe, et poussant dès lors les acteurs économiques impliqués dans la chaîne d’offre de ce service à augmenter leur marge ; l’effet incitatif résultant en est amoindri, pour un coût pour les finances publiques très important. La voie de la réglementation est d’ailleurs celle qui prévaut en Allemagne ; elle revient à rendre standards les produits intégrant les technologies d’économie d’énergie ; mais la France est trop hésitante face à ce type d’approche.

M. Bataille s’est interrogé sur l’opportunité de réduire l’effort public de recherche sur la capture du gaz carbonique pour éventuellement dégager des marges de manœuvre financières. M. Beffa a indiqué qu’un programme en ce domaine lui paraissait incontournable, puisqu’il constituait un enjeu important pour certains industriels français comme Alsthom, mais qu’il ne faudrait lui consacrer que des ressources mesurées, en s’appuyant notamment sur l’intérêt que pourrait avoir Total à investir directement dans ce domaine ; il faudrait mener à bien l’expérience du démonstrateur de Lacq, puis en faire le bilan. L’énergie solaire lui paraît être, compte tenu des atouts industriels, parfois un enjeu plus important.

Evoquant la recherche en matière d’énergie touchant aux questions de transport, M. Beffa a rappelé son soutien au projet de moteur hybride au sein de l’AII, et a mentionné Saint-Gobain comme l’un des quatre acteurs mondiaux, avec Corning et deux industriels japonais, à maîtriser la technologie du filtre à particules, essentielle pour l’adaptation du parc des véhicules Diesel. M. Ngô mentionnant la menace qui pèse sur la pérennité de ce parc du fait de la rigueur future des normes imposées par la réglementation européenne en matière d’émission de monoxyde de carbone, M. Beffa a rappelé que Saint-Gobain disposait de deux centres de recherche sur les céramiques avancées, l’un à Cavaillon, l’autre aux États-Unis, près de Boston. Il a observé au passage l’importance relative de la France dans le dispositif de recherche du groupe, puisqu’elle représente encore 60% à cet égard, alors qu’elle compte pour seulement 14% dans l’appareil industriel de Saint-Gobain.

M. Bataille a demandé comment un groupe comme Saint-Gobain choisissait ses partenaires de recherche à l’échelle internationale. M. Beffa a répondu que Saint-Gobain entretenait un partenariat avec un réseau mondial de laboratoires centrés sur ses domaines d’intérêt. Le partenariat règle notamment l’épineuse question du partage des droits de propriété intellectuelle. Il a expliqué qu’un laboratoire de haut niveau scientifique, comme celui qu’a dirigé Pierre-Gilles de Gennes à l’Ecole de Physique et Chimique de Paris, n’avait aucune difficulté à travailler avec l’industrie, qui vient spontanément à lui, même s’il ne produit que des connaissances ; qu’il est en revanche assez vain d’essayer de construire a priori des rapprochements avec l’industrie sans cette condition préalable de l’excellence scientifique. Les scientifiques ne sont souvent pas armés pour piloter le développement industriel, et les incubateurs pèchent souvent par un manque de compétence internationale dans le marketing et l’appréhension de la concurrence mondiale.

M. Beffa a expliqué qu’en outre, Saint-Gobain réalise régulièrement depuis 2006, dans le cadre du programme « Nova », une analyse à l’échelle mondiale de l’ensemble des start-up (« jeunes pousses ») dans les secteurs de l’habitat, de l’énergie et du développement durable. 400 start-up ont été ainsi identifiées ; des évaluations plus approfondies sont en cours pour 70 d’entre elles ; des accords de partenariat ont déjà été passés avec 24 « jeunes pousses ». Cela concerne notamment des entreprises installées dans la Silicon Valley. M. Beffa a expliqué que cette approche avait suscité des résistances au sein du groupe, notamment de la part des pôles de recherche intégrés prétendant pouvoir obtenir les mêmes résultats que les « jeunes pousses » ; mais cette approche a fait ses preuves, elle a d’ailleurs déjà été utilisé avec succès par des grands industriels de la pharmacie comme Roche ; elle permet de profiter du dynamisme des systèmes d’innovation qui fonctionnent bien dans le monde, ceux des États-Unis, du Japon et de l’Allemagne.

M. Bataille demandant confirmation du fait que ces trois pays demeurent des modèles d’efficacité pour l’interaction « recherche – industrie », M. Beffa a estimé son sentiment qu’il faudrait bientôt ajouter la Chine à cette liste. Il s’est dit également d’accord pour louer la performance du modèle finlandais, qu’il a néanmoins jugé très tourné vers les grandes entreprises nationales, puisque Nokia absorbe par exemple 40% des aides publiques.

Mme Pappalardo a estimé que la stratégie nationale de mai 2007 était un document faisant un état des lieux, dont les propres rédacteurs devaient certainement considérer eux-mêmes qu’il était perfectible ; mais que ce document ne ferait pas nécessairement l’objet d’une révision à la lumière des conclusions du comité opérationnel sur la recherche, comme on avait pu le penser un moment, car ces conclusions ont surtout vocation à alimenter les travaux de préparation du budget.

Le modèle en matière d’élaboration d’une démarche stratégique reste le rapport Chambolle de juin 2004. Il ne serait pas inutile de relancer ce genre de démarche tous les quatre ou cinq ans pour prendre en compte l’évolution de la situation. Un recadrage de la stratégie française apparaît d’autant plus nécessaire aujourd’hui qu’il convient de la mettre en phase avec la stratégie européenne décrite par le « SET Plan » de novembre 2007, construite en confrontant les programmes des organismes de recherche européens de manière à éviter des efforts redondants.

La réorganisation du MEDAD a posé la question de la constitution d’une direction de la recherche et de l’innovation, dont la vocation transversale a conduit à la rattacher au Commissariat au développement durable. Cette structure se veut symétrique de la Direction générale de la recherche et de l’innovation du ministère de l’enseignement supérieur. Cependant, ses capacités d’intervention dans le champ de l’énergie sont au départ très limitées, car elle va se constituer à partir du regroupement des anciennes structures de suivi de la recherche au ministère de l’équipement (DRAST - direction de la recherche et de l’animation scientifique et technique) et au ministère de l’environnement (SRP - Service de la recherche et de la prospective) ; la compétence en énergie lui manque donc, car celle-ci va rester au sein de la direction générale de l’énergie et du climat ; cependant, le Commissariat général pourra mobiliser cette compétence, ainsi que celle de l’ADEME, au titre de sa mission générale d’élaboration, d’animation et de suivi de la stratégie nationale de développement durable.

Il existe en France et dans le monde un marché pour le solaire photovoltaïque. Pour assurer sa présence sur ce marché, il faut que la France, d’une part, encourage une recherche qui cible bien les secteurs de la chaîne dans lesquels on souhaite innover, et d’autre part, soutienne les industriels. Le comité stratégique des éco-industries qui voit le jour doit permettre de mieux comprendre les blocages existant dans telle ou telle filière innovante.

Mme Pappalardo a rappelé l’importance de la transversalité entre les différents corps de métiers intervenant dans le domaine du bâtiment où la coordination est essentielle si l’on veut notamment obtenir des résultats en terme d’économies d’énergie. Transversalité que l’on doit également retrouver tant au niveau de la recherche que de la formation des professionnels du bâtiment.

Mme Pappalardo a souligné le nécessaire accompagnement de la recherche technologique par la recherche dans le domaine des sciences sociales et humaines qui pour des raisons budgétaires fait souvent défaut.

En ce qui concerne les incitations fiscales prévues pour encourager les particuliers à adopter les solutions technologiques innovantes telles que les pompes à chaleur plus performantes, Mme Pappalardo a estimé que les crédits d’impôts ne devraient concerner que les particuliers qui vont bien au-delà de la réglementation en vigueur. La publicité faite autour de la combinaison de ces primes à l’innovation et du relèvement des seuils réglementaires a pour effet, en suscitant la demande, de dynamiser en retour le secteur de la recherche.

Mais la rentabilité se fait parfois attendre. Pour exemple, l’amortissement des coûts liés à la réhabilitation écologique des logements anciens où les solutions innovantes qui sont appliquées, plus économes en énergie et moins polluantes, ne se traduisent pas par un retour sur investissement immédiat. Ces travaux et investissements devraient être financés avec les économies qu’ils génèrent. Mme Pappalardo a indiqué que les banques ont un rôle à jouer -financement et conseil- et qu’il n’appartient pas à l’État de le faire.

Concernant la capture du CO2, Mme Pappalardo estime que l’on n’est pas encore en mesure aujourd’hui de faire, à grande échelle, des systèmes qui capturent et stockent le CO2 et considéré que des incitations financières seront nécessaires au niveau européen pour encourager et développer cette technologie qui imposera un surcoût aux centrales thermiques à flammes. Ces incitations financières devront aller de pair avec un renforcement de la réglementation internationale limitant l’émission des gaz à effet de serre sous peine de renchérir la production d’électricité en Europe, tandis que la construction de centrales traditionnelles fortement émettrices de CO2 se poursuivrait imperturbablement dans d’autres parties du monde.

De fait, la réponse rapide aujourd’hui à l’augmentation de la demande en électricité fait appel à l’énergie fossile car la construction d’une centrale thermique à flammes ne prend que deux ans.

Les seuls instruments disponibles à l’échéance d’une dizaine d’années pour l’ajustement de l’évolution de la demande énergétique, sont des mesures d’économies d’énergie, car même une technologie disponible comme l’énergie nucléaire ne peut avoir un effet sur un délai plus court, du fait de la durée de construction des centrales nucléaires.

M. Birraux sollicitant son avis sur l’efficacité de la coopération entre le secteur public et le secteur privé pour la recherche en énergie, en qualité d’ancien directeur général de l’énergie, M. Maillard a constaté que cette coopération ne pose guère de problème, dans la mesure où les grandes entreprises françaises de l’énergie ont toutes appartenu historiquement, à un moment ou à un autre, à la mouvance publique, y compris celles du secteur pétrolier.

Dans le domaine qui concerne le Réseau de transport d’électricité (RTE), à savoir le transport d’électricité, une coopération relativement étroite s’est mise en place avec les grandes écoles, comme l’Ecole Centrale, l’Ecole des Mines et Supelec, qui fournit un grand nombre des ingénieurs de RTE. En outre, une collaboration avec Météo France permet d’affiner les outils de prévision, à la fois de la demande mais aussi de l’offre, notamment pour l’énergie éolienne.

Les relations avec les industriels privés sont également importantes, notamment lorsque ceux-ci développent des travaux de recherche appliquée auxquels RTE s’intéresse au titre de la veille technologique ; c’est le cas en particulier pour les constructeurs de câbles ou les constructeurs de matériel de téléconduite. Quant à la recherche fondamentale, elle est davantage menée en liaison avec les laboratoires publics.

RTE a été amené à développer des collaborations avec des laboratoires belge, espagnol, et même canadien, dans le cadre de ses recherches sur le fonctionnement des réseaux. En effet, le Québec a une longue pratique du transport d’électricité sur grande distance, avec du courant continu, et RTE s’intéresse à cette technologie pour l’appliquer à des liaisons sous-marines, mais aussi à des liaisons intra-européennes.

En ce qui concerne la coopération internationale, elle prend traditionnellement une importance plus grande dans l’énergie que dans d’autres secteurs, en raison de l’ampleur de certains programmes, comme ceux touchant à la recherche nucléaire. Le transport d’électricité, en particulier, est un domaine où les coopérations européennes et internationales existent depuis longtemps. L’organisme technique qui fédère les gestionnaires de réseau de l’Europe continentale est l’UCTE, l’Union pour la Coopération du Transport de l’Electricité69. Celle-ci, qui a été constituée en 1951, peut se prévaloir d’une date de création antérieure à celle de la Communauté Européenne du Charbon et de l’Acier. Cette coopération ancienne a permis d’adopter tout un ensemble de codes techniques garantissant que les câbles puissent être raccordés et que les informations puissent circuler. Mais si l'harmonisation des normes a ainsi fait des progrès en ce qui concerne le raccordement physique des réseaux nationaux entre eux, des progrès restent encore à faire au niveau de l’interopérabilité logicielle.

Ainsi, voilà vingt-cinq ans, lors de la mise en place du câble franco-britannique IFA 2000, qui permet de transporter 2 000 MW sous la Manche, les Français et les Britanniques ont fait deux appels d’offres séparés, et n’ont pas choisi les mêmes entreprises. Cela a donné lieu à certains dysfonctionnements : du côté français, les thyristors qui convertissent le courant doivent être changés très fréquemment, tandis que les Anglais ont choisi des transformateurs qui fonctionnent de manière peu satisfaisante. Aujourd’hui, pour le renouvellement du matériel, les deux parties ont donc résolu de faire un appel d’offres commun.

L’approfondissement de l’harmonisation technique en Europe est rendu d’autant plus nécessaire que le schéma historique des constructeurs nationaux est en train de disparaître. En effet, les forces du secteur en Europe se sont regroupées autour de trois opérateurs : Areva transport et distribution, Siemens, et ABB. Areva est sans doute plus français que les autres, mais Siemens a repris Merlin-Gerin en France, et ABB est un constructeur ayant également pignon sur rue dans notre pays.

L’incident électrique qui a privé d’électricité des millions d’usagers, en novembre 2006, a fourni une illustration des marges de progrès qu’il reste à faire dans l’intégration logicielle des réseaux. Il était consécutif à une erreur de manipulation d’un opérateur allemand, elle-même liée à la non-utilisation d’outils de simulation du réseau. En France, on utilise ce genre d’outils depuis longtemps car on a toujours eu la volonté d’optimiser l’utilisation du réseau, alors que les Allemands préféraient prendre une marge de sécurité, estimant que la robustesse de leur réseau leur permettait de faire face à toutes les situations. Maintenant que les interconnexions se sont développées, le système est plus difficile à gérer et il est indispensable d’utiliser des outils de simulation, d’autant plus que les énergies renouvelables intermittentes, en particulier l’éolien, introduisent un facteur de complexité supplémentaire.

En ce qui concerne l’intégration des réseaux à une échelle plus vaste, en particulier avec les pays du Maghreb, le Maroc, l’Algérie et la Tunisie ont déjà une interconnexion avec l’Europe continentale, des câbles en courant alternatif traversant le détroit de Gibraltar. Aujourd’hui, il y a donc des flux qui circulent dans les deux sens, bien que les flux circulent plutôt dans le sens nord-sud. Les câbles permettent d’acheminer 1 000 MW, ce qui est important pour le Maroc dont la puissance installée est de l’ordre de 3 000 MW. Ces pays ont certainement des ressources importantes aussi bien en terrain, en ensoleillement qu’en énergie éolienne, leur régime de vents étant plus stable que celui de nos zones tempérées, ce qui devrait permettre d’obtenir des taux de fonctionnement meilleurs que ceux qu’on connaît en Europe atlantique. Toutefois, il est vraisemblable que cette énergie nouvelle sera prioritairement consommée localement, selon une logique de rattrapage de l’écart de niveau de vie. Ainsi, au Maroc, pour 30 millions d’habitants, il y a 3 000 MW de puissance installée, tandis qu’en France pour 60 millions d’habitants, il y en a 100 000. Les moyens de production qui vont se développer dans ces pays ne seront donc dédiés que pour une part seulement à l’exportation, et pour autant que l’Europe soit prête à en payer le prix. La part d’autoconsommation sera prépondérante, notamment pour couvrir des besoins nouveaux, par exemple en matière de climatisation. Il n’est donc pas assuré qu’il y ait là un potentiel important.

On pourrait néanmoins imaginer des moyens d’exportation, de préférence en courant continu. Celui-ci permet à l’électricité de travailler beaucoup plus comme un fluide physique ; il est alors possible de décider du sens dans lequel une liaison fonctionne. Par contre, une liaison en courant alternatif fonctionne comme si on mettait des tuyaux entre des réservoirs qui sont à différents niveaux. Le courant s’établit alors au gré des équilibres ou des déséquilibres entre l’offre et la demande dans les différentes zones, d’après les lois de Kirchhoff70. Lorsqu’on souhaite que le courant ne s’établisse que dans un sens, la liaison continue est le meilleur procédé. Toutefois, une liaison en courant continu ne contribue pas à la stabilisation des réseaux, ce qui peut présenter des avantages comme des inconvénients. Ainsi, au cas où les Britanniques, qui ne sont reliés au continent que par une liaison en courant continu, auraient des problèmes importants sur plusieurs centrales nucléaires au même moment, les Français ne seraient pas en mesure de les aider. Par contre, lors de l’incident de novembre 2006, il n’y a pas eu de propagation de la perturbation en Grande-Bretagne. Un des autres avantages du courant continu consiste dans le fait qu’il permet de parcourir de grandes distances par voie souterraine ou en liaison sous-marine : il y a quelques mois, a été inaugurée une liaison de 600 kilomètres transportant 700 MW entre la Norvège et les Pays-Bas. Si le projet de collecteur d’éoliennes situé au Sud de la Méditerranée devait aboutir, la liaison vers l’Europe se ferait vraisemblablement en courant continu. Toutefois, il faut tenir compte du coût de ce type de liaison qui est de l’ordre de 10 millions d’euros le kilomètre. Or, l’acheminement depuis l’Afrique du Nord supposerait un parcours d’au moins 2 000 kilomètres, ce qui représente au total un investissement très élevé, de l’ordre de 20 milliards d’euros.

En ce qui concerne les pertes par kilomètre, celles-ci sont d’autant plus réduites que la tension est élevée. A ce sujet, il y a une compétition acharnée entre les Chinois et les Indiens. Les Canadiens détenaient le record avec des liaisons en courant continu à 700 000 volts, les Chinois vont les surpasser avec 800.000 volts et les Indiens présentent des projets à un million de volts. Pour les liaisons sous-marines, il n’y a que la technologie du courant continu qui soit envisageable. En effet, le courant alternatif contraint à prévoir des stations de compensation parce que le sol amène le câble à se comporter comme un condensateur. Au bout d’une certaine distance, la puissance réactive l’emporte sur la puissance active et l’on ne transporte plus rien, il faut donc remettre une station de compensation pour rééquilibrer les phases. Or, il est très difficile de mettre en place des stations de compensation sous-marines. Sur 1000 kilomètres, les Canadiens ont des pertes de l’ordre de 5%. Il est donc possible de transporter de l’électricité sur 2 000 à 3 000 kilomètres. C’est ce que font les Russes et les Canadiens et c’est ce que les Chinois prévoient de faire.

S’agissant de la possibilité d’établir de nouvelles capacités de stockage d’énergie par retenue d’eau, la France a la chance d’avoir un relief assez marqué qui comporte encore des sites aménageables, en transformant en lacs certaines cuvettes glaciaires. Ces dernières années, les Suisses ont mené une politique intense dans ce domaine, sans pour autant encourir le reproche de porter atteinte à l’environnement. Le stockage d’énergie par pompage d’eau en utilisant de l’électricité excédentaire, que celle-ci vienne de moyens classiques, comme du parc nucléaire pendant la nuit, ou d’un parc éolien disponible quand le vent souffle (sans qu’on puisse anticiper à quel moment), fournit un instrument complémentaire de gestion du réseau puisqu’il est ensuite possible d’utiliser l’énergie ainsi stockée en réglant à la fois le moment et l’intensité du turbinage.

Il apparaît difficile de développer l’énergie éolienne sans prévoir un système de stockage. Ainsi, les systèmes de production insulaires faisant appel à l’énergie éolienne et solaire fonctionnent généralement en liaison avec des batteries. Ce dispositif fonctionne bien à petite échelle. A grande échelle, il est nécessaire de trouver un moyen de fourniture complémentaire, qu’il s’agisse d’une production locale (par exemple, au Danemark, 20% de l’énergie sont produits par des éoliennes mais les 80% restants proviennent du charbon), ou d’une importation, grâce à l’interconnexion avec d’autres réseaux nationaux. Ainsi, plus l’énergie éolienne se développera en Europe, plus il faudra construire de moyens permettant de compenser ses intermittences ; à défaut, il faudra à tout le moins consentir à ce que cette source puisse devenir dispatchable dans les moments où elle produit des excédents d’électricité inutilisables.

En ce qui concerne l’installation des lignes, la principale difficulté qui se manifeste à propos de la réalisation de certains ouvrages n’est pas un problème de financement, ni un manque de soutien des pouvoirs publics au sens large, ni une mauvaise compréhension par les élus, lesquels apparaissent tout à fait conscients de la nécessité de trouver un équilibre entre les impératifs économiques et les préoccupations environnementales, mais bien plutôt d’une opposition de terrain marquée. Celle-ci paraît d’ailleurs quelque peu orientée puisque, pour certains, il y a amalgame entre réseau de transport et moyens de production de masse, notamment lorsqu’il est question d’électricité d’origine nucléaire. A cet égard, nos concitoyens semblent davantage sensibles à l’aspect gênant des lignes et attachent moins d’importance au facteur de développement économique qu’elles représentent. L’équilibre entre ces deux aspects est mieux pris en compte dans certains pays comme l’Espagne. Ainsi, en Catalogne, près de Barcelone, il y a certes des opposants à la liaison avec la France, mais certaines chambres de commerce soutiennent activement le projet, au motif que la région a besoin de plus d’énergie. En France et dans d’autres pays du Nord de l’Europe, le sentiment qui prévaut que la fourniture d’électricité est suffisante pour les besoins courants, et qu’il n’est pas nécessaire de renforcer le réseau. On va même jusqu’à prétendre que la construction de nouvelles lignes est uniquement motivée par des préoccupations mercantiles. Par ailleurs, les appréhensions suscitées font écho à certaines peurs dans notre société, comme celle des champs électromagnétiques.

La solution pourrait donc être de privilégier les lignes souterraines. A 63 000 et 90 000 volts, le surcoût de la mise en souterrain, par rapport à l’aérien est de l’ordre de 30 à 50 %. Cela constitue un surcoût important, mais qui est considéré comme admissible au regard des gains qu’on peut avoir, d’abord en termes d’acceptation par les riverains, mais aussi en matière de respect du calendrier. C’est pourquoi, en travaux neufs, les lignes souterraines représentent actuellement près de 50 % des installations. En revanche, quand il s’agit de lignes à 225 000 ou 400 000 volts, on n’est plus dans des plages de surcoût qui s’expriment en pourcentage mais en coefficient multiplicateur : pour les lignes à 225 000 volts, le coefficient multiplicateur est de l’ordre de 3 à 5, tandis que pour les lignes à 400 000 volts, il est de l’ordre de 5 à 10, selon les difficultés. Dans ces cas-là, on sort donc d’une logique économique, même si une liaison souterraine présente le triple avantage d’être acceptée plus facilement, d’éviter des contentieux et de permettre de respecter les devis.

Pour autant, les lignes souterraines ne sont pas totalement dénuées d’impact sur l’environnement. Ainsi, une ligne de 400 000 volts, en courant alternatif, représente une emprise d’une quinzaine de mètres de large qui laisse une marque visible. C’est la raison pour laquelle, la meilleure façon de préserver le bocage normand, consiste bien à passer au-dessus, avec des lignes aériennes, et non pas à le traverser car cela laissera une saignée encore moins esthétique dans le paysage.

La mise en souterrain ne constituant pas la panacée, on s’efforce donc de mieux utiliser les couloirs de lignes existants. C’est pourquoi, on a cherché à remplacer un certain nombre de câbles existants par des câbles à faible dilatation. Cela revient à tolérer de plus grandes intensités qui transportent davantage d’énergie. On utilise des câbles en acier, parfois en fibre de carbone, ce qui leur donne de la rigidité, et on continue à transporter le courant par du cuivre ou de l’aluminium qui est enroulé autour. Cela permet d’augmenter les capacités transitées de 50%, résultat appréciable parce qu’on peut ainsi réutiliser les mêmes couloirs de ligne. Parfois, il est nécessaire de remplacer les pylônes parce que ces câbles sont un peu plus lourds. En outre, on cherche pour une liaison électrique donnée, la meilleure exploitation de cette ligne. A cet égard, il y a aujourd’hui des dispositifs qui permettent plus ou moins d’orienter le courant dans certaines directions : il s’agit des transformateurs-déphaseurs, qu’on utilise par exemple dans la région Provence-Côte-d’Azur, faute d’avoir pu réaliser la ligne de Provence, et qui permettent d’optimiser et de mieux utiliser les liaisons telles qu’elles sont.

Sur la question de la propriété des réseaux, EDF, qui est l’actionnaire de RTE, ne décide pas pour autant des investissements de RTE, pas plus que de ses tarifs et ne nomme pas les dirigeants de l’entreprise. EDF se voit également privé d’un certain nombre d’informations commercialement sensibles comme celles relatives à la politique d’achats. EDF garde néanmoins un des attributs essentiels des actionnaires qui est la consolidation des comptes. EDF ayant développé une activité aujourd’hui exposée aux aléas du secteur concurrentiel, RTE représente pour elle un îlot de stabilité et de garantie, car les revenus de RTE sont réguliers. RTE garantit un taux de retour stable à EDF, tandis que le reste de l’activité d’EDF se trouve exposé à davantage d’aléas, même si ce n’est pas dans le cadre de ses activités hexagonales.

Il convient de rappeler que la loi telle qu’elle a été votée laisse ouverte la faculté de faire évoluer le capital de RTE, avec simplement la contrainte que ce capital doit rester public. La loi n’a donc pas figé l’actionnariat, ni contraint RTE à demeurer filiale d’EDF. Actuellement, la loi ne permet pas à RTE de prendre des participations à l’étranger et n’a pas non plus prévu des partenaires étrangers comme actionnaires possibles. RTE est néanmoins autorisée à constituer des filiales communes avec des partenaires étrangers. Ont ainsi été mis en place, notamment dans la zone centre-ouest qui regroupe la France, le Benelux et l’Allemagne, un certain nombre de structures communes pour gérer les enchères, ainsi que pour avoir une meilleure coordination entre les réseaux. Néanmoins, chaque partenaire reste autonome et responsable à l’égard de ses propres autorités publiques de tutelle ou de régulation.

En ce qui concerne la question de l’opportunité d’un gestionnaire de réseau européen, on constate une relative sensibilité des États membres à cette question, la sécurité de l’alimentation électrique apparaissant comme un problème d’ordre public. Il paraît donc difficile d’envisager un transfert de responsabilité à une entreprise multinationale, dans un cadre européen. A titre d’exemple, RTE a des rapports très étroits avec son homologue belge ELIA, dont le statut juridique est différent puisqu’il s’agit d’une société cotée en bourse, avec une participation des collectivités locales. Ils sont tous deux coactionnaires dans la société holding HGRT (majoritaire dans le capital de Powernext), et vont également mettre en place une échelle commune d’appréciation des incidents, sur le modèle de ce qui existe déjà dans le domaine nucléaire (échelle INES). Il s’agit là de coopérations concrètes, opérationnelles. Mais un degré d’intégration plus avancé se heurte à un frein psychologique. Leurs partenaires belges sont, en effet, réticents à l’idée d’un centre de gestion commun car celui-ci s’établirait vraisemblablement en France. Il paraît donc préférable de renforcer les coopérations jusqu’à ce qu’à terme, cette étape s’impose naturellement. La mise en place d’un centre européen commun ne supprimerait d’ailleurs pas le besoin de centres nationaux gérant les lignes de moindre puissance ; ainsi, en France, le dispatching (centre de répartition de l’électricité) de Saint-Denis pilote le réseau d'interconnexion à 400 000 volts et les échanges avec l'étranger, mais fonctionne en liaison avec sept dispatchings régionaux qui gèrent les lignes à 225 000 volts.

Les moyens de stockage et de production appartiennent exclusivement aux producteurs. RTE n’a donc pas de participation financière. RTE n’est pas davantage propriétaire des stations de pompage. En revanche, RTE doit passer des contrats de services avec les différents opérateurs.

Si RTE a lancé, voilà trois ans, un appel d’offres pour un moyen de production en Bretagne, à Saint-Brieuc, c’est parce que la loi lui fait obligation, quand il y a un projet de renforcement de ligne significatif, d’étudier l’alternative pour vérifier si elle est moins coûteuse, ou si elle implique moins d’atteintes à l’environnement. Lorsqu’il y a un déficit de ligne, cette démarche permet d’apprécier s’il est préférable de construire une nouvelle ligne ou d’avoir un nouveau moyen de production pour soutenir la tension.

S’agissant des « réseaux intelligents », il s’agit d’un nouveau concept prolongeant celui des « compteurs intelligents ». L’enjeu consiste à tirer le meilleur parti d’un réseau donné sur lequel on redoute d’avoir des contraintes fortes. Cela nécessite un certain nombre d’équipements techniques : des transformateurs-déphaseurs, des compensateurs statiques de puissance, dont certains sont déjà en service. Les réseaux canadiens les utilisent déjà à grande échelle pour faire face aux problèmes de transport sur de très longues distances.

Avec le développement de l’énergie éolienne, il faut aussi prévoir des conditions d’adaptation beaucoup plus réactives puisque l’imprévisibilité est inhérente à cette source. De manière paradoxale, l’énergie solaire est tout aussi intermittente, mais finalement beaucoup plus prévisible. Ainsi, il n’y a pas d’énergie solaire la nuit, alors qu’il peut y avoir du vent la nuit, même en heures creuses. Aujourd’hui, les services de météorologie permettent une bien meilleure prévisibilité sur la nébulosité, alors que les sautes de vent restent assez difficiles à anticiper ; il s’agit de prévoir autant l’absence que l’excès de vent, puisque les aérogénérateurs sont mis en berne en cas de risque pour le matériel ; or, on ne dispose pas encore d’instruments de pronostic parfaitement fiables à cet égard.

M. Bigot a rappelé deux caractéristiques essentielles de la situation française en matière énergétique : d'une part, 90% de l'électricité française est produite pratiquement sans dépendance extérieure, puisqu'elle nécessite 8 000 tonnes d'uranium coûtant 200 millions d'euros, alors que le reste de la consommation primaire d'énergie dépend de 46 milliards d'euros d'importation; d'autre part, le pays dispose d'un potentiel agro-forestier important. Ces deux faits doivent, selon lui, primer dans la conception d'une stratégie de recherche en énergie, et dans la stratégie industrielle afférente, même si le potentiel éolien et solaire du territoire n'est pas négligeable. Car cette stratégie doit viser essentiellement, à l'horizon 2030-2050, à desserrer l'étreinte du recours aux hydrocarbures fossiles.

Cette stratégie doit reposer sur un développement des usages de l'électricité. Cela concerne en premier lieu l’automobile, avec la perspective d’un développement des véhicules hybrides, mais aussi l’habitat, où le chauffage électrique pourra se combiner avec un apport d’énergie solaire thermique de manière optimisée par rapport à la saisonnalité des besoins, grâce à l’emploi de pompes à chaleur et un stockage intersaisonnier de la chaleur à proximité, dans le sous-sol.

M. Bigot a soutenu l’idée, qu’à partir de là, la production d’électricité française d’origine non carbonée, c'est-à-dire nucléaire ou renouvelable, devrait se caler sur le pic annuel de la demande, et non plus sur son niveau de base. Cela suppose d’accroître la puissance en base du potentiel de production de l’ordre de 20 à 25%.

Le supplément de production d’électricité que cette stratégie suppose pourrait être effectivement fourni pour partie par les énergies renouvelables, dans la limite de la difficulté technique créée par leur intermittence fondamentale. Mais l’essentiel de l’effort d’ajustement reposerait sur le renforcement du parc nucléaire.

La partie de production de base qui excéderait la demande dans les périodes en dehors des pics de consommation serait stockée de deux manières :

d'abord, en alimentant les batteries des véhicules dotés d’un moteur électrique. Les voitures de particuliers parcourent environ 14 000 km par an, et les véhicules utilitaires plus du double ; mais 80% de tous leurs déplacements correspondent au total à moins de 100 kilomètres par jour, ce qui rend pertinent une hybridation utilisant le moteur électrique sur les trajets courts. Le parc potentiel pourra représenter jusqu’à 36 millions de véhicules, particuliers et utilitaires compris. La consommation électrique correspondante devrait par conséquent bénéficier d’un effet de lissage, du fait de la désynchronisation des utilisations, ce qui confèrera à ce parc une certaine capacité de stockage distribuée. En base, sa consommation devrait équivaloir à la production de 6 réacteurs EPR ;

ensuite, en produisant par électrolyse de l’hydrogène destiné à s’incorporer à des biocarburants. Le dispositif visé concerne les hydrocarbures obtenus par traitement thermochimique de la biomasse. La France dispose d’un stock renouvelable de biomasse non affectée à une utilisation alimentaire ou industrielle, de l’ordre de 40 millions de « tonnes équivalent pétrole » (Mtep) par an, dont on pourrait raisonnablement mobiliser de l’ordre de la moitié, 20 Mtep, pour la production d’hydrocarbures. Une gazéification directe ne permet pas d’obtenir un rendement de transformation de la biomasse en hydrocarbure de plus de 17% ; mais, si la gazéification est couplée avec un apport d’hydrogène, permettant le remplacement des atomes d'oxygène par des atomes d'hydrogène dans les chaînes carbonées, procédé au cœur de la conversion des carbohydrates en hydrocarbures, ce rendement peut s’approcher de 48%. Les hydrocarbures ainsi produits correspondent à un stockage d’énergie, constitué au fur et à mesure de la disponibilité excédentaire d’électricité ; la biomasse, quant à elle, est toujours disponible, car stockable physiquement.

L’utilisation optimisée de l’électricité excédentaire suppose évidemment le recours à un dispositif d’aiguillage intelligent : la recharge des véhicules électriques doit primer sur la production d’hydrogène pour les biocarburants ; parmi les véhicules, ceux dont la batterie est presque vide doivent évidemment avoir la priorité sur les autres.

Cette stratégie présente l’avantage de pouvoir faire l’objet d’une mise en œuvre progressive, au rythme des progrès de l’hybridation des véhicules, et de la mise en place des capacités d’hydrolyse de masse ; dans un premier temps, elle peut fonctionner avec l’hydrogène déjà produit par reformage du gaz naturel pour les besoins industriels.

D'après les premiers calculs effectués, la viabilité économique de cette stratégie semble assurée dès lors que le prix du baril de pétrole excède 100 dollars.

Répondant à une interrogation de M. Christian Bataille sur la place de la réflexion stratégique dans le domaine de l’énergie en France, M. Bigot a regretté un manque de stratégie claire, d’autant plus préjudiciable que le passage d'un système énergétique à un autre demande non seulement du temps, mais aussi de l'énergie. En ce domaine plus que dans d’autres, les décisions prises au moment où se dévoile l’obstacle arrive bien trop tard ; l’anticipation est une nécessité vitale. Or, le rapport de mai 2007 sur la « stratégie nationale de recherche énergétique » relève plutôt d’un exercice de recensement de voies multiples d’exploration que de la fixation d’objectifs clairs.

A cet égard, M. Bigot a estimé qu’il faudrait s’appuyer sur les atouts de notre pays, et a rappelé que la recherche sur les réacteurs à neutrons rapides doit permettre à la France de disposer, d’ici la deuxième moitié de ce siècle, d’une capacité de production d’électricité de plusieurs milliers d’années grâce aux stocks disponibles de 500 000 tonnes d’uranium « appauvri » ou « recyclé »71, et au plutonium obtenu par retraitement. Il serait regrettable de ne pas miser sur cette chance alors que les pressions sur les ressources fossiles, qui fournissent encore 85% de l’énergie de la planète, vont inévitablement s’accentuer. Une stratégie cohérente doit viser à concentrer clairement nos efforts de recherche sur ce genre de pistes cruciales, quitte à ajuster la trajectoire en cas de besoin.

A une question de M. Bataille sur l’effort de formation devant accompagner la recherche, M. Bigot a répondu qu’il était essentiel de drainer les étudiants vers des secteurs de l’énergie qui sont en plein renouveau, et qu’une stratégie de recherche claire y aiderait. Il a reçu mission de la ministre chargée de la recherche d’étudier les besoins pour la filière nucléaire, laquelle doit être en mesure de recruter d’ici quelques années 1200 maîtres, ingénieurs, doctorants contre 300 aujourd’hui ; il a conclu son étude en indiquant qu’en mobilisant tous les établissements français disponibles (Paris Tech, Grenoble INP, Ecoles centrales) ce pari pourrait être tenu. Il a mentionné l’attrait nouveau suscité par la filière "énergie" à Polytechnique, qui n'attirait plus que cinq à six élèves, et en accueille maintenant dix fois plus.

S’agissant de la coopération européenne, M. Bigot a expliqué qu’elle constituait pour lui un objet de frustration. Les autres grandes puissances mondiales (États-Unis, Japon, Russie, Chine) font preuve de volontarisme dans le domaine énergétique. En Europe, on constate des coopérations effectives sur certains sujets (transformation de la biomasse, production et stockage d’hydrogène, piles à combustible, stockage de l’électricité), mais il s’agit d’initiatives morcelées de quelques partenaires, et la Commission européenne tarde à développer une vraie démarche d'ensemble ; elle devrait apporter un soutien plus systématique à ces efforts, en s’appuyant sur une ligne directrice beaucoup plus affirmée. Celle-ci devrait du reste jouer de la complémentaire des atouts des États membres, certains étant plus impliqués dans l’énergie nucléaire, d’autres comptant plus sur le développement des énergies renouvelables. La coopération européenne dans le domaine de l’énergie nucléaire a connu une longue période de déclin après la période de mise en place de l’Euratom, mais elle reprend de la vigueur depuis quelques années, à la faveur des programmes sur les réacteurs de quatrième génération, et de l’intérêt nouveau manifesté par les Britanniques ; manifestement, l’attitude de l’Allemagne évolue aussi ; la France pourrait contribuer à une mobilisation de ses partenaires, si elle pouvait afficher elle-même de son côté une démarche plus volontariste.

M. Claude Birraux voulant connaître l’état du projet d’implantation, à Bure, d’une unité pilote de transformation de la biomasse, M. Bigot a annoncé qu’après deux ans de négociations difficiles, un déblocage venait d’intervenir, les autorités de tutelle donnant leur accord, sous réserve qu’un complément de financement privé, à hauteur de 40%, puisse être mobilisé. Ce projet avait reçu d’emblée, dès qu’il l’avait suggéré sur demande du ministre de l’Industrie de l’époque, M. François Loos, l’appui de la population locale, compte tenu des ressources du territoire.

En ce qui concerne la coopération internationale « Gen IV » sur les réacteurs de quatrième génération, M. Bigot a confirmé l’impression de M. Claude Birraux que certains partenaires devenaient moins allants. Mais il a souligné l’importance d’un accord récent entre les États-Unis, le Japon et la France qui devrait mieux garantir l’efficacité des efforts de recherche, en favorisant la complémentarité par rapport à la concurrence.

A une question de M. Bataille sur la pertinence d’une aide budgétaire pour les recherches intéressant les secteurs pétrolier et nucléaire, déjà structurés en industries mûres et puissantes, M. Bigot a défendu l’importance du soutien public pour orienter l’effort de recherche privé, et compenser la difficulté des acteurs économiques à se projeter dans l’avenir ; ce soutien doit aller selon lui jusqu’au stade de la démonstration. Mais lorsque l’effort de recherche publique a abouti, les acteurs privés qui n’y ont pas directement contribué doivent, pour en bénéficier, couvrir a posteriori une partie des moyens publics engagés. En ce qui concerne le CEA, ses efforts de recherche en énergie se consacrent certes pour l’essentiel aux systèmes nucléaires du futur, et à la consolidation technologique du système nucléaire en production, en contribuant notamment au programme de recherche sur la gestion des déchets radioactifs ; mais il s’attache aussi à développer sa maîtrise des technologies des énergies renouvelables.

Évoquant le dispositif de financement de la recherche en France, M. Bigot a observé que l’allocation d’un soutien sur projet mis en oeuvre par l’Agence nationale de la recherche n’était pas adaptée aux domaines de recherche nécessitant un effort au long cours et souligné que cela conduisait à promouvoir une logique d’aide tournante entre sujets, plutôt adaptée à la recherche exploratoire, d’autant plus regrettable que le budget du CEA, en mesure au contraire d’accorder des soutiens durables, n’a progressé que de 1% par an au cours des quatre dernières années, ce qui correspond à une contraction de fait de ses moyens.

S’agissant des critères pouvant orienter une stratégie de recherche en énergie, M. Bigot a souligné l’importance primordiale de la préparation de l’avenir. Il faudrait définir d’abord comment la France voit son futur dans le domaine de l’énergie, puis en déduire des objectifs à atteindre, enfin estimer de façon réaliste les moyens nécessaires pour les réaliser. Cette démarche d’élaboration d’une stratégie est courante dans les entreprises, et l’État devrait pouvoir la reprendre à son compte pour le domaine de la recherche en énergie.

En ce qui concerne la capture et le stockage du gaz carbonique, M. Bigot a reconnu qu'il s'agissait d'un enjeu d'importance à l'échelle mondiale, tributaire à 85% des énergies fossiles, mais a fait part de son doute quant à la possibilité de stocker dans le sol tous les flux excédentaires de gaz carbonique. En France, une politique de diminution des émissions par des économies d'énergie et le développement de nouveaux moyens de production d'énergie sans carbone semblent plus appropriés pour atteindre l’objectif du "facteur quatre" à l’horizon 2050. Certains industriels veulent se placer sur ce marché qu'ils jugent porteur, mais le soutien public doit rester limité et ne pas conduire à multiplier les projets de démonstrateurs sans intérêt direct pour le pays, puisqu'en France, les émissions émanent pour l'essentiel des sources diffuses (logement, transport). En outre, la création en cours d'un marché européen des droits d'émission devrait logiquement conduire à une diminution du rôle de la subvention publique dans l'effort de recherche sur la capture.

S'agissant de l'évolution possible du parc nucléaire, M. Bigot a rappelé que les autorités françaises avaient lancé en moyenne, chaque année, la construction de cinq nouvelles tranches sur la dizaine d'années suivant le premier choc pétrolier, jusqu'à conduire vingt-cinq chantiers simultanément. L'expérience a donc montré qu'avec une volonté politique affirmée, encourageant par ailleurs l'utilisation du moteur électrique, la construction, dans la quinzaine d'années qui vient, de six réacteurs EPR pour mettre en œuvre la stratégie décrite précédemment, fondée sur le développement des usages de l'électricité, est tout à fait réalisable. Un relèvement du taux d'utilisation des réacteurs actuels, aujourd'hui à 80% mais qu'on peut probablement porter à 85%, serait également possible dans le cadre de cette stratégie.

M. Bigot a signalé que cette stratégie n'excluait pas les autres formes d'énergie, mais qu'il fallait considérer celles-ci à leur juste apport. Ainsi, avec un taux d'efficacité de 20% en moyenne, il faut environ 8 000 éoliennes pour produire autant d'électricité qu'un réacteur EPR. Comme les éoliennes doivent être distantes d'au moins 400 mètres entre elles, on peut en placer quatre par kilomètre carré, ce qui nécessite au total, pour obtenir l'équivalent de la puissance d'un réacteur EPR, une bande de terre d'un kilomètre de large et de 2 000 kilomètres de long. La longueur des frontières maritimes et terrestres françaises atteignant 5 500 kilomètres, il faudrait entourer la France d'une zone remplie d'éoliennes72 d'une vingtaine de kilomètres de large pour obtenir l'équivalent de la puissance nominale du parc nucléaire français.

Il a signalé par ailleurs que la collectivité pouvait supporter le surcoût du soutien à des sources d'énergie chères, mais seulement tant que celles-ci restent marginales. Ainsi, le rachat de l'électricité à quatre fois le prix de base induit un surcoût pour la collectivité de 3% si la production subventionnée représente 1% de la production nationale, mais de 30% si elle représente 10% de la production nationale.

M. Bauquis s'est interrogé sur la possibilité de créer une école de formation aux métiers de l'énergie nucléaire adossée au CEA, comme l'ENSPM73 est adossée à l'IFP. M. Bigot a indiqué que le Gouvernement lui avait justement demandé d'examiner cette question pour répondre aux besoins d'ingénieurs qu'impliquait la relance du programme nucléaire. La réponse proposée consiste, plutôt qu'à faire sortir de terre un nouvel établissement, solution qui ne permettrait pas une réaction rapide, à mettre en place une formation, un mastère, fédérant les ressources des divers établissements capables de fournir ce genre d'enseignement, grandes écoles et universités. Les cours y seront dispensés en anglais pour faciliter l'accueil des étudiants étrangers; M. Bigot a signalé que l'Inde se proposait d'ores et déjà d'y envoyer 25 élèves. Le champ de l'enseignement dépassera le seul cadre de l'énergie nucléaire pour s'étendre à toutes les énergies non pétrolières, dans une logique de complémentarité avec l'ENSPM, et pour s'adapter à un contexte d'adaptation globale du système énergétique mondial. A la préoccupation de M. Birraux que cette école ne demeure pas trop parisienne, M. Bigot a répondu en mentionnant qu'une antenne était d'ores et déjà prévue dans le sud de la France.

Didier Roux a bien insisté sur la nécessité de séparer la problématique de l'isolation des bâtiments de celle de la production d'énergie décentralisée par adjonction à l’habitat d’un système solaire. Il a souligné qu'une confusion de ces deux préoccupations pouvait aboutir à favoriser le développement de bâtiments qui ne seraient à "énergie positive" que parce qu'ils produiraient plus d'énergie qu'ils n'en perdraient, ce qui irait à rebours de l’effort général en faveur de l’efficacité énergétique.

La politique de soutien au déploiement de l’énergie photovoltaïque dans les bâtiments poursuit un objectif louable. Pour autant, dans l’immédiat, les solutions techniques n’existent pas. Actuellement, l’installation consiste à découper le toit existant, à mettre à la place des panneaux photovoltaïques, puis à refaire l’étanchéité du toit. Ce sont la plupart du temps des petites entreprises généralistes qui se positionnent sur ce créneau, alors qu’elles n’ont pas nécessairement le savoir-faire, et qu’elles risquent d’avoir peu de clients du fait du coût élevé de l’installation qui s’élève à 1000 euros du m2. Cette situation risque de freiner le déploiement de l’énergie photovoltaïque en France, voire d’en donner une image négative, à cause des multiples déceptions qu’elle peut engendrer : fuites liées au manque d’étanchéité, suivi de qualité insuffisante par les prestataires.

Le modèle de déploiement mis en œuvre à La Réunion fonctionne mieux. Il ne concerne pas tant les particuliers, mais plutôt les commerçants, les usines qui disposent de toits importants. Ces derniers louent leurs toits à des sociétés financières qui y font installer des panneaux photovoltaïques et paient un loyer modeste pendant sept à huit ans. A l’issue de ce délai, le propriétaire du bâtiment devient propriétaire de l’installation. Cela permet d’avoir un pay-back de trois à quatre ans, grâce à la défiscalisation et à l’aide de la région qui représentent au total à peu près la moitié de l’investissement. La Réunion est actuellement la seule région de France où il y ait une réelle implantation de l’énergie photovoltaïque.

En ce qui concerne les autres formes d’énergie renouvelables, l’énergie de la mer est trop diffuse pour être récupérée sauf à réaliser des investissements colossaux. Elle ne peut donc pas être considérée comme une énergie renouvelable de fond venant concurrencer les énergies solaire, éolienne, ou encore hydraulique qui resteront les principales énergies renouvelables. Il en va de même de la géothermie qui nécessite également des investissements très importants.

Le bâtiment constitue la réserve d’économies d’énergie la plus importante dans les pays occidentaux qu’il s’agisse des pays européens ou des États-Unis. Si l’on était capable de lancer un grand programme de rénovation des bâtiments anciens, on pourrait peut-être économiser 15 à 20 % de l’énergie totale consommée, chiffre qu’il ne serait pas possible d’atteindre avec un effort similaire dans les transports ou dans l’industrie. Le bâtiment est bien le seul domaine où d’importantes d’économies peuvent être réalisées sans conséquences négatives en matière économique et sociale.

La plupart des bâtiments ayant été construits avant le premier choc pétrolier et dans des conditions où l’on ne se préoccupait absolument pas de déperdition énergétique, la première des actions à mener concerne l’isolation. En ce qui concerne les bâtiments neufs, si les normes 2005 et 2010 encouragent les économies d’énergie, il n’y a pas ensuite de vérification du respect de ces normes. En ce qui concerne l’ancien, il convient de distinguer l’ancien assez facilement accessible à la rénovation, comme les immeubles et maisons construites dans les années 1960, y compris le parc HLM, où l’isolation peut être mise en place soit en passant par l’intérieur, soit en passant par l’extérieur (en installant des doubles vitrages aux fenêtres, en isolant le toit, …). Il s’agit d’un investissement intéressant puisque l’isolation d’un bâtiment assure un pay-back positif sur trois ou quatre ans. Toutefois, il existe une part non négligeable du parc immobilier ancien que l’on ne sait pas isoler correctement à l’heure actuelle, si l’on ne veut pas compromettre son cachet ; cela concerne typiquement les immeubles haussmanniens à Paris, dont il faut respecter les façades extérieures, et dont l’intérieur comporte des moulures, des cheminées.

Dans ce genre de domaine où un gros marché est en train de se constituer, les industriels se doivent de proposer des solutions qui sont a priori plus efficaces et moins chères. La difficulté se situe au niveau de la qualification des intervenants, puisqu’il faut que l’ensemble de la chaîne professionnelle adapte son niveau de formation, de l’architecte au constructeur, jusqu’à l’artisan. Les architectes conçoivent rarement leurs projets de construction en fonction de l’objectif d’économie d’énergie. Or, le coût d’une isolation effectuée a posteriori est toujours beaucoup plus élevé que celle intégrée dès la conception du projet.

En ce qui concerne les pompes à chaleur, elles n’assurent encore pour l’heure aucun pay-back, parce que l’électricité coûte trois fois plus cher que le gaz ; ainsi, même si la consommation est trois fois moins importante, le bénéfice financier est inexistant. Leur intérêt à terme est indéniable, mais de réels progrès technologiques restent à accomplir pour arriver à des coefficients de performance suffisamment intéressants pour dégager un pay-back à la fois financier et énergétique, à partir d’un d’investissement initial devant rester au niveau de celui d’une chaudière à condensation.

La recherche sur l’énergie solaire semble dans une impasse depuis quelques années. Le CEA s’est engagé dans l’exploitation d’un créneau astucieux de rentabilité qui consiste à développer le silicium métallurgique, mais ce n’est pas cela qui va changer la donne dans le domaine. Alors qu’elle avait pourtant les moyens, il y a vingt ou vingt-cinq ans, de figurer parmi les leaders mondiaux des technologies photovoltaïques, la France n’a pas su relever ce défi énergétique important, ses efforts ayant porté essentiellement sur le développement de l’énergie nucléaire.

En matière d’énergie solaire, les deux grands axes à explorer sont l’énergie photovoltaïque et l’énergie thermique solaire. L’énergie thermique solaire qui consiste à chauffer, avec des rayons du soleil et des miroirs, un fluide caloporteur dans un tube sous vide, n’intéresse pas directement un pays mal ensoleillé comme la France, mais peut devenir l’objet d’un marché d’exportation pour l’installation de centrales solaires à concentration. La technologie se développe rapidement en Espagne. C’est un domaine où Saint-Gobain fournit des miroirs.

Quant à l’énergie photovoltaïque, c’est une technologie qui peut être utilisée de manière diffuse dans presque tous les pays du monde. Elle s’est développée en faisant apparaître plusieurs générations de procédés. La première génération reposant sur l’utilisation du silicium est mature, avec un problème ponctuel qui est celui du prix du silicium ; la solution du silicium amorphe, promue par le CEA, fournit une réponse à ce problème : les rendements ne sont pas très élevés, mais la fabrication n’est pas très coûteuse. La deuxième génération commence à se déployer : c’est celle des couches minces qui vont pouvoir faire baisser de façon sensible le coût des modules photovoltaïques ; ces modules sont beaucoup plus adaptés à l’intégration dans le bâtiment, car ils sont constitués de panneaux noirs, uniformes et relativement plus esthétiques que les panneaux de silicium ; mais les couches minces à base de cadmium, matériau potentiellement toxique, sont plutôt utilisées dans des fermes solaires, pour limiter les risques de diffusion dans l’environnement.

Toutes ces technologies de couches minces vont trouver leur marché et sont appelées à coexister. Dans ce domaine, on peut néanmoins estimer qu’il existe une potentialité de rupture technologique à l’image de celle qui s’est produite voilà quelques années dans le domaine des matériaux supraconducteurs74, où la percée scientifique a résulté de ce qu’on s’est mis à étudier les composés à quatre ou cinq constituants plutôt que de s’en tenir au corps pur. La technologie des couches minces, par essence, portent en elle cette potentialité de rupture car il est possible de tester des mélanges différents pour obtenir des propriétés meilleures que celles que l’on connaît actuellement. On doit pouvoir ainsi faire progresser beaucoup les rendements et surtout abaisser les coûts.

D’autres technologies émergentes devraient permettre d’amenuiser les coûts tout en assouplissant considérablement les conditions de mise en œuvre, pouvant prendre alors la forme de film ou de peinture. Elles se distinguent en deux grandes branches : d’un côté, les produits organiques, à base de polymères conducteurs photovoltaïques, de l’autre, les surfaces photovoltaïques obtenues par dépôt de nanoparticules.

Il s’agit donc d’un domaine foisonnant au niveau de la recherche. Comme, de plus, il offre désormais de réelles perspectives de marché compte tenu des dispositifs de soutien public mis en place à travers le monde, il représente, à l’heure actuelle, un enjeu scientifique et technologique majeur ; à terme, en France, l’énergie solaire pourrait représenter 4 à 5% de la fourniture d’énergie. Cependant, il ne sert à rien de faire des efforts importants sur le capteur si par ailleurs on ne parvient pas à diminuer le coût de la pose, lequel représente encore la moitié du prix du module.

Récemment, Saint-Gobain a fait une alliance avec Shell Solar pour créer une joint-venture qui s’appelle « Avancis », laquelle doit fabriquer des panneaux CIGS (Cuivre Indium Gallium Sélénium) grâce à une usine implantée à Torgau, en Saxe. Saint-Gobain maîtrise très bien la fabrication industrielle consistant à mettre des couches sur du verre et fournit le verre à couches qui permet de fabriquer les panneaux. Shell apporte la technologie CIGS qui, à l’origine, avait été mise au point par Siemens. Ils comptent devenir un des acteurs majeurs du secteur assez rapidement et monter de nouvelles usines là où il y aura un marché, c'est pourquoi ils ont commencé leur implantation en Allemagne. En France, il faudrait qu’apparaissent des acteurs sérieux qui s’engagent sur le long terme et puissent assurer la maintenance.

Actuellement, le domaine photovoltaïque alimente une bulle technologique, comme celle qui s’est développée à la fin des années quatre-vingt-dix avec les technologies de l’information : toutes les entreprises qui se situent en aval sont surévaluées sur le marché boursier. Néanmoins, il y aura, à terme, constitution d’une véritable filière industrielle. C’est le rôle de l’État de soutenir certaines filières énergétiques, afin d’avoir ensuite un avantage compétitif. Etant donné que l’État ne peut subventionner directement les industriels, il peut accorder un avantage fiscal aux particuliers, ce qui permet de développer une industrie, en créant une demande significative.

Saint-Gobain détient 30% des parts du marché mondial des ventes de panneaux en verre servant de support aux capteurs en silicium. Il s’agit là d’un verre spécial, qui doit laisser entrer les photons, donc être assez transparent, mais avec une texture permettant d’obtenir que le minimum de photons en sorte. De plus, il est conçu de façon que les rayons solaires soient reçus en biais, pour qu’ils traversent un peu plus la couche de silicium et que le rendement photovoltaïque en soit augmenté. Saint-Gobain vend aussi beaucoup de fibres au carbure de silicium qui servent à la découpe des lingots de silicium. Pour Saint-Gobain, l’énergie solaire constitue dans son ensemble un marché extrêmement intéressant ; son réseau de distribution commence d’ailleurs à proposer dans tous les pays, en Allemagne en particulier, des offres de montage de panneaux photovoltaïques dans le bâtiment. Saint-Gobain fabrique également des miroirs solaires pour les centrales thermiques productrices d’électricité.

Malgré cette politique dynamique, Saint-Gobain apparaît assez mal coté en bourse. Cela peut s’expliquer par deux sortes de raisons. Tout d’abord, globalement le marché de l’immobilier mondial rentre en période de récession. La France n’est d’ailleurs pas le pays le plus en difficulté ; les problèmes majeurs proviennent de l’accès au crédit et de l’augmentation du prix du foncier. Or, l’activité de Saint-Gobain est très liée à celle du marché de l’habitat. D’autre part, on peut y voir une conséquence de l’opération Wendel qui a racheté à un taux assez fort une partie des actions de Saint-Gobain, à savoir un peu plus de 20%. Wendel lui-même étant très déstabilisé, il y a un effet amplificateur : le capital de Saint-Gobain est perçu comme étant fragilisé depuis qu’il a un actionnaire principal lui-même fragilisé. Toutefois, Wendel est une société solide qui, à court et moyen terme, n’a pas de problèmes de liquidité.

En réponse à une interrogation de M. Ngô, M. Roux a précisé que l’augmentation de la température fait baisser le rendement des capteurs, avec la technologie des couches minces comme avec celle du silicium. C’est d’ailleurs une autre raison, à côté de la difficulté de mise en œuvre, qui milite contre l’intégration des panneaux photovoltaïques dans le bâti, puisque celle-ci tend à rendre plus difficile l’évacuation de la chaleur.

En conclusion, M. Roux a souligné le besoin d’offre de prestation intégrée dans la fourniture d’équipements photovoltaïques, afin de garantir le suivi des installations, et d’éviter les problèmes de partage de responsabilité en cas d’avaries.

M. Pâris Mouratoglou a rapidement présenté « EDF Energies nouvelles », entreprise qu'il a créée en 1990 sous le nom de SIIF, qui s'est développée au départ en construisant des centrales thermiques et hydroélectriques, s'intéressant aussi à l'énergie solaire dans les DOM. Elle s'est ensuite lancée dans l'exploitation de l'énergie éolienne. L'entrée au capital d'EDF en 2000, pour une participation qui a atteint finalement 50%, a conduit en 2005 au changement de nom de l'entreprise. L'entrée en bourse en 2006 laisse à M. Mouratoglou un contrôle de 25% du capital, la composition du conseil d'administration permettant que les décisions restent prises par consensus avec EDF : en pratique, l'entreprise sert de point d'appui à EDF pour tout son développement dans les énergies renouvelables. En 2007, elle a intensifié son investissement dans la filière solaire photovoltaïque et a fait son entrée dans le domaine des énergies de la mer.

EDF énergies nouvelles a une forte dimension internationale, puisqu'avec une implantation dans 13 pays, elle compte seulement 10% de ses actifs en France. L'entreprise achète les générateurs d'électricité, mais prend en charge la totalité de la construction et de l'exploitation des installations, de l'étude de faisabilité à la maintenance. Elle dispose au total aujourd'hui d'un parc de 2 000 MW en fonctionnement. Les revenus dégagés par les filières mûres (éolienne, solaire) lui permettent de financer une importante activité de recherche sur les filières en développement.

M. Bataille s'est interrogé sur la portée de l'investissement envisagé par EDF Energies nouvelles à Alderney, dans les îles anglo-normandes, sur un parc d'hydrauliennes, demandant s'il s'agissait d'un démonstrateur ou d'une exploitation industrielle. M. Mouratoglou a précisé qu'il s'agissait là de la deuxième expérience de l'entreprise dans le domaine des hydrauliennes, après un projet au large de la Floride visant à exploiter le courant du Gulf Stream, grâce à un sous-marin à double coque amarré au fond et doté de deux hélices de 500 MW conçu en liaison avec des chantiers navals russes, mais qui s'était heurté à des réticences mettant en avant un risque de perturbation modifiant le climat de la planète. Le projet d'Aldeney vise à exploiter les courants de marée à l'endroit de la Manche où ils sont les plus puissants; il s'agirait de produire 2 000 MW, donc ce ne serait pas un simple démonstrateur; la technologie choisie est d'origine irlandaise (la même que celle envisagée pour le démonstrateur français à Paimpol-Bréhat); mais la réalisation dépend de la signature d'un accord de débouché de l'énergie produite vers la France ou l'Angleterre, car la consommation locale n'est pas à l'échelle du potentiel de production (Alderney compte seulement 2 400 habitants).

M. Bataille a demandé à M. Mouratoglou son sentiment quant à l'importance à accorder aux recherches sur la capture du gaz carbonique. M. Mouratouglou, soulignant qu'il n'avait pas d'expertise de la question, a indiqué que son bon sens l'amenait à considérer qu'il s'agissait certainement d'une priorité européenne, mais moins d'une priorité française; que, comme citoyen, il préférait que les ressources non extensibles de son pays soient utilisées au mieux, et qu'il ne lui paraissait pas très évident qu'il faille les engager de ce côté là.

M. Bataille s'est interrogé sur la difficulté éventuelle d'un manque de personnel qualifié, tant au niveau de la mise au point technique qu'au niveau de la maintenance, à laquelle pourrait se trouver confronté le développement d'une nouvelle technologie comme l'énergie solaire. M. Mouratoglou a insisté sur l'importance cruciale de l'émergence préalable d'un marché pour la réussite d'une technologie, le dynamisme du marché suscitant par contrecoup les vocations nécessaires à la constitution du volant de personnel qualifié nécessaire. Il a pris l'exemple de l'énergie éolienne qui, au départ, en Europe, disposait d'un support en compétence très embryonnaire, mais qui, en se déployant, a su trouver le personnel avec l'expertise nécessaire, car les ingénieurs s'adaptent dès lors qu'il existe un marché.

M. Mouratoglou a rappelé que l'extension de l'énergie éolienne a reposé sur une politique volontariste de rachat de la production à un tarif incitatif, lancée aux États-Unis, puis appliquée en Allemagne, au Danemark et plus tard en Espagne; que la même stratégie avait permis le déploiement de l'énergie solaire aux États-Unis, en Allemagne et au Japon. En Allemagne, où le tarif atteignait au départ jusqu'à six fois le prix de distribution par le réseau, le parc d'énergie solaire représente d'ores et déjà plusieurs milliers de MW. Il a estimé que la France ne pouvait plus rattraper le retard pris dans l'énergie éolienne, mais qu'un retour rapide dans le domaine de l'énergie photovoltaïque était en revanche possible, d'autant qu'il reste un potentiel de déploiement à grande échelle lorsque le prix de production d'énergie solaire atteindra le prix de distribution par le réseau, en plusieurs endroits du monde, à l'horizon 2015; l'élan sera alors soutenu par la perspective d'un amortissement des équipements individuels de production d'électricité en 25 ans. Le déploiement sera en outre encouragé par le fait que la capture de cette énergie génère peu d'économie d'échelle, ce qui facilite une production répartie d'électricité. Un renforcement de la politique d'incitation française est donc indispensable à brève échéance, c'est-à-dire dans un délai de moins de deux ans, pour qu'elle puisse avoir un impact à temps sur l'offre industrielle.

M. Bataille s'est inquiété de l'avance que pourrait prendre les Britanniques dans le domaine des hydrauliennes. M. Mouratoglou a expliqué que cette avance ne pourrait être importante, car le marché correspondant resterait d’une taille limitée, puisqu’il suppose l’exploitation des zones de courants de marée suffisamment forts, par construction peu nombreuses; qu'en revanche, l'exploitation de l'énergie mécanique des vagues, que son entreprise était en train de tester, lui semblait promise à un plus vaste déploiement.

M. Langlois a soulevé la question de la disponibilité de moyens de stockage d’énergie à l’horizon 2015, au moment de l’hypothétique parité entre le prix de production d'énergie solaire et le prix de distribution par le réseau. M. Mouratoglou a estimé que le problème du stockage dans des conditions économiques viables resterait entier à cet horizon, mais que le besoin en moyens de stockage resterait de toute façon limité tant que la production d’électricité d’origine solaire resterait marginale : il a rapidement calculé qu’un équipement des 200 à 300 mille constructions nouvelles par an, avec des toits couverts de panneaux solaires d’une puissance totale de 3 kW, produiraient de l’ordre de 900 MW, ce qui représente une fraction minime de la production électrique totale en France. Il a par ailleurs observé qu’un réseau étendu intègre une fonction naturelle de stockage, du fait de l’équilibrage de production entre les régions soumises à du beau temps et celles soumises à du mauvais temps. En outre, l'énergie solaire suit mieux l’évolution de la consommation que l'énergie éolienne dans les pays chauds où l'on utilise la climatisation : la pointe de consommation se situe vers midi au moment où le rayonnement est le plus fort. Au total, il s’écoulera plusieurs décennies avant que la question du stockage de l’énergie ne se pose véritablement, du fait de la lenteur de la montée en puissance des énergies renouvelables.

M. Bauquis a observé que l'énergie solaire, quoique coûteuse, était sans conteste économiquement intéressante pour l'alimentation en électricité de sites isolés, mais qu'en ce cas, la consommation maximale d'électricité se faisait en soirée, ce qui imposait l'adjonction d'un dispositif de stockage représentant alors facilement la moitié du coût de l'installation électrique.

M. Mouratoglou a indiqué qu'EDF énergies nouvelles poursuivait des recherches sur le stockage d'électricité, mais également sur la prévision des vents de manière à faciliter la gestion de l'électricité d'origine éolienne : cette prévision est imposée par l'administration californienne; elle reste néanmoins de courte échéance, de l'ordre de trois heures, en raison de la forte variabilité des vents. La nébulosité, qui gène le recueil de l’énergie solaire, serait en revanche un peu plus facile à prévoir, car elle manifeste moins de variabilité.

M. Langlois a observé qu'en France, le stockage n'était pas favorisé par le contexte réglementaire dans la mesure où l'électricité qu'il permet de produire, qui a pourtant une fonction de rééquilibrage du réseau, est traitée indistinctement comme si elle émanait d'une source primaire; à l'inverse, l'accumulation d'énergie par un dispositif de stockage est traitée comme une consommation d'électricité. M. Mouratoglou a signalé qu’en Crête, où son entreprise a déployé un important parc d’éoliennes, un cadre juridique a été mis en place pour permettre une concertation de gré à gré sur la prise en charge du stockage avec la compagnie de distribution d’électricité locale.

M. Bauquis s’est interrogé sur la solidité du lien entre un soutien national accordé à la filière d’énergie solaire et le bénéfice qu’en retirerait le pays en retour. Il a observé que l’argument selon lequel le développement du marché national avait pour effet de fixer les producteurs d’équipement dans le pays se heurtait au constat qu’un rachat par des intérêts étrangers de ces producteurs locaux était toujours possible, et que ceux-ci pouvaient aussi être tentés finalement par une délocalisation dans les pays à bas salaires. M. Mouratoglou a convenu qu’une politique de développement du marché national devait s’accompagner d’une discussion avec les producteurs pour les fixer dans le pays.

M. Langlois a demandé si l’on pouvait espérer des ruptures technologiques d’un renforcement de la recherche sur l’énergie photovoltaïque. M. Mouratoglou a estimé que d’importantes ruptures technologiques s’étaient déjà produites puisqu’une société comme Fair Solar se disait aujourd’hui en mesure de produire des cellules d’un coût de 1,1 dollar le Watt crête75, à partir de cristaux de séléniure de cadmium ; elle a implanté en Allemagne une usine d’une capacité de 1000 MW par an ; elle commence à développer de nouveaux moyens de production en Malaisie ; elle vise à abaisser le coût du Watt crête à 0,7 dollar d’ici 2012, mais d’ores et déjà, le coût de ses cellules est inférieur à celui d’une cellule au silicium, qui atteint 1,8 à 2,0 dollars le Watt crête. EDF Energies nouvelles a pris une participation dans une société californienne qui a développé une technologie basée sur des nano-particules CIGS (Cuivre Indium Gallium Sélénium), qui s’utilise comme une ancre imprimant des rubans d’un kilomètre de longueur : d’ici peu, son coût de revient va tomber en dessous du dollar par Watt crête. Un autre investissement d’EDF Energies nouvelles a été fait dans une société de Californie ayant trouvé le moyen de détacher, par épitaxie, de fines couches de silicium cristallin, obtenant ainsi des cellules dont le coût de revient est lui aussi très concurrentiel. La recherche dans le domaine de l’énergie photovoltaïque est aujourd’hui foisonnante, d’ailleurs au Japon autant qu’en Californie. En France, le CEA dispose avec l’INES d’un potentiel de recherche intéressant, mais manque de ressources.

M. Bauquis s’est demandé si, à côté du soutien au développement du marché, une stratégie d’incitation efficace ne pourrait pas consister à offrir un bas prix garanti de l’électricité aux producteurs, comme les finlandais l’ont fait pour relancer chez eux l’industrie de la papeterie. M. Mouratoglou a estimé que l’énergie représentait moins de 10% des coûts de revient dans la production de cellules photovoltaïques, ce qui invalidait cette solution. En fait, c’est surtout le coût de la main d’œuvre qui est déterminante dans cette industrie, comme le montrent les implantations en Allemagne de l'Est et les délocalisations en Malaisie.

M. Bataille s’interrogeant sur les pays dont les politiques incitatives en faveur des technologies d’amélioration de l’habitat pourraient servir de modèle, M. Mouratoglou a observé qu’au Japon, la filière de l’énergie solaire a profité d’un prix très élevé de l’électricité, et d’une période durable de très bas taux d’intérêt favorisant l’investissement des particuliers. Le Japon va reprendre sa politique de subvention pour empêcher un freinage du mouvement lié à la remontée temporaire du coût des panneaux solaires, due à une contrainte d’accès au silicium ; la montée en puissance de la technologie des couches minces devrait contribuer à atténuer les tensions sur les prix. Mais il a souligné que la France disposait d’atouts dans certains domaines : les matériaux d’isolation, les pompes à chaleur, dont une version développée en liaison avec EDF devrait permettre d’alimenter un circuit de radiateurs classiques. Il a vanté les mérites du crédit d’impôt en faveur des économies d’énergie.

Mme de Guibert a d’abord resitué l’importance du stockage d’électricité dans le contexte général de la politique énergétique, en rappelant qu’il s’agissait d’un moyen permettant d’une part d’accroître l’efficacité énergétique, en permettant un meilleur ajustement temporel de l’offre et de la demande d’énergie, et d’autre part d’alimenter des systèmes de substitution aux énergies fossiles, notamment dans les transports. Les batteries et les super condensateurs ne constituent que deux outils parmi d’autres pour effectuer ce stockage, correspondant plutôt à des capacités moyennes au vu des possibilités bien plus importantes de stockage qu’offrent les STEP (Stations de transfert d'énergie par pompage).

La société Saft n’a pas actuellement d’offre dans le domaine des supercondensateurs. En France, c’est Bolloré qui est le principal acteur dans ce domaine, à travers sa filiale Batscap.

Les batteries ont l’avantage de pouvoir couvrir une gamme très variée de combinaison d’énergie stockée et de puissance délivrée. Il suffit par exemple d’assembler des modules élémentaires pour constituer une pile plus puissante. Les batteries sont en revanche mal adaptées aux sollicitations violentes par à-coup, qui les font chauffer, et vieillir prématurément.

Les utilisations les plus évidentes correspondent à l’alimentation des moteurs électriques, en particulier pour les transports, et au stockage d’énergie électrique renouvelable, typiquement d’origine éolienne ou solaire, pour stabiliser l’énergie transmise sur les réseaux. Dans ce second cas, il s’agit de stockage d’une capacité moyenne, dans des configurations où un surcoût important de l’électricité produite est acceptable (île ou site isolé). La Commission européenne a plutôt apporté jusqu’à maintenant son soutien au stockage dans le domaine des transports, mais commence à s’occuper du stockage des énergies renouvelables.

Les projets européens dans ce domaine sont lancés par des acteurs industriels, et Mme de Guibert a mentionné le projet franco-allemand SOLION, qui vise, depuis août 2008, à mettre en place 75 sites de stockage d’énergie solaire, dont 50 en France et 25 en Allemagne. Il est porté par Saft pour la fabrication des batteries Lithium-Ion, par Tenesol et Conergie pour l’installation des équipements photovoltaïques, et E.ON pour le développement des interfaces avec le réseau électrique.

La technologie des batteries se divise principalement en trois grandes catégories : les batteries au plomb, les batteries alcalines (nickel-cadmium et autres), et celles au lithium. Les batteries au plomb sont les moins performantes en termes de puissance, de durée de vie, de poids. Mais elles utilisent une matière première largement disponible, et facile à recycler. En outre, elles continuent à faire des progrès, et leur faible coût les rend toujours intéressantes pour certaines applications. En Chine, les batteries au plomb équipent des vélos et des scooters électriques. La Chine consomme 5% du plomb produit dans le monde pour cet usage.

Les batteries rechargeables au lithium, concept apparu en 1974, et faisant l’objet d’une diffusion commerciale depuis 1991, correspondent à une véritable percée technologique, et permettent de répondre à des besoins de puissance plus élevée, tout en restant sûres. Elles permettent aussi un stockage d’énergie d’une densité près de dix fois supérieure à celle possible avec les batteries au plomb : 200 Wh/kg contre 25 Wh/kg. C’est la raison pour laquelle elles apparaissent comme une voie privilégiée pour faire progresser le véhicule électrique.

Saft se place sur un créneau de haute technicité, qui l’amène à fournir des batteries pour des systèmes spatiaux, aéronautiques, militaires. Dans ces domaines, on a recours traditionnellement à des accumulateurs de la filière Nickel Cadmium, mais ceux de la filière Lithium Ion y sont aussi de plus en plus utilisés. Dans certains cas, la performance peut être maximisée en s’adaptant aux particularités en matière de contraintes de sécurité. Les exigences à cet égard sont différentes pour un satellite ou un missile que pour une automobile par exemple, car il n’y a pas diffusion vers le grand public, mais uniquement manipulation par du personnel technique jusqu’au lancement.

D’une façon générale, les contraintes de sécurité sont beaucoup plus lourdes pour un emploi par des particuliers que pour un emploi en milieu professionnel, car les particuliers multiplient les cas d’utilisation dans des situations inédites, en détournant l’objet de sa finalité initiale, typiquement pour alimenter des radios, par exemple. Les systèmes tournés vers le grand public doivent en conséquence montrer leur robustesse face aux tests les plus variés. C’est pour cela que des tests standardisés ont été définis : surcharge, inversion, écrasement, chauffage à 130 °C, ou le « test au clou » : un clou vient percer l’élément pour simuler un court-circuit. La normalisation définit même en ce cas le diamètre et la vitesse du clou.

Les contraintes de fabrication pour une utilisation professionnelle sont extrêmes. Par exemple, pour l’application dans le domaine spatial, la moindre rayure est rédhibitoire, puisque considérée comme un signe révélateur d’un éventuel défaut plus grave, notamment un défaut d’étanchéité (à l’oxygène ou la vapeur d’eau) susceptible de réduire la durée de vie de la batterie. Dans ce contexte, toute soudure doit être parfaite. A l’inverse, la durée de vie est une donnée moins critique pour les produits à destination du grand public, comme les batteries d’ordinateurs portables.

A côté de son offre de haute technicité spatiale, aéronautique ou militaire, Saft produit aussi des systèmes alimentant des éclairages de sécurité, plutôt dans la filière des batteries alcalines, Nickel Cadmium et Nickel Métal Hydrure, capables de délivrer de fortes puissances. L’entreprise a fait son entrée dans le domaine des batteries Lithium Ion pour véhicule hybride à travers une alliance avec l’américain Johnson Controls ; leur filiale commune a passé un contrat d’approvisionnement avec Daimler, et a ouvert une première usine de fabrication à Nersac, près d’Angoulême, en janvier 2008.

Pour l’instant, la technologie des véhicules rechargeables (« plug-in ») n’est pas disponible à l’échelle industrielle, car elle nécessite des batteries à forte capacité de stockage d’énergie, qui doivent répondre en outre aux fortes exigences de sécurité de l’automobile. Même Toyota ne dispose pas de prototype d’une autonomie supérieure à 20 km. Elle n’est mise en œuvre à ce jour que dans des cas particuliers, le plus souvent compatibles avec le transport de batteries très lourdes, comme par exemple le tramway de Nice, dont les accumulateurs sont d’ailleurs au plomb pour des raisons de sécurité.

L’unité de recherche de Saft comprend 44 personnes, dont 7 thésards assurant des liens avec la recherche universitaire. Ces liens concernent le laboratoire de Jean-Marie Tarascon à l’Université d’Amiens par le biais du réseau européen ALISTORE, mais aussi celui de Claude Delmas à l'Institut de chimie de la matière condensée de Bordeaux

En France, on compte quatre autres pôles de recherche universitaire dans le domaine des batteries, qui font partie du réseau européen ALISTORE, animé par Jean-Marie Tarascon : le laboratoire MADIREL à l’Université de Provence ; le laboratoire CIRIMAT à l’Université de Toulouse ; le laboratoire AIME à l’Université de Montpellier et le Laboratoire IPREM à l’Université de Pau.

La société Batscap, filiale de Bolloré et d’EDF, travaille sur la filière des batteries Lithium Métal Polymère en s’appuyant sur son expérience dans la fabrication des films de polymères servant à l’emballage. Cette filière vise une amélioration de la sécurité au prix d’une baisse de performance, car l’électrolyte liquide y est remplacé par un gel moins volatile et inflammable. Le fonctionnement optimal est obtenu à une température comprise entre 60 et 100°C. Batscap développe un procédé mis au point par la société canadienne Avestor, filiale d’Hydro-Quebec qui a fait faillite, mais dont les actifs ont été rachetés par Bolloré. Une partie des recherches s’effectuent sur le site de Quimper. Pour l’instant, aucun produit n’est commercialisé.

Batscap commercialise en revanche des super condensateurs, notamment à travers un contrat avec BMW. Les super condensateurs délivrent une grande puissance instantanée, sur de très courtes durées ; ils sont souvent utilisés pour les phases de démarrage pour compenser la faible puissance instantanée des batteries au plomb. La technologie utilisée par Batscap, l’une des deux meilleures au monde selon certaines évaluations américaines, recourt à un électrolyte liquide, l'acétonitrile, interdit au Japon mais autorisé en Europe ; elle a été mise au point chez Saft par un thésard qui l’a développée ensuite chez Bolloré. Le succès du produit tient notamment à ce qu’il est très habilement conçu, notamment du point de vue de l’encapsulage et de la connectique.

Le CEA est entré dans l’univers des batteries avec une technologie Lithium Ion Phosphate de fer (LiFePO4), découverte par le professeur américain John Goodenough, inventeur antérieurement des premiers matériaux de cathode pour la technologie au lithium. Elle présente des avantages en termes de sécurité, mais aussi des inconvénients en termes de durée de vie, et surtout d’accumulation d’énergie, car la performance obtenue à cet égard est d’un quart inférieure à celle des batteries au Lithium Ion Cobalt. Cependant cette technologie pourrait être bien adaptée pour un stockage d’énergie régulant une production d’énergie renouvelable.

La délocalisation de la production des batteries dans les pays à faible coût de main d’œuvre a concerné en premier lieu l’assemblage des batteries à partir des éléments ne mettant pas en jeu le cœur technologique des batteries. Il s’agit de profiter des coûts réduits de production pour les fonctions d’assemblage. Une unité de production a ainsi été installée en Chine voilà trois ans pour suivre la demande, car Saft exportait beaucoup en Chine. En Chine, Saft a installé aussi une usine d’assemblage de batteries ferroviaires.

S’agissant de l’état de la concurrence en Allemagne, elle était jusqu’à une date récente d’une intensité bien moindre depuis le démantèlement de la société Varta à la fin des années 90, ce démantèlement résultant d’une décision de la famille propriétaire du capital. Johnson Controls a d’ailleurs récupéré une partie des actifs. La recherche allemande sur les batteries s’est alors arrêtée, la piste Lithium Ion ne faisant l’objet d’aucune investigation. Mais le Gouvernement allemand a reconstitué un potentiel dans ce domaine en 2007, en encourageant la mise en place du groupe Evonik Industries, fort de 43 000 employés, et présent dans plus de 100 pays. Le groupe a ouvert en octobre 2008 un centre "Science-to-business", appelé Eco2, ayant pour but de transformer rapidement les résultats des recherches en produits et prestations de services pour le marché ; entre autres, le centre va développer un potentiel de recherche dans le stockage de l'énergie, en particulier dans le domaine des batteries Lithium Ion.76 Le groupe Evonik intègre l’ancienne société Degussa, fabriquant des séparateurs pour batterie. Par ailleurs, l’Allemagne dispose d’autres entreprises performantes dans la production des matériaux nécessaires à la fabrication de batteries : Litec en Allemagne orientale (phosphore) ; Süd-Chemie (catalyseurs, phosphate de fer pour batteries Li-ion) ; c’est là un atout par rapport à la France. En Europe, la société belge UMICORE est un important fabricant de matériaux entrant dans la composition des batteries.

Au niveau mondial, les Japonais (Sony, inventeur de la technologie, Panasonic, Sanyo, GS Yuasa) sont les plus avancés dans la technologie des batteries, parce qu’ils ont dû s’y intéresser du fait des besoins de la petite électronique où ils étaient leaders. Les Coréens (Samsung, LG) et les Chinois (BYD) sont également présents sur le segment des petites batteries pour les portables, et commencent à proposer des produits pour l’automobile. Le groupe chinois Thundersky commence à s’implanter sur le marché des plus grandes puissances.

S’agissant de la pile à combustible, Mme de Guibert a expliqué qu’au vu de la réalité de son rendement thermique et électrique, elle avait fini par la considérer plus comme une chaudière que comme un générateur d’électricité, car son rendement énergétique total maximal de 70% correspond pour 40-45% à une production de chaleur, et 25-30% seulement à une production d’électricité (technologie PEM). Une pile à combustible, couplée à un dispositif d’électrolyse, en dépit de son faible rendement, peut devenir économiquement intéressante à utiliser pour le stockage stationnaire d’énergie dans un système atteignant une certaine taille, par exemple l’approvisionnement en électricité de logements collectifs. La pile à combustible reste encore au stade de l’expérimentation pour l’alimentation d’une automobile, mais en est pratiquement au stade de la commercialisation pour l’utilisation en mode stationnaire.

Mme de Guibert a estimé que l’engouement pour le développement de la pile à combustible qui s’est manifesté au cours des dernières années dans le cadre de la recherche coopérative européenne, et qui a aspiré à son profit beaucoup de ressources au détriment des programmes de recherche sur les batteries, serait en voie d’essoufflement depuis 2007, au moins sur la technologie PEM (la SOFC reste à un haut niveau d’études pour les applications stationnaires).

La participation à des programmes de recherche européens est incontournable lorsqu’il s’agit de construire un démonstrateur dépassant une certaine taille, nécessitant une mise en commun de ressources.

La recherche universitaire ne suffit pas en soi pour développer une filière, car elle s’arrête à la mise au point d’une solution, sans prendre en compte les problèmes liés à une production à grande échelle. En outre, elle est pilotée par le retentissement scientifique des découvertes, plus que par l’amélioration des systèmes. Ainsi, la recherche sur les électrodes positives (cathodes), pouvant aboutir à des résultats intéressant les revues scientifiques prestigieuses, suscite plus d’engouement que la recherche sur les électrodes négatives (anodes), et celle-ci plus encore que celle concernant les électrolytes, laquelle ne repose plus en France que sur un seul laboratoire, animé de surcroît par un professeur proche de la retraite.

Pour déterminer si des percées technologiques sont encore possibles dans le domaine des batteries, il suffit d’observer que les batteries combinant au mieux puissance et densité doivent se construire en théorie avec deux éléments chimiques les plus éloignés possibles, et en même temps les plus hauts possibles, dans le tableau de Mendeleïev. Il semble donc difficile de trouver mieux que les batteries au lithium depuis que celles-ci sont opérationnelles.

En revanche, il est encore possible de faire des progrès en se rapprochant de la limite théorique de fonctionnement des accumulateurs au lithium, grâce :

- d’une part, à l’amélioration technologique des boîtiers et de la connectique, des électrolytes et autres composants. C’est ce type de progrès technologique qui a permis à la batterie Lithium Ion de tripler sa capacité en charge depuis sa première diffusion commerciale par Sony en 1991 ;

- d’autre part, à l’usage de nouveaux matériaux d’électrodes fonctionnant sur des principes nouveaux et permettant des capacités spécifiques plus élevées (par exemple des nanomatériaux permettant des réactions dites « de conversion », ou des composites). Ce sont des sujets encore à l’étude, et pas encore des produits en production.

Les batteries n’atteignent pas encore les performances requises au niveau de la durée de vie : l’utilisation dans les équipements de télécommunication, ou pour le stockage des énergies renouvelables nécessiterait une garantie de fonctionnement de 20 ans. Or, les batteries au plomb durent 5 ans, tandis que celles au Nickel Cadmium durent 10 ans.

M. Jean Therme a expliqué que la France avait véritablement pris son essor dans le domaine de l’énergie photovoltaïque avec la mise en place du tarif incitatif de rachat en 2006, la création de l’INES la même année, et la mise en place du programme de développement industriel Solar Nano Crystal, mobilisant 190 millions d’euros sur la période 2008-2012.

Le cœur de ce programme consiste en la mise en place d’un pilote de production de cellules photovoltaïque, appelé LabFab, qui contribuera à la validation des résultats obtenus dans les laboratoires de l'INES. Il sera géré par la société PV Alliance, constituée par un partenariat entre Photowatt (40 %), le CEA (20 %) et EDF Energies Nouvelles (40 %), selon une configuration qui vise à garantir son ancrage en France.

Le développement de l’INES repose sur une implication forte du CEA qui a largement dépassé ses engagements initiaux en matière d’investissements et d’apport en personnel. La première phase jusqu’à fin 2006 a visé à implanter deux laboratoires consacrés l’un à la recherche sur l’utilisation du silicium «métallurgique» pour l’effet photovoltaïque (projet Photosil), l’autre aux tests sur les systèmes photovoltaïques intégrant du stockage sur batterie. La seconde phase, jusque fin 2008, a permis de créer des laboratoires sur les cellules solaires, sur les modules solaires, et des bancs de certification (avec le concours du CSTB et du Laboratoire national de métrologie et d’essais), indispensables en France pour éviter les files d’attente imposées en Allemagne aux industriels français. La troisième phase à partir de 2009 devrait permettre la mise en place de plates-formes technologiques du Grenelle de l’environnement, qui concernent la mobilité solaire, l’efficacité des systèmes photovoltaïques, l’optimisation et l’évaluation des batteries, la performance énergétique des bâtiments.

L’effectif de l’INES devrait atteindre 250 personnes en 2012 contre 125 fin 2008. Le nombre des chercheurs en provenance du CNRS et du CSTB, actuellement réduit à quelques unités, devrait notablement augmenter à partir de maintenant, mais la grosse majorité des effectifs restera membre du CEA.

Le dynamisme de l’INES bénéficie d’ores et déjà d’une reconnaissance internationale, puisqu’il a reçu un prix le mettant en position de laboratoire de référence européen sur le stockage électrochimique de l’énergie, notamment parce qu’en testant tous les systèmes existants, il est parvenu à établir une bibliothèque de solutions pour les situations d’utilisation de manière stationnaire ou en mobilité. Il a reçu une autre récompense pour sa maîtrise du rendement de conversion des cellules au silicium métallurgique. L’INES est désormais reconnu comme un des quatre premiers pôles de recherche européen sur l’énergie photovoltaïque, avec l’Institut Frauhofer allemand, l’IMEC belge et l’ECN néerlandais.

Le succès rencontré par l’INES se mesure aussi à la multiplication par cinq, en quatre ans, des revenus procurés par les contrats industriels, qui concernent des équipementiers du bâtiment, comme Ossabois, fabricant de maison en bois, ou des utilisateurs finaux. Environ 60% des partenariats industriels se font avec des entreprises de la région Rhône-Alpes. L’INES est en outre un foyer d’essaimage d’entreprises nouvelles ; à cet égard, on peut citer comme exemple, outre PV Alliance, Genehpi (Isolation des bâtiments), Prollion (Stockage de l’énergie), Photosil (Fabrication de cellules photovoltaïques à partir de silicium métallurgique). L’INES fonctionne au sein du pôle de compétitivité Ternerrdis.

S’agissant de la stratégie d’utilisation du silicium «métallurgique» pour fabriquer des cellules photovoltaïques, elle était fondée sur deux faits : d’abord, la certitude de la prééminence durable du silicium comme support photovoltaïque sur le marché ; elle atteint aujourd’hui 90%, et même en cas de déclin, ce déclin se fera très progressivement, car le marché des cellules photovoltaïques croît à une vitesse de plus de 30% par an ; le silicium est le quatrième élément le plus abondant sur la planète ; ensuite, Pechiney disposait dans la région de quatre usines produisant du silicium «métallurgique» (deux en Savoie, une en Isère, une dans l'Ain), afin notamment de fabriquer de l’alpax, alliage de fonderie à base d'aluminium contenant 13 % de silicium. Ces usines ont été rachetées par Ferropem, filiale du groupe espagnol FerroAtlantica. Le silicium dit «métallurgique», présent aussi dans la pâte de silicone (mastics), est purifié en vue notamment de réduire la teneur en phosphore et en bore, par un procédé utilisant une torche plasma. Les rendements photovoltaïques obtenus atteignent 15,5% alors que la performance de référence obtenue avec du silicium microélectronique est de 16,6%. L’américain Dow Corning qui purifie lui-aussi du silicium métallurgique n’a pas dépassé 14,2%.

L’INES comporte un pôle de recherche consacré à l’énergie photovoltaïque organique, qui a été constitué par le rapatriement d’une partie de l’équipe des laboratoires de Saclay. Il est parvenu à atteindre un rendement de 5% sur une durée de vie de 250 heures, car la vapeur d’eau et l'oxygène de l'air détruisent les polymères ; c’est un record mondial. Ce niveau de performance suscite l’intérêt de société comme Somfy qui fabrique des volets, des stores, des rideaux, des portails.

L’INES est parvenu récemment à la mise au point d’une technologie de quatrième génération basée sur l’implantation de nanofils de silicium sur un support flexible ; elle permet d’augmenter le rendement en créant des boites quantiques de tailles diverses permettant de capturer des photons ayant la fréquence correspondante, ce qui accroît, pour une surface donnée, le nombre de points du spectre utilisés.

Les performances effectives des cellules photoélectriques varient en fonction des contextes d’utilisation, et l’INES a mis en place des protocoles de mesure pour les établir. La différence entre la performance annoncée (en Watt crête) et la performance réelle en situation peut varier de plus ou moins 10%, ce qui représente une marge de variation de 20%.

L’INES participe à des expérimentations de « mobilité solaire » sur le modèle développé par Google en Californie : certains employés viennent sur leur lieu de travail en voitures électriques rechargeables (en l’occurrence, des Prius transformées), et les laissent en chargement dans la journée sur un parking équipé de panneaux photovoltaïques. A l’INES, les voitures utilisées sont fabriquées par Peugeot. L’idée, à terme, serait de favoriser l’apparition d’opérateurs qui, disposant d’un parking équipé de panneaux solaires, loueraient la batterie des véhicules durant leur temps de stationnement, pour acheter ou vendre de l’électricité sur le réseau.

L'intérêt de l’énergie solaire thermique est remis en cause par le développement des bâtiments à basse consommation. En effet, si l'on passe en dessous d'une consommation de 120 kWh par mètre carré et par an, un système de chauffage thermique alimenté en biomasse (avec des granulés de bois, par exemple) est préférable, car il a l'avantage d'être peu coûteux, d'avoir une contribution très faible à l'effet de serre, et de couvrir les besoins de chauffage en pointe, alors que le système solaire thermique ne fonctionne qu'en chauffage de base, à hauteur de 40% du besoin total, et rend donc nécessaire, de toute façon, un second système de chauffage pour les pointes de consommation. Or, un double système de chauffage multiplie les causes de fuites et de pannes, et double le coût de l'installation. Si l'on passe en dessous d'une consommation de 50 kWh par mètre carré et par an, une climatisation devient nécessaire, car il faut évacuer l'énergie dégagée par la cuisson des aliments; le meilleur système devient alors la pompe à chaleur réversible branchée sur le réseau, ou mieux encore, sur l'électricité photovoltaïque; un bâtiment de 100 mètres carrés consomme alors au maximum 5000 kWh, ce qui correspond à une besoin d'énergie d'environ 1300 kWh pour une pompe à chaleur avec un coefficient de performance (COP) égal à 3, et cette énergie peut être fournie par une surface photovoltaïque de 10 mètres carrés. Si l'on passe en dessous d'une consommation de 20 kWh par mètre carré et par an, la maison se transforme en véritable bouteille thermos : un petit radiateur électrique suffit pour le chauffage, et pour des raisons d'hygiène, la fonction critique devient la ventilation, nécessitant alors un système VMC double flux. Celui-ci fonctionne avec un échangeur qui réchauffe en hiver l'air neuf frais entrant par l'air vicié sortant, ce qui limite les pertes caloriques à 2 ou 3%, au lieu de 20% habituellement; l'été, l'échangeur limite l'entrée des calories.

Les pays qui ont une avance dans l'usage de l'énergie solaire délaisse de plus en plus le chauffage solaire thermique : les PassivHaus allemandes ne fonctionnent qu'à l'énergie photovoltaïque, comme les nouvelles maisons en bois du Japon. L'isolation des PassivHaus est si parfaite que certains habitants de Fribourg ont commencé à se plaindre de leur caractère invivable.

L'énergie solaire thermique garde cependant un intérêt pour l'eau chaude dans les DOM-TOM, et pour la rénovation des maisons peu performantes en métropole. Par ailleurs, sous la forme technologique des capteurs à tube sous vide, très développée en Chine, elle retrouve un avantage dans la mesure où ces dispositifs peuvent être utilisés pour la climatisation en été. La Chine produit sous cette forme les trois-quarts des capteurs solaires thermiques de la planète.

M. Jean Therme a indiqué qu'il allait s'efforcer d'orienter l'INES vers l'aide aux pays en développement, à travers la création d'une fondation. Pour l'instant, ces pays sont souvent fournis en équipements solaires par la Chine, qui se débarrasse ainsi de ses surplus industriels. Il y a donc place pour une assistance de qualité, financée sur la base du micro-crédit, pour éviter les pertes en ligne des aides extérieures classiques.

M. Philippe Baclet a rappelé que la technologie des batteries a connu trois vagues d'innovation impulsées au départ par les besoins des ordinateurs portables et des téléphones mobiles : d'abord, la technologie Nickel-Cadmium, qui a été utilisée par l'automobile dans les années 90, Renault et Peugeot ayant vendu, en France, environ dix mille véhicules électriques utilisant ce type de batterie; ensuite, la technologie Nickel-Métal Hydrure, qui a été utilisée par Toyota pour mettre au point le véhicule hybride, mais qui est mal adaptée pour un système hybride rechargeable, car elle ne supporte pas bien la multiplication des cycles de charge-décharge; enfin, la technologie Lithium–Ion, quatre fois plus dense en énergie que la précédente, qui devrait permettre l’émergence des voitures hybrides rechargeables. Les technologies Lithium-Polymères (celle de Bolloré) et Lithium-air correspondent aux générations futures.

Les trois industriels japonais à la pointe dans le domaine des batteries rechargeables (Sanyo, Sony, Panasonic) sont suivis de près par deux industriels coréens (Samsung et LG) en forte croissance, puis par des industriels chinois, dont Lishen et BYD, ce dernier mettant en place une filière intégrée jusqu'à la production d'automobiles (son logo copie celui de BMW). Les asiatiques, et surtout les Chinois, ont testé l'utilisation des batteries rechargeables pour le transport sur les vélomoteurs, ce qui était une manière astucieuse de ménager une transition à partir de l'utilisation sur les téléphones portables. Ces vélos électriques sont produits à raison de plusieurs millions par an.

Pour comparer les sources d'énergie pour les transports, il faut croiser la compacité de chaque source, avec le rendement du moteur utilisé, pour établir une densité énergétique effectivement restituée. Il apparaît ainsi que le carburant liquide est très dense (12 kWh par kg), 100 fois plus que les meilleures batteries (0,07 à 0,2 kWh par kg, mais comme il fonctionne avec un moteur de rendement faible (20%), son avantage en termes d'énergie massique est réduit du quart (20 fois meilleur), car un moteur électrique a un rendement de 80%. Un plein d'essence de 50 litres pèse 42 kg et permet de faire 800 km. L'équivalent en batterie pour faire 800 km pèse 830 kg, 20 fois plus. L'autonomie permise par les meilleures batteries d'aujourd'hui se résume donc ainsi : 100 kg pour faire 100 km; une batterie pesant l’équivalent d'un plein d’essence permet de parcourir 40 km.

La pile à combustible permet une performance intermédiaire : en énergie restituée, elle est trois fois moins efficace (à cause de la masse du réservoir d'hydrogène) que le carburant liquide.

La technologie Lithium-Ion s'est développée au profit des appareils portables en utilisant du dioxyde de cobalt à la cathode. Elle permet d'atteindre de forte densité énergétique (0,2 kWh/kg) mais présente des risques en termes de sécurité, en cas de chauffage ou de perçage. De plus, le cobalt n'est pas un matériau assez abondant pour faire face à un besoin d'équipement de l'ensemble du parc automobile. Tel n'est pas le cas du phosphate de fer qui, utilisé à la cathode, abaisse un peu la performance d'une batterie Lithium-Ion mais améliore considérablement ses conditions de sûreté : la batterie au phosphate de fer ne s'enflamme pas lorsqu'on la perce avec un clou. En outre, il en diminue le coût brut de fabrication de moitié. Si l'on ajoute l'économie réalisée au niveau des systèmes de commande internes pour gérer les risques, le coût de fabrication est presque diminué des trois-quarts, 15 euros le kilogramme au lieu de 50 euros pour les batteries Lithium-Ion à dioxyde de cobalt.

Les constructeurs d'automobiles mondiaux passent des alliances avec des fabricants de batteries Lithium-Ion pour se positionner sur le futur marché de la voiture hybride rechargeable. Renault compte sur les batteries conçues par l'alliance Nissan-NEC, qui pourrait installer une unité de production en France. Toyota s'est allié avec Panasonic pour construire une usine dont Toyota conservera l'entière maîtrise. Les autorités européennes ont lancé divers programmes pour suivre ces évolutions (Ertrac, Eucar, Earpa) et la Commission a prévu, fin novembre 2008, un soutien de 5 milliards d'euros pour le développement des voitures « vertes ». Les Allemands, de leur côté, ont annoncé au même moment un plan national de développement de la voiture électrique réunissant constructeurs d'automobiles (BMW, Daimler) et producteurs d'électricité (E.On, RWE), prévoyant l'intégration au réseau électrique de l'alimentation d'un million de véhicules; l'alimentation représentera quelques pourcents seulement de la production allemande d’électricité. Jean Therme a observé que cela doterait le réseau électrique allemand d'une capacité de stockage permettant de mieux gérer la part d'énergie renouvelable dans la production d'électricité. L'alliance EDF-Toyota vise à exploiter des véhicules hybrides rechargeables alimentés avec de l'électricité non émettrice de gaz à effet de serre.

S'agissant des batteries Lithium-Polymère de Bolloré, le secret sur les performances obtenues est bien gardé, et peut correspondre, soit à un échec, soit à une avance stratégique dont la sortie du premier modèle commercialisé, d'ici deux ans, assurera la reconnaissance.

Le CEA intervient dans ce domaine en cherchant à optimiser la structure des matériaux utilisés au niveau nanométrique, pour en augmenter les performances, puis les dispositifs d'intégration des éléments composants les batteries. M. Jean Therme a précisé que les manipulations sur les poudres nanométriques s’effectuaient dans un environnement de protection copié de ceux utilisés dans l’industrie nucléaire. Les performances accrues en ce qui concerne la technologie Lithium-Ion avec une cathode en phosphate de fer sont exploitées depuis peu dans le cadre d'une start-up, Prollion. Par ailleurs, des recherches de rupture se poursuivent sur les électrodes, visant en 2015 à atteindre une densité massique double à 0,3 kWh par kg, qui permettrait de descendre à 50 kg le poids de batterie nécessaire pour une autonomie de 100 km.

La plate-forme de tests des batteries de l'INES permet de mesurer la performance des différentes technologies disponibles, et d'étudier les conditions optimales d'utilisation, pour permettre un allongement de la durée de vie. Le CEA développe en conséquence des modules internes de contrôle, basés sur une électronique de basse consommation, maintenant la batterie dans sa plage optimale d'utilisation.

La flotte de dix mille voitures électriques vendues en France dans les années 90 a fait l'objet d'une analyse approfondie de retour d'expérience, mettant en évidence des écarts d'un facteur 5 à 7 sur la durée de vie, selon le respect des préconisations d'utilisation (ne pas recharger systématiquement à plein la batterie, ne pas accélérer à froid, par exemple).

Conformément à la mesure n°49 prévue par le Plan national de développement des énergies renouvelables présenté le 17 novembre 2008, le CEA s'est efforcé de mettre en place une plate-forme technologique permettant d'assurer à la France une indépendance dans l'exploitation de ses avancées technologiques dans le domaine des batteries. Un accord avec Prayon, industriel belge possédé pour moitié par l'Office chérifien des phosphates (Maroc), devrait permettre d'implanter en Isère une unité de fabrication de phosphate de fer optimisé selon le brevet du CEA. Par ailleurs, une start-up, Prollion, sera dotée d'un « LabFab » permettant de réaliser les composants des batteries, voire leur intégration. Cette plate-forme sur les composants de batterie fonctionnera en cohérence avec une plate-forme sur l'intégration des véhicules, qui sera implantée prochainement à Satory.

Enfin, un programme de tests de mobilité urbaine a été mis en place en Rhône-Alpes pour couvrir les différents cas pouvant se présenter : les parcours en ville uniquement, optimisés pour la voiture électrique; les parcours banlieue – ville, bien adaptés pour les véhicules électriques rechargeables, éventuellement rechargés selon le modèle de la « mobilité solaire » évoquée précédemment; les parcours banlieue – banlieue, nécessitant une véhicule hybride rechargeable. M. Jean Therme a indiqué que d'autres grandes agglomérations de France seraient sollicitées pour effectuer ce type de tests, permettant d'accumuler de l'expérience.

Audition publique, ouverte à la presse,

sur les biocarburants

du Mercredi 1er octobre 2008

Personnalités auditionnées

M. Pierre René Bauquis, Professeur associé à l’École nationale supérieure du pétrole et des moteurs

M. André Douaud, Directeur technique au centre des constructeurs français d'automobiles.

M. Bruno Jarry, Membre de l’Académie des technologies

M. Hervé Guyomard, Directeur scientifique « société, économie et décision » à l’INRA

M. Pierre Cuypers, Président de l'Association nationale pour le développement des carburants agricoles (ADECA)

M. Jean François Loiseau, Président du groupe coopératif Agralys, membre du Bureau de Coop de France

M. Jacques Blondy, Responsable du Développement agricole, au sein de la Direction Stratégie-Développement-Recherche de la branche Raffinage-Marketing de Total

M. Olivier Appert, Président de l’IFP

M. François Moisan, Directeur de la stratégie et de la recherche de l’ADEME

M. Ghislain Gosse, Président du centre INRA de Lille, Chargé de mission « Carbone renouvelable » à l’INRA

M. Paul Lucchese, Responsable du programme NTE au CEA

Dr. Bodo Wolf, Fondateur de la société Choren

M. Nikolaus Weber, Associé du cabinet « MSW Énergies »

M. Alain Jeanroy, directeur général de la Confédération générale des planteurs de betteraves

M. Jean-Paul Cadoret, chef du laboratoire physiologie et biotechnologie des algues de l’IFREMER

M. Bernard Bigot, Haut Commissaire à l’Énergie atomique

Compte rendu de l’audition publique

M. Claude Birraux, Président de l’OPESCT - Je suis heureux de vous accueillir pour cette audition publique consacrée aux biocarburants, dont l’objectif est de faire le point des connaissances sur les différentes filières de biocarburants et d'apprécier leur intérêt. Elle prend place dans le cadre du rapport d'évaluation de la stratégie nationale de recherche en matière énergétique que nous élaborons, Christian Bataille et moi, en parallèle aux réflexions menées dans le cadre du Grenelle de l'environnement. Deux collègues députés, Jean-Pierre Brard et Jean-Yves Le Déaut, ayant également témoigné de leur intérêt pour le sujet, nous leur avons confié la présidence de deux des quatre tables rondes qui se succéderont cet après-midi.

Première table ronde

L’enjeu des biocarburants dans la stratégie énergétique : leur place dans les transports aujourd’hui et demain

Présidence de M. Christian Bataille

M. Christian Bataille – Je suis à mon tour heureux de vous accueillir pour cette audition publique que nous avons organisée dans le cadre de la mission d’évaluation de la stratégie nationale sur la recherche énergétique que nous a confiée l’article 10 de la loi de programmation sur l’énergie du 13 juillet 2005.

L’OPESCT nous a désignés, Claude Birraux et moi-même, le 11 décembre 2007 pour conduire cette mission qui s’inscrit dans la continuité de celle que nous avions déjà menée ensemble en 2005 sur les nouvelles technologies en matière d'énergie. Elle vise moins cette fois à décrire les perspectives techniques de développement des biocarburants et les différentes technologies qu'à analyser les orientations à prendre.

Notre point de départ a été la stratégie nationale publiée en mai 2007 par les ministères respectivement chargés de l’industrie et de la recherche. Nous avons commencé nos auditions en mars. Nous tiendrons bien sûr compte des réflexions intervenues depuis lors, notamment des travaux du comité opérationnel sur la recherche, et envisageons de rendre notre rapport vers la fin de l’année.

Les recherches sur les biocarburants entrent bien entendu dans le champ de notre évaluation. Lors d’une visite en Finlande la semaine dernière, nous avons constaté, avec Claude Birraux, que ce pays a fait des biocarburants un axe majeur de sa stratégie énergétique se fondant sur deux atouts dont notre pays dispose également : une forte compétence dans la chimie, en particulier le raffinage des hydrocarbures, et d’importantes ressources en biomasse forestière. La Finlande développe ainsi de grands projets de biodiesel de deuxième génération.

Lors de la table ronde sur les biocarburants que nous avions organisée en juillet 2004 pour préparer l’examen de la loi d'orientation sur l’énergie, nous avions déjà entendu certaines des personnalités que nous auditionnerons de nouveau aujourd’hui. Leur aide nous avait été précieuse à l’époque. Je ne doute pas qu’elle le sera de nouveau.

Depuis 2004, le contexte a profondément changé. Tout d’abord, la question de la viabilité technique des biocarburants en termes de bilan énergétique, qui était alors au cœur des discussions, a été dépassée par la crainte que leur production n’entame le potentiel agricole de productions alimentaires. Alors que les biocarburants apparaissaient comme un moyen de mettre en valeur des terres en jachère, par exemple dans la région dont je suis l’élu, ils sont aujourd’hui tenus pour responsables de la hausse des prix alimentaires. L'autre changement majeur est la forte hausse du prix du pétrole. Même si le ralentissement de la demande ces dernières semaines a permis une accalmie, il n’en demeure pas moins que le prix du baril a triplé en quatre ans. Cette tension sur le prix de l'énergie fossile démontre, s’il en était besoin, tout l'intérêt de la filière des biocarburants. Dans le même temps,  le Gouvernement a annoncé son intention de supprimer progressivement d'ici à 2012 les avantages fiscaux réservés à ceux-ci, estimant que l’augmentation du prix du pétrole les rendait inutiles. Le projet de loi de finances pour 2009 réduit déjà l'exonération partielle de TIPP dont bénéficient le biodiesel et l'éthanol, pour une économie de 400 millions d’euros.

L’OPESCT a publié en juillet dernier une note sur les biocarburants, qui nous a servi de base pour l’organisation du programme de la présente audition publique.

Nous sommes heureux pour cette première table ronde d’accueillir M. Pierre-René Bauquis, ancien directeur de la stratégie de Total, professeur à l’Ecole nationale supérieure du pétrole et des moteurs, et membre éminent du conseil scientifique qui nous accompagne dans notre mission d'évaluation de la stratégie de recherche énergétique, ainsi que M. André Douaud, directeur technique au centre des constructeurs français d’automobiles.

M. Pierre-André Bauquis, professeur à l’Ecole nationale supérieure du pétrole et des moteursToutes les énergies possibles pour alimenter un véhicule ont déjà été essayées. Le premier moteur à explosion, breveté en 1805 en Suisse, fonctionnait à l’hydrogène ; le premier moteur diesel, conçu en Allemagne en 1892, au charbon pulvérisé ; la première voiture à dépasser les 100 km/h, la Jamais contente de Camille Jenatzy à Achères, était électrique. Enfin, le record mondial de vitesse en 1903 était obtenu par une Godron-Brillié roulant à l’éthanol agricole.

Pourquoi donc les hydrocarbures liquides se sont-ils imposés au point de représenter 98% de l'énergie utilisée pour les transports ? Tout simplement, à cause d’une compacité énergétique, à la fois massique et volumique, inégalée et de leur extrême facilité d'utilisation. Des progrès sont envisageables sur les batteries, dont la densité massique pourrait être triplée, mais, quoi qu’il en soit, elle restera très loin de celle des hydrocarbures. L’idée selon laquelle l’électricité, très en vedette aujourd’hui, pourrait remplacer les hydrocarbures est donc irréaliste : elle viendra en complément de ceux-ci.
Pour autant, on ne peut, s’agissant du recours au pétrole, continuer sur la pente actuelle. On se heurte tout d’abord à un problème de disponibilité de la ressource, le fameux peak oil à partir duquel la production inéluctablement ne pourra plus augmenter, voire commencera de décroître. Lorsqu’il y a dix ans, j’avais publié une étude avançant l’idée qu'en 2020 la production plafonnerait à 100 millions barils par jour, on me taxait de pessimisme, alors que c'est aujourd'hui l'estimation officielle de l'Institut français du pétrole ou de Total. La moitié du pétrole aujourd’hui produit dans le monde est utilisé pour les transports, contre 35% il y a trente ans. Il est clair que les ressources en hydrocarbures liquides naturels ne seront pas suffisantes pour alimenter tout le parc automobile actuel, a fortiori futur. Un autre problème tient, je ne m'y étends pas, aux émissions de CO2 lors de la combustion de cette énergie fossile.

Quelles solutions réalistes envisager ? Le recours à l’hydrogène comme vecteur énergétique pour les transports terrestres serait absurde sur le plan économique. L’hydrogène est et restera cher à produire, à transporter, et à stocker. Quelle que soit la solution technique retenue pour le stockage - réservoirs hyperbares, hydrures, nanotubes de carbone, ou hydrogène liquefié -, la difficulté tient à la très faible quantité d’hydrogène stocké par rapport à la masse du réservoir nécessaire -en gros, 95% d’emballage pour 5% d’énergie. Le recours à l’hydrogène ne peut donc être une solution d'avenir pour l’automobile, même si tous les grands pétroliers, y compris Total, disposent de stations pilotes.

Une solution réaliste, vers la fin de ce siècle, dans la répartition des énergies pour les transports consisterait en « quatre quarts » : un quart d'hydrocarbures liquides naturels, un quart d’électricité -véhicule tout électrique ou hybride rechargeable-, le reste en produits de synthèse, dont un quart en synthétiques conventionnels, que l’on sait déjà fabriquer, à savoir ceux produits à partir de biomasse, et ceux produits à partir d’énergies fossiles, filières dites XTL comprenant le GTL (gas to liquids), le CTL (coal to liquids), et le BTL (biomass to liquids), toutes filières présentant l'inconvénient majeur de rejeter beaucoup de CO2 dans l'atmosphère ; un quart enfin en produits restant à inventer et on peut penser ici à l'hydrogène, utilisé non comme vecteur énergétique, mais carboné à la source. L'idéal serait bien sûr de le carboner avec de la biomasse - c'est une voie d'avenir de la recherche. Cette filière HTL (hydrogen to liquids) consisterait à fabriquer des hydrocarbures à partir d’hydrogène produit soit à partir d’énergies renouvelables, soit plus probablement à partir d’énergie nucléaire. De même, pour les biocarburants, on peut espérer doubler, voire tripler les rendements à l'hectare tout en divisant par deux ou trois les émissions de gaz carbonique en les dopant par de la calorie ou de l'hydrogène d'origine nucléaire.

Alors que le pétrole représente aujourd’hui 98% de l’énergie primaire utilisée pour les transports, il ne devrait plus en représenter que 25% en 2100. Les pourcentages du nucléaire, de la biomasse, et autres – charbon, hydraulique, éolien…-, aujourd’hui tous inférieurs à 1%, devraient, eux, passer à cet horizon respectivement à 60%, 5-10% et 5-10%, la biomasse servant surtout si elle peut être dopée à l'hydrogène, le nucléaire devenant la source principale indirecte.

M. André Douaud, directeur technique au Comité des constructeurs français d'automobilesOù en est la réflexion des constructeurs automobiles sur l’utilisation des biocarburants ? On ne peut traiter des énergies alternatives au pétrole sans parler d'abord du pétrole. Tous les constructeurs, français et étrangers, se sentent aujourd’hui de plus en plus concernés par la disponibilité technique et économique des carburants pour les véhicules qu’ils produisent alors qu’il y a dix ou vingt ans, ils s’intéressaient essentiellement à la spécification des carburants - d’où ont été successivement ôtés le plomb, puis le soufre - ou à leur courbe de distillation. La question est en effet devenue vitale pour eux : s’il n’y avait plus demain d’énergies à mettre dans les réservoirs, l’industrie automobile serait tout simplement menacée de mort…

De fortes inquiétudes se font jour aujourd’hui sur le prix et le coût d’usage du pétrole, alors que celui-ci a longtemps été une ressource abondante et très bon marché, ce qui explique d’ailleurs que les États aient songé à instaurer une taxe sur les produits pétroliers, qui leur a beaucoup rapporté. Chacun sait ce que représente la TIPP dans les rentrées fiscales de l'État français…

En outre, il y a trop d'essence et pas assez de gazole. Malheureusement, le convertisseur le plus efficace - ce sont pas les constructeurs français qui le disent mais cela résulte des lois de la thermodynamique - est le diesel, qui émet beaucoup moins de CO2 pour la même quantité d’énergie utilisée. Or, nous connaissons déjà de gros problèmes d’approvisionnement en gazole dans l’Union européenne, et le phénomène va s’aggravant.

Il faudrait donc sortir du « tout pétrole », en donnant la priorité aux énergies liquides, qui possèdent une forte densité énergétique, sont faciles à distribuer et extrêmement sûres - preuve en est que lors de l'incendie d'un poids lourd, le plus souvent, seul le réservoir de gazole reste intact. Les biocarburants constituent à cet égard une réponse, partielle certes mais d'application immédiate.

L’un de leurs atouts est que ce sont des carburants sans carbone d'origine fossile, qui n’accroissent donc pas la concentration de l’atmosphère en CO2 lors de leur combustion. Les constructeurs sont déterminés à faire valoir cet avantage CO2 auprès des instances européennes qui sont en train d’élaborer un nouveau règlement pour la fin de l'année.

Si les biocarburants, d'aujourd'hui et de demain, ont la même efficacité énergétique que l’essence ou le gazole dans les moteurs à combustion interne actuels ou futurs, l’écart de consommation volumique est très important. Un litre d’éthanol n’a pas la même capacité énergétique qu’un litre d’essence ou de gazole : or, cet aspect n’est pris en compte ni dans la fixation du prix des carburants, ni dans le niveau de leur taxation. Tous s'achètent et sont taxés au litre. C’est d’ailleurs l’une des raisons de l’échec des véhicules flex fuel E85, filière lancée de manière prématurée dans notre pays. On avait en effet « oublié » de signaler aux automobilistes qu'ils consommeraient 30% à 40% de plus aux 100 km. Mais l’éthanol, de même que le méthanol, sont d’excellents carburants pour les moteurs à combustion interne. Partout dans le monde, les chercheurs travaillent à la mise au point de moteurs à l'éthanol qui auraient de meilleurs rendements que les moteurs diesel. Et si l'éthanol n'a pas encore aujourd'hui l'efficacité énergétique des carburants classiques, des perspectives intéressantes existent.

Pour ce qui est des pollutions locales - émissions de monoxyde de carbone CO, d'oxydes d'azote NOx, d'hydrocarbures imbrûlés, de particules -, les biocarburants se situent au même niveau que l’essence ou le gazole. L’atout environnemental des biocarburants ne réside donc pas dans la réduction de ces pollutions-là, contrairement à ce que certains de leurs défenseurs font valoir - ce qui était peut-être vrai il y a vingt ans quand les technologies de moteur diesel n'étaient pas encore très au point ne l’est plus aujourd’hui -, mais bien dans la limitation des rejets de CO2.

C’est précisément l’un des principaux objectifs posés par le Grenelle de l’environnement. On a ainsi fixé l'objectif extrêmement ambitieux qu'à à l'horizon 2020, le parc automobile français n’émette en moyenne pas plus de 130 g de CO2/km. Les biocarburants à l'avenir devront répondre aux exigences des deux filières, aussi bien essence que diesel.

On constate aujourd'hui une importante disparité entre l’offre et la demande d’essence et de gazole de par le monde. Ainsi l’Europe manque-t-elle de 23 millions de tonnes de diesel quand la Russie a un excédent de 32 millions de tonnes et que les États-Unis, dont le parc automobile est très largement essence, sont autosuffisants. En revanche, l’Europe produit 29 millions de tonnes d’essence en excédent quand l’Amérique du Nord manque de 47 millions de tonnes. Il y a donc un flux d’essence de l'Europe vers les États-Unis et un autre de gazole et middle distillate de l'Est vers l'Europe. Les flux mondiaux de gazole et d’essence s’élèvent respectivement à 42 et 47 millions de tonnes. Si les États-Unis se mettaient à consommer moins d'essence, et ils s'engagent dans cette voie, l'Europe ne saurait que faire de ses excédents. A l’avenir, la stabilisation de la demande de middle distillate en Europe, conjuguée à une augmentation de la demande de light et middle dans les pays émergents d’Extrême-Orient, pourrait déplacer vers le Moyen et l’Extrême-Orient les nouvelles unités de raffinage pour répondre à la demande. L’Europe risquerait alors d’importer de plus en plus de gazole, qui se renchérirait donc. Et on l'a vu il y a quelques mois où le gazole est devenu plus cher que l'essence en France, en dépit d'une taxation inférieure.

Les objectifs du plan Biocarburants français sont bien connus. Pour les constructeurs, il est deux voies pour les atteindre. La première, avec des véhicules dédiés, véhicules flex fuel qui peuvent utiliser n'importe quel mélange essence-éthanol, jusqu'à 85% d'éthanol, ou véhicules utilisant des gazoles contenant jusqu’à 30% de biodiesel. Les constructeurs préconisent toutefois que ce B30 soit réservé à des flottes captives car on ne peut garantir que les vidanges ne devront pas être plus fréquentes – mais c'est un problème mineur qui devrait être résolu. La seconde, avec le parc actuel utilisant des mélanges banalisés, transparents pour le consommateur, dans lesquels est incorporé un certain pourcentage d'éthanol ou de biodiesel. Aujourd'hui, les biodiesels sont essentiellement des huiles végétales qui ont été transformés en esters méthyliques (EMHV) ou en esters éthyliques (EEHV). En théorie, ces derniers présentent un meilleur bilan carbone, s’ils n’ont pas demandé trop d'énergie pour être produits.

Depuis le 1er janvier 2007, tous les gazoles distribués en France peuvent contenir jusqu'à 7% en volume d'esters d'huile végétale. Après débat entre l'administration, l'industrie pétrolière et l'industrie automobile, chacun s'est accordé sur le fait qu’il n’était pas nécessaire de le spécifier sur les pompes. Le B7, biodiesel à 7%, est compatible avec tous les véhicules du parc. Un problème ne se pose qu’au-delà, les constructeurs allemands par exemple refusant que le seuil de 7% d’EMHV soit dépassé, certains filtres à particules étant très sensibles à l'encrassement produit par le biodiesel. En France, l’approche n’est pas la même, notamment parce que les filtres à particules utilisés par PSA sont de technologie différente et que cela ne leur pose pas de problème particulier.

Les constructeurs exigent que la spécification des biocarburants soit aussi rigoureuse que celle de l'essence ou du gazole, ce qui n'est pas toujours le cas jusqu'à présent. Ce qui est absolument à proscrire, ce sont les huiles végétales brutes, dont la combustion émet des substances cancérigènes. Les constructeurs se demandent même comment l'utilisation de ces huiles a pu être autorisée dans certaines communes…

Aujourd'hui, tous les carburants peuvent contenir jusqu’à 5% d'éthanol. Cette limitation pose un problème pour atteindre les objectifs du plan Biocarburants français. Les constructeurs discutent actuellement avec les pouvoirs publics, le monde agricole et les distributeurs pour autoriser l'incorporation de 10% d'éthanol au 1er janvier 2009. L’industrie pétrolière nous a fait savoir que le E10 pourrait avoir deux formes, avec tous les intermédiaires imaginables entre : E10 avec 10% d'éthanol ou E 10 sous forme d'ETBE -éthyl tertiobutyl éther-, produit connu depuis longtemps et accepté par les moteurs, sachant toutefois qu’il faut 22% d'ETBE pour correspondre à 10% d'éthanol. Si le E10 est fourni sous forme d'ETBE, 75% du parc automobile français est compatible, alors que s’il s’agit d’éthanol pur, le pourcentage tombe à 50%.

Les raisons de l’échec de la filière flex fuel E85 sont multiples : pas assez de pompes de distribution, trop peu d'offres constructeur, mauvaise information des automobilistes sur la surconsommation et, pis, non prise en compte par le nouveau dispositif du bonus-malus de l’avantage présenté par le E85 en matière d’émissions de CO2. Les constructeurs estiment pourtant que la filière, qui a pâti d’un lancement prématuré, pourrait être intéressante à moyen terme. Le Mondial de l'automobile sera l'occasion de voir s’ils augmentent ou diminuent leur offre de véhicules E85.

Cette filière est extrêmement décourageante pour les utilisateurs, puisqu’on ne distingue pas au niveau des émissions de CO2/km entre le CO2 fossile et le CO2 non fossile. Depuis la mise en place du bonus-malus, les ventes de véhicules flex fuel, auxquels est appliqué un malus, ont été divisées par deux, voire par trois. Le gain en émissions de CO2 est pourtant considérable avec ces véhicules. On en dénombre aujourd'hui dix millions de par le monde, majoritairement au Brésil. Les constructeurs français en produisent des dizaines, voire des centaines de milliers par an, dans ce pays. Un point clé pour développer la filière éthanol serait de mettre au point des moteurs optimisés éthanol, dont le rendement pourrait être considérablement amélioré par rapport à celui des moteurs à essence actuels.

En matière de biocarburants, les constructeurs automobiles français et européens sont en tout cas « moteurs ».

M. Christian Bataille – Je remercie les deux intervenants pour ces exposés fort intéressants et j’ouvre maintenant le débat.

M. Jacques Masurel - Monsieur Douaud, vous avez, à juste titre, vanté les mérites des biocarburants, sans carbone fossile puisqu’issus de la biomasse, mais n’avez pas tenu compte des effets indirects de leur production en matière de rejets de gaz à effet de serre : il faut en effet beaucoup de pétrole pour fabriquer les engrais nécessaires à la culture des plantes susceptibles d’être transformées en biocarburants.

M. Christian Ngô – Une approche environnementale globale est indispensable car si le diesel émet moins de CO2 que l'essence, il émet davantage de particules, très nocives pour la santé.

M. André Douaud – Il y a deux ans, j’ai présidé un groupe de travail interministériel chargé d’élaborer des recommandations pour un développement durable des biocarburants en France. Je suis donc bien conscient de la nécessité d'une approche globale mais à chacun ses responsabilités. J’ai bien indiqué que je ne traitais ici que de l'utilisation des biocarburants. La combustion des biocarburants, tout comme celle du bois, n’émet que du CO2 recyclé, non fossile, si bien qu’elle n’accroît pas la concentration de ce gaz dans l’atmosphère. Cet aspect doit impérativement être pris en compte.

Pour ce qui est du diesel, les moteurs d'hier fumant noir appartiennent au passé. La moitié des véhicules diesel neufs sont équipés de filtres à particules et leurs émissions sont inférieures à celles d'un véhicule à essence. En outre, la nouvelle réglementation Euro 5, qui sera applicable à compter de 2009, ramène les émissions de particules de 25 à 5 mg/km. C'est de fait rendre obligatoires les filtres à particules sur tous les véhicules diesel. A ceux qui objectent que les filtres ne retiennent pas les très petites particules, je réponds que cela est faux. Plusieurs organismes officiels et indépendants, reconnus par l'ADEME, ont démontré que les filtres à particules de première monte filtrent absolument toutes les particules. La dernière étape pour ramener les émissions des moteurs diesel au même niveau que celles des moteurs à essence américains sera l'adoption du nouveau règlement Euro 6 qui permettra de traiter définitivement le problème des émissions d’oxydes d'azote.

Deuxième table ronde

La production des biocarburants de première génération : bilan économique, énergétique, d’émission de gaz à effet de serre et réalité de l’effet d’éviction au détriment des productions alimentaires en France, en Europe et dans le monde

Présidence de M. Jean-Pierre Brard

M. Jean-Pierre Brard – J’ai, pour ma part, été amené à m’intéresser aux biocarburants sous un angle d'attaque très particulier, celui de l’immigration. La ville dont je suis l’élu accueille en effet beaucoup de Maliens, qui viennent dans notre pays poussés par la misère, due, entre autres, à la progression du désert dans le Sahel.

Je suis par ailleurs stupéfait que certains des plus fervents défenseurs des biocarburants par le passés en soient devenus les plus farouches adversaires. Mais sans doute sont-ils mal informés. Pour m’être renseigné sur ces sujets, notamment auprès des autorités maliennes et de représentants vietnamiens et brésiliens, j’ai appris qu’il existait des plantes, comme le jatropha, qui sont sources de biocarburants et qui poussent là où ne le pourrait aucune plante vivrière. Seules ces plantes sont donc à même, au Sahel par exemple, de limiter la désertification et de maintenir l’humidité indispensable pour permettre à l'arrière la culture de plantes vivrières. Cela nous invite à penser les biocarburants de manière globale, l'objectif devant être que chacun puisse y trouver son compte.

Pour le reste, et j’espère que nos tables rondes m’éclaireront, je suis perplexe quant aux définitions données, pas toujours identiques, des biocarburants de première, deuxième ou troisième génération.

M. Hervé Guyomard, directeur scientifique « Société, économie et décision » à l’INRA - Je ne traiterai ici que des agrocarburants de première génération. Tout d’abord, sous l’angle de leur concurrence potentielle avec les productions alimentaires en termes de surfaces cultivées. Aujourd’hui, sur 4,2 milliards d’hectares de terres dans le monde, seul 1,6 milliard est cultivé. Si l’on retire les forêts, les zones naturelles et les emprises humaines, il existe une « réserve » d’environ un milliard d’hectares, d’ailleurs très inégalement répartie. Or, les agrocarburants n’occupaient pas plus de 20 à 25 millions d’hectares en 2006, et ne devraient pas, selon les prévisions de l'INRA et en supposant que tous les objectifs politiques affichés soient atteints partout dans le monde, en occuper plus de 70 à 80 millions en 2020. Il n’y a donc pas de véritable problème de concurrence en termes de surfaces stricto sensu.

Pour ce qui est de la répartition des utilisations, en 2005 1,2 milliard de tonnes de céréales étaient destinées à l'alimentation humaine, 750 millions à l’alimentation animale et 68 millions à des usages non alimentaires. A l’horizon 2015, ce devrait être 1,28 milliard de tonnes pour l'alimentation humaine, 850 millions pour l'alimentation animale et de 160 à 200 millions de tonnes pour les usages énergétiques, l'essentiel de la croissance étant dû aux agrocarburants. En termes de stocks, il n’y a donc pas non plus véritablement de concurrence. On pourrait tout au plus en concevoir une pour ce qui est de l’augmentation des utilisations. Et bien sûr, si on raisonne par pays et par culture, par exemple pour le maïs aux États-Unis ou le colza en Europe, cette concurrence peut apparaître plus forte.

Les biocarburants sont accusés d’avoir fait augmenter les prix agricoles. Contrairement à ce qui est parfois dit, les instituts de prévision avaient depuis longtemps prévu, sans qu’hélas on ne les croie, une hausse mondiale des prix agricoles - certes moindre que celle constatée -, du fait de la croissance démographique et du développement de l'urbanisation. La tendance sera donc durable, quelle que soit l'évolution de la croissance mondiale. Cela étant, il est vrai qu'a joué aussi l'augmentation de la demande en biocarburants, surtout aux États-Unis avec la production de maïs pour fabriquer de l'éthanol, conjuguée à une diminution des stocks mondiaux, à des accidents climatiques en 2004, 2005 et 2006, à la spéculation, à des réactions totalement désordonnées des États, notamment au premier semestre 2008, et à la segmentation des marchés, en particulier entre produits avec et sans OGM. C'est dans ce contexte d'accroissement de la demande et de restriction de l'offre, qui a encouragé la spéculation, que les prix des denrées agricoles se sont envolés.

Quel est, quel sera demain le lien entre les prix agricoles et ceux de l’énergie, particulièrement du pétrole ? Aujourd'hui, partout, y compris au Brésil où la production d'éthanol à partir de la canne à sucre est pourtant la plus compétitive au monde, la demande de biocarburants est soutenue par des aides publiques. Toute la question est de savoir si, vu l'envolée des cours du pétrole, le marché lui-même rendra la production de biocarburants à grande échelle assez rentable, chaque producteur choisissant alors de mettre à disposition sa production à des fins alimentaires ou non alimentaires, si bien que le prix des produits alimentaires se calerait alors sur celui du pétrole. C'est là une grande inconnue. Et n’oublions pas que le prix très élevé du pétrole renchérit les intrants agricoles, en particulier les engrais, ce qui se répercute sur le coût de production des cultures, et donc des agrocarburants.

J'en viens au bilan des politiques publiques de développement des agrocarburants. Sur le plan de la diversification énergétique tout d'abord. Si tous les objectifs politiques affichés dans le monde sont remplis, à l'horizon 2015-2020, 3% à 4% de la consommation de pétrole devraient avoir été remplacés par des agrocarburants.

Sur le plan environnemental en deuxième lieu. En matière d'utilisation de pesticides, d'engrais et d'eau, il n'y a pas de changement par rapport à la culture de produits alimentaires. En revanche, sur un hectare précédemment cultivé en productions à usage alimentaire, le bilan des agrocarburants en matière de réduction des gaz à effet de serre sera positif par rapport à l’utilisation du pétrole. Il peut être plus ou moins positif selon les méthodes employées ; la grande inconnue concerne l’utilisation et le mode de valorisation des coproduits. Mais le principal problème se pose en cas d’utilisation pour les agrocarburants de surfaces qui n’étaient pas cultivées à des fins alimentaires, mais occupées par de l’herbe ou de la forêt : dans ce cas le bilan est négatif quelles que soient les méthodes. Il l’est particulièrement en cas de déforestation.

Quel est ensuite le bilan des politiques publiques sur le plan économique, notamment sur les revenus des agriculteurs ? Sur ce point, mes analyses ne portent que sur l’Union à 15. La croissance de la demande en biocarburants augmente le prix du colza, du blé et de la betterave à sucre, ainsi que, par effet de speed over, celui des autres huiles et des autres céréales, ce qui accroît donc le revenu de ces producteurs-là. Elle a en revanche un impact négatif sur celui des plus gros utilisateurs de céréales, à savoir les éleveurs, qui utilisent les céréales pour nourrir leur bétail. Cela étant, le prix des co-produits issus de la transformation des plantes en biocarburants, comme celui des tourteaux de colza, lui, diminue. Toute la question est de savoir si cette diminution contrebalance l'augmentation constatée de l'autre côté. Jusqu'à une incorporation de 5%, le bilan dans l'Union européenne est positif. Au-delà, les éleveurs sont pénalisés, ceux de porcs davantage que ceux de ruminants car ils utilisent plus de céréales.

Que est enfin le bilan sur le plan des politiques publiques générales ? Il faut notamment savoir si le gain environnemental et le revenu supplémentaire procuré aux agriculteurs sont supérieurs au coût supplémentaire supporté par le consommateur final et le contribuable. Selon nos estimations, le bilan est négatif, le gain pour certains acteurs étant de deux à trois fois inférieur au coût supplémentaire. Dans l'Union à 15, pour un objectif de 5,75% de biocarburants dans les ventes totales de carburants, on peut escompter un bénéfice de 3,2 milliards pour un coût de dix milliards. Il faut donc prendre d'autres critères en considération : la préservation de l'environnement, l'aide à une industrie naissante face à la pénurie possible de pétrole, le soutien à l'emploi. Avec une incorporation à 5,75%, l'INRA estime à 50 000 les créations d'emplois agricoles, l'Union européenne à 120 000. Selon la fourchette retenue, la filière des biocarburants pourrait créer de 40 000 à 150 000 emplois. Il faut souligner que ce bilan est établi dans l’hypothèse d'importations bien régulées. Une autre question est de savoir ce qui se passerait dans le cas d'importations massives, soit d'éthanol en provenance de pays aujourd'hui plus compétitifs, soit de matières premières alimentant la fabrication d'agrocarburants en Europe.

M. Bruno Jarry, membre de l’Académie des technologies - L'Académie des technologies travaille plus particulièrement sur les biocarburants depuis un an et demi et a établi un rapport sur le sujet qui devrait être disponible à la fin du mois. L'objectif de ce rapport n'est pas de faire une analyse critique des biocarburants et des politiques publiques afférentes mais d'apprécier l'intérêt des biocarburants de première génération, puis de génération ultérieure, sur le plan de l'indépendance énergétique, de la réduction des émissions de gaz à effet de serre, de soutien à la filière agricole enfin.

Je ne traiterai ici que des biocarburants de première génération. En 2007, quarante milliards de litres d'éthanol ont été produits dans le monde, dont 46% aux États-Unis, 41% au Brésil, 4% dans l'Union européenne et 8% dans le reste du monde ; six milliards et demi de litres de biodiesel, dont 75% dans l'Union européenne, 13% aux États-Unis, où cette production est en forte croissance, et 12% dans le reste du monde. La production de biocarburants à partir de jatropha commence à frémir en Asie, et se développera peut-être demain en Afrique.

Pour la production d'éthanol à usage énergétique, la France se classe première en Europe, devant l'Allemagne, l'Espagne et marginalement la Pologne. Pour le biodiesel, c'est l'Allemagne qui est première, devant la France et l'Italie.

En 2007, la consommation d'éthanol en Europe s’est élevée à 2,5 milliards de litres, en augmentation de 11% par rapport à 2006, avec 25% d'importations ; celle de biodiesel, en augmentation de 16% par rapport à 2006, à cinq milliards de litres. Les plans européens qui prévoient une incorporation progressive croissante de biocarburants, actuellement en discussion entre la Commission européenne, le Parlement européen et les États membres, ont été un succès. Peu de filières industrielles ont connu un tel essor et une telle efficacité en si peu de temps.

La consommation de biodiesel en France, qui était de 1,3 million de tonnes en 2007, devrait doubler en 2008. Celle de bioéthanol, qui était de 426 000 tonnes, devrait, elle, croître de 30% en 2008, ce qui est parfaitement en ligne avec le plan français : notre pays devrait atteindre l’objectif de 5,75% en 2008. La question se pose en revanche à partir de 2009-2010, où le franchissement du seuil de 7% risque de poser des problèmes de réglementation, à la fois européenne et technologique. En outre, les surfaces consacrées à la culture des oléoprotéagineux arrivent à leur limite, à moins de modifier radicalement la répartition des cultures.

Cinquante-trois usines de production de biocarburants ont été agréées en France, qui sont à la pointe de la technologie, tout particulièrement celles dernièrement dédiées au biodiesel, qui font honneur aux ingénieurs français ; pour l'éthanol, production plus ancienne et donc plus mûre technologiquement, des améliorations sont néanmoins intervenues au niveau du filtrage et de la diminution de la quantité d'énergie nécessaire à la distillation.

En France, on estime à quelques milliers les créations d'emplois, essentiellement en zone rurale, imputables au développement de la filière des biocarburants. Si le plan prévu à l'horizon 2010 est maintenu, cela devrait permettre de réduire de 25% les importations de gazole dans notre pays. De même, les émissions de CO2 liées aux transports devraient diminuer de 5% d'ici là. Certains coproduits, notamment du biodiesel, étant des produits de substitution au soja, cela devrait aussi permettre de réduire les importations de tourteaux en provenance des États-Unis et du Brésil, puisque 2,25 millions de tonnes pourraient être produits dans notre pays en 2010, ce qui représenterait au prix moyen actuel une économie de 500 millions d'euros. Tous ces éléments justifient donc le développement de la filière des biocarburants.

Il y a tout de même quelques points négatifs. Premièrement, l'objectif de 10% fixé par l'Union européenne peut exiger des importations de matières premières en provenance de pays n'ayant pas les mêmes exigences en matière environnementale que l'Europe et les pousser à produire dans des conditions préjudiciables à l'environnement. Deuxièmement, il existe des limites physiques à la production d'oléagineux en France. Troisièmement, on ne peut exclure une forte augmentation des importations d'éthanol en Europe, les coûts de production étant de 50% inférieurs au Brésil.

M. Pierre Cuypers, président de l’Association nationale pour le développement des carburants agricoles (ADECA). Un travail considérable de la Commission européenne a permis l’adoption, en 2003, de la directive favorisant l’incorporation de biocarburants. L’Europe est en effet très vulnérable quant à ses approvisionnements en énergie, d’où l’idée, votée à la quasi-unanimité, d’atteindre un taux d’incorporation en biocarburants de 5,75 % en 2010. Les événements se succédant et le risque grandissant, le Gouvernement français a décidé de porter ce taux à 7% en 2010 pour notre pays. Voilà l’objectif qui nous est fixé. La profession agricole dans son ensemble a pris toutes les dispositions nécessaires pour mettre en place les outils industriels qu’appelle cet objectif. Le prix du baril de pétrole a déjà dépassé ce qu’on croyait possible il y a quelques années, et peut monter demain à des niveaux encore supérieurs. Notre économie dépend de l’ensemble des énergies disponibles.

Affirmer que le monde agricole a la prétention de remplacer le tout-pétrole par des biocarburants est une ineptie. Malheureusement, l’opinion l’a parfois cru, d’où bien des critiques à notre égard. Nous n’avons pas du tout cette prétention, et le « bouquet énergétique », dont Nicole Fontaine, alors ministre déléguée à l’industrie, avait eu l’idée, consiste à additionner les solutions pour demain. Si, par décision politique, la biomasse, et notamment les biocarburants, apportaient 7 % d’indépendance énergétique à notre pays, ce serait fantastique ! Il ne faut pas casser ce mouvement.

A la suite du Grenelle de l’environnement, les critiques se sont accentuées, accusant les biocarburants d’être source de problèmes pour l’ensemble de la société en raison d’une concurrence entre production alimentaire et non alimentaire. Le prix des céréales avait beaucoup grimpé, c’est vrai, mais, aujourd’hui, on n’affirme plus que le coût du blé a une forte incidence sur le prix de la baguette, alors qu’on lui en prêtait beaucoup il y a un an à cause du pétrole : ces analyses ne sont guère équilibrées.

L’Office national interprofessionnel des grandes cultures, après avoir réuni plus d’une centaine d’experts durant plusieurs mois pour analyser cette concurrence ente alimentaire et non alimentaire, a élaboré un document de quatre pages, publié en novembre 2007, selon lequel il n’y a pas concurrence : au contraire, la grande disponibilité de nos sols permet de considérer que nous pouvons, dans le cadre des engagements que le Gouvernement nous a demandé de respecter, apporter 7 % d’énergie, sans risque pour la consommation humaine.

Quelques chiffres en termes de surface. Notre production représente moins de 2,5% de la surface céréalière, et moins de 12% de la surface betteravière. La filière betteravière nécessite des outils industriels lourds ; or la réforme de l’organisation commune de marché du sucre conduit à réduire nos productions en France, et donc à fermer nos usines implantées en zone rurale. Mais si nous disposons des outils permettant de produire de l’énergie, ces usines pourront être maintenues.

S’agissant des surfaces biodiesel, notre capacité de production d’oléagineux peut aller de 2,100 millions à 2,500 millions d’hectares. Ce sont 500 000 hectares en moyenne – jamais plus – qui sont aujourd’hui nécessaires pour la consommation humaine dans notre pays. Les surfaces sont donc largement suffisantes.

La filière des biocarburants crée des molécules qui sont capables aussi de compenser demain le manque de pétrole pour la fabrication de produits de synthèse. La lipochimie issue des oléagineux peut apporter toute cette chimie verte nécessaire à nos concitoyens.

S’agissant de l’alimentation animale, l’Europe dépend du reste du monde pour plus de 80 % de ses besoins en protéines. Depuis qu’elle produit des biocarburants, La France a réduit ce taux de dépendance à près de 50 %, démontrant la possibilité d’une marge de progrès considérable pour la production de protéines grâce aux biocarburants. Un litre de biocarburants mis sur le marché s’accompagne de 1,5 kg de protéines mis à la disposition du monde de l’élevage. Prétendre que le monde des biocarburants va nuire au monde de l’alimentation animale est donc faux : ils sont au contraire complémentaires, car la production de tourteaux ou de drêches, par exemple, nécessite de réduire la plante pour en extraire la partie liquide utilisée justement pour la production de carburants.

Notre filière est une source nouvelle de créations d’emplois, notamment dans la ruralité confrontée à la désertification. Entre six et dix emplois sont créés pour 1 000 tonnes de biocarburants produits.

Les enjeux économiques sont importants. Quand on consomme une unité d’énergie fossile, on en restitue trois, voire quatre. Les objectifs des filières par le développement des outils industriels seront tels que l’on pourra, pour une unité d’énergie fossile consommée, restituer quatre à cinq unités d’énergie sous forme de biocarburants. Le bilan énergétique est donc positif.

Je conclurai sur deux rendez-vous parlementaires : celui de la loi de finances et celui du Grenelle.

Concernant la loi de finances 2009, des déclarations dans la presse annoncent la suppression progressive d’ici 2012 des avantages fiscaux sur les biocarburants. Or si nous avons pu répondre aux objectifs gouvernementaux, c’est grâce à cet accompagnement fiscal. Nos usines seront entièrement opérationnelles fin 2009, début 2010, et cette aide de l’État est essentielle le temps, pour elles, d’amortir leurs investissements. Le montant de la défiscalisation pour une voiture électrique est de 100 %. Les biocarburants, eux aussi, ont besoin d’une marge de manœuvre pour répondre aux objectifs qui nous sont assignés.

Dans le cadre de la « loi Grenelle de l’environnement», vous aurez à débattre des biocarburants – je ne dis pas agrocarburants, mais biocarburants qui, dans la sémantique communautaire, sont issus du mot « biomasse ». Ils ont toute leur place et doivent bénéficier de la sécurité nécessaire aux investissements engagés par l’ensemble des filières dans les deux secteurs que sont le biodiesel et l’éthanol.

M. Jean-François Loiseau, président du groupe coopératif Agralys, membre du Bureau de Coop de France. Président d’une coopérative, je me présente avant tout comme agriculteur, l’agriculture et le rôle des agriculteurs étant au cœur du débat sur la production de biocarburants. Les coopératives agricoles et les entrepreneurs de France ont répondu au plan d’incorporation de biocarburants : près de 2 milliards d’euros ont été investis dans des outils industriels en France. Certes, on parle beaucoup de la ruralité, mais, que je sache, les usines sont implantées dans les zones rurales et non près des zones citadines.

Sur les 2 milliards d’euros investis depuis cinq ans, un peu plus de 1 milliard l’ont été pour la filière éthanol et un peu moins de 1 milliard pour la filière biodiesel. Ces investissements, répartis sur le territoire – Seine-Maritime, Nord, région marnaise, Alsace, Sud-Ouest et région toulousaine –, ont créé énormément d’emplois : pour la construction d’une usine, 500 à 800 salariés, tous corps de métiers confondus, des hautes technologies aux métiers de base, ont été employés pendant 18 à 24 mois. Il est donc important de souligner que la filière agricole et agro-industrielle a participé au développement et à la création de ces emplois grâce à ces travaux gigantesques.

Ces usines, pour la plupart en fonctionnement, participent aujourd’hui au maintien ou au développement d’à peu près 100 à 150 emplois directs par outil industriel. Les emplois indirects se trouvent dans la maintenance, mais aussi les transports – acheminement des céréales, départ des produits finis (biodiesel et bioéthanol), évacuation des coproduits vers les filières animales. Ces coproduits vont principalement en Bretagne, dans les pays de la Loire, en Angleterre et dans le Benelux. Il n’y a pas d’opposition entre filière céréalière et filière animale. En effet – et sans prendre part au débat très passionné sur les OGM –, grâce au plan biocarburants 2010, toutes filières confondues, ce sont 20 % de soja que l’on n’importe plus d’Argentine ou des États-Unis, soit 20 % de drêches et de produits riches en protéines qui sont produits sur des sols français pour nos filières animales.

J’en viens aux pratiques agricoles.

Les filières biocarburants ont des pratiques propres issues d’une démarche de progrès : produire plus et mieux.

En 20 ans, pour un hectare de blé ou de maïs, avec un rendement en augmentation de 35 à 50 %, à peu près 20 % d’engrais en moins ont été consommés, ce taux atteignant 33 à 35 % sur les six dernières années. L’explication tient dans l’utilisation de nouvelles techniques propres, utilisant des intrants au bon moment quand les technologies le permettent. Un exemple. Auparavant, on faisait un apport d’engrais, d’azote, dans un champ de blé au 15 février. Aujourd’hui, grâce au satellite Spot, on utilise des images satellites sur certaines grandes régions céréalières. Dans la coopérative que j’ai l’honneur de représenter, les parcelles des agriculteurs sont repérées sur ces photos et, en fonction d’indices de colorimétrie, on peut leur dire s’ils doivent ou pas rajouter de l’azote sur leurs champs, d’où un fractionnement des apports d’azote. In fine, on arrive à démontrer – conformément à la méthodologie de calcul du bilan environnemental et énergétique, validée par toutes les parties, pouvoirs publics et instituts, lors du comité opérationnel biocarburants du 27 mars dernier – que le bilan environnemental de ces filières biocarburants est de l’ordre de 60 % à 65 % de rejets de CO2 en moins. Et ce grâce à l’utilisation de la photosynthèse et du cycle vertueux de la plante.

Le bilan énergétique a souvent été jugé mauvais. Mais en comparaison avec les outils industriels brésiliens et américains, les schémas sont totalement différents. L’usine brésilienne, en plein milieu d’un champ de canne à sucre de plusieurs centaines d’hectares, utilise l’enveloppe du sucre, la fameuse bagasse, pour produire de l’énergie : bilan énergétique très positif. Les États-Unis ont beaucoup utilisé des centrales à charbon : bilan énergétique mauvais. En France, en utilisant maintenant la cogénération et des techniques de plus en plus propres, nous arrivons à démontrer que le bilan énergétique est de 1 à 3 en faveur des filières biocarburants, principalement du bioéthanol.

En conclusion, la production de carburants agricoles en France a souvent été présentée comme une aide apportée à l’agriculture pour sortir de la libéralisation des marchés, mais elle n’est pas que cela. Biocarburants égalent outils industriels, relocalisation industrielle, emplois, écologie et débouchés supplémentaires pour les filières agricoles. Il n’est pas inutile de rappeler que nous avons besoin de filières bien développées pour améliorer le revenu agricole.

M. Jacques Blondy, responsable du développement agricole au sein de la direction stratégie-développement-recherche de la branche raffinage-marketing de Total. Permettez-moi d’évoquer un sujet plus politique. Vos collègues parlementaires européens examinent actuellement deux propositions de révision de directives. La première est la directive sur la qualité des carburants, qui inclut également des spécifications visant les taux d’incorporation des biocarburants, dont M. Douaud a souligné l’importance pour les constructeurs et le fonctionnement des moteurs. La deuxième est la directive de 2003 sur le développement des énergies renouvelables, évoquée par Pierre Cuypers, dont la révision est en cours d’examen au Parlement européen et sur laquelle pas moins de 1 400 amendements ont été déposés. C’est dire l’intérêt et les débats très animés que suscitent les biocarburants aujourd’hui.

Ces deux directives en cours de révision comportent aujourd’hui des divergences sur les recommandations et les obligations à respecter en termes de taux d’incorporation. Nous serons donc confrontés, dès l’année prochaine, M. Douaud l’a souligné, à l’impossibilité de respecter les objectifs qui nous ont été assignés par le Gouvernement.

Les nouvelles directives vont-elles tout changer ? Non. Une fois de plus, la nouvelle proposition de directive sur la qualité des carburants ne fixe pas les mêmes objectifs et n’utilise pas les mêmes moyens de mesure que la nouvelle proposition de directive sur les énergies renouvelables. Je vois dans cette confusion réglementaire une des entraves au développement régulier des biocarburants. Non seulement des divergences graves sont constatées dans la conception des directives, mais leur traduction fait apparaître, d’un État membre à l’autre, des différences très sensibles qui conduisent à une balkanisation du marché européen. Alors que les marchés des carburants étaient les mêmes partout en Europe, ils tendent à devenir segmentés, fragmentés. Comment fait-on pour alimenter un poids lourd qui doit traverser l’Europe avec des réglementations qui deviennent, finalement, régionales ? C’est une difficulté supplémentaire sur laquelle il faudrait attirer l’attention du Parlement européen et de la présidence française de l’Union européenne.

M. Jean-Pierre Brard, vice-président. L’objectif de notre rencontre d’aujourd’hui est de structurer notre réflexion pour aller plus loin. Si c’est le cas, nous aurons eu un débat utile, documenté, non polémique, permettant de préparer les décisions politiques pertinentes. Vous évoquiez les directives européennes, mais nous savons le rôle joué par les débats nationaux dans un domaine où l’objectivité, la rationalité ne sont pas toujours au rendez-vous.

(La séance, suspendue à seize heures, est reprise à seize heures vingt-cinq sous la présidence de M. Jean-Yves Le Déaut.)

Troisième table ronde

Les filières de seconde et troisième générations : apport par rapport à la première génération en termes de bilan économique, énergétique, d’émission de GES, et état d’avancement de chacune des technologies.

Présidence de M Jean-Yves Le Déaut

M. Jean-Yves Le Déaut, président. . Nous devons faire le point sur les biocarburants de deuxième, voire de troisième génération – encore faudrait-il définir ces derniers –, décrire dans leurs principes les technologies en jeu et présenter les projets en cours en France. C’est une problématique récente du domaine des biocarburants qui n’avait guère été évoquée en tant que telle lors de la précédente audition publique organisée par l’OPECST sur le même thème en juillet 2004. A l’époque, l’initiative en revenait à Claude Birraux et à moi-même, puisque nous avions produit en 2001, au nom de l’Office, un rapport sur les perspectives techniques des énergies renouvelables dans le cadre de la préparation de la loi sur les orientations énergétiques.

Monsieur Olivier Appert, vous êtes président de l’Institut français du pétrole, qui travaille à la mise au point de diverses technologies possibles, aussi bien pour obtenir du bioéthanol que du biodiesel. Vous allez nous dresser un panorama des différentes filières de deuxième génération. Peut-être allez-vous nous donner la définition des biocarburants de troisième génération : s’agit-il des filières BTL – biomass to liquid – qui correspondent à un saut technologique dans la fabrication des biocarburants ? Merci de nous indiquer les enjeux, la problématique et le rôle de l’IFP dans ce domaine.

M. Olivier Appert, président de l’Institut français du pétrole. Il règne en effet un certain flou dans les définitions : il existe des biocarburants de deuxième génération, de troisième génération et même de génération 1,5. Ces filières couvrent des procédés très différents, dont les niveaux de développement et les échéances de déploiement sont très différents.

S’agissant des biocarburants de deuxième génération, je me restreindrai à cette définition simple : il s’agit de produire des biocarburants à partir de matières premières non alimentaires. Ce sont des matières premières lignocellulosiques, c’est-à-dire du bois, des déchets de bois et des déchets de production agricole.

La deuxième génération comprend deux filières : une voie biochimique et une voie thermochimique, qui correspondent à des modèles économiques et de développement différents. La voie biochimique consiste à transformer les matières premières en sucre, puis en éthanol, selon diverses phases : un prétraitement, une hydrolyse, une fermentation et une distillation. La voie thermochimique donne du diesel, avec des étapes différentes : un prétraitement, une gazéification, un traitement de gaz, une conversion Fischer-Tropsch et, enfin, une finition.

La troisième génération, dont on parle de plus en plus, concernerait plutôt le développement de biocarburants à partir d’autres matières premières, notamment les algues.

Je rappellerai très sommairement les avantages des filières de deuxième génération, puis j’en exposerai les conditions générales de développement.

Les avantages sont connus. D’abord, il n’y a pas de concurrence entre usage alimentaire et usage énergétique. Ensuite, on vise des rendements à l’hectare qui sont supérieurs. Aujourd’hui, le biodiesel première génération a un rendement de l’ordre d’une « tonne équivalent pétrole » (TEP) à l’hectare, celui de l’éthanol est supérieur selon qu’il s’agit de blé ou de betterave. Avec les biocarburants de deuxième génération, on vise des rendements de l’ordre de 2 à 4 TEP à l’hectare, pour une production de biomasse, c'est-à-dire de matières premières lignocellulosiques, de l’ordre de 10 à 20 tonnes de matières sèches à l’hectare.

Autre avantage : un bilan environnemental favorable, avec une réduction de 70 à 90 % des émissions de CO2 par rapport aux carburants classiques, essence et diesel.

Un dernier avantage est mis en avant : les faibles entrants agricoles, en particulier dans le cadre des produits forestiers.

Rappelons-nous toutefois que les technologies nouvelles présentent tous les avantages tant qu’on n’a pas étudié attentivement les inconvénients, et que, comme disait Turgot, « moins on sait, moins on doute ».

Que peut-on dire des modèles économiques des deux filières de biocarburants de deuxième génération ? Tout d’abord il faut prendre en compte le coût de la logistique de la matière première qui est a priori élevé. Ce sont des millions de tonnes de matières premières lignocellulosiques qu’il va falloir mobiliser. D’où la nécessité de structurer les filières amont pour optimiser les conditions de ramassage de cette matière première.

Le modèle économique de chacune des deux filières est a priori différent car leur intensité capitalistique est différente. Pour la voie biochimique, le modèle économique est comparable à celui de la filière éthanol de première génération : on imagine des unités de petite taille, qui seraient accolées à des distillations d’éthanol existantes ou à construire. Pour la voie thermochimique, la gazéification étant un investissement très lourd, l’effet d’échelle est important. Dans certains scénarios de développement en Allemagne, on parle de quelques unités – trois ou quatre – de gazéification qui seraient approvisionnées à partir d’unités de prétraitement, pyrolyse ou torréfaction, de petite taille, réparties sur le territoire, et permettant de limiter le coût de la logistique.

Quelles sont les étapes de développement d’une filière ?

Les deux filières de deuxième génération sont composées d’un certain nombre de briques unitaires, qui sont actuellement soit au stade du laboratoire, soit au stade de l'unité pilote. Mais pour développer une filière, il est nécessaire de passer au stade de l'unité de démonstration, puis à la première exploitation industrielle, avant de pouvoir aborder enfin le déploiement. Or trop souvent, les gens qui présentent leurs expériences réalisées en laboratoire en concluent que la technologie est disponible et qu’elle se déploiera dès demain.

A l’IFP, nous avons pratiquement toutes les briques au niveau des laboratoires et aussi certaines unités qui ont été développées au stade de l’unité pilote, notamment dans la filière biochimique. En effet, nous avons travaillé sur cette filière dès les années 80, avec, en particulier, une unité d’hydrolyse enzymatique installée dans les Landes.

L’enjeu des projets actuellement en cours, dans lesquels l’IFP est très impliqué et souhaite jouer un rôle très actif, est de s’assurer qu’il y a un enchaînement adéquat de l’ensemble des briques, de façon à produire un carburant aux spécifications requises, c’est-à-dire compatible avec les moteurs, à un coût optimisé, tout en réduisant les impacts environnementaux. Cette démarche de recherche et développement est complexe. Il faut tester la variabilité des matières premières, examiner leur disponibilité, réaliser des optimisations pour réduire les coûts, très élevés, notamment les coûts d’investissement et de fonctionnement, et valoriser aux mieux les sous-produits. Il est également nécessaire de réaliser des études dès maintenant – au lieu d'avoir à le faire dans l'urgence comme cela a été le cas pour les biocarburants de première génération –, à savoir des bilans socioéconomiques sur le caractère durable de l’utilisation des sols et sur la compétitivité par rapport aux alternatives, le bilan en émissions de gaz à effet de serre, l’analyse du cycle de vie. Voilà l’ensemble des étapes à réaliser dans le cadre de ces démarches de R & D.

Le calendrier ? Même si les briques sont disponibles, au stade du laboratoire ou de l’unité pilote, le déploiement de ces deux sous-filières n’est envisageable qu’au milieu de la prochaine décennie. M. Jeanroy précisera l’échéancier que nous envisageons pour le déploiement de la filière biochimique, pour laquelle une décision a été prise et un projet lancé. En ce qui concerne la voie thermochimique, l’échéancier est du même ordre de grandeur.

En Europe, les milieux agricole, industriel et pétrolier travaillent sur ces filières. Je peux dire, vous renvoyant à une fiche en ligne sur le site de l’IFP qui fait le point des divers pilotes en Europe et aux États-Unis en matière de biocarburants de deuxième génération, qu’il y a une concurrence forte au sein de l’Europe, et entre l’Europe et l’Amérique du Nord. Que le meilleur gagne ! Nous ne sommes pas en retard, mais nous ne sommes pas en avance non plus. Il est donc urgent de prendre le départ, et résolument.

Quelles sont les perspectives ? Les biocarburants de deuxième génération sont l’objet d’un certain nombre de fantasmes : on imagine qu’ils vont être disponibles sous peu, et que prétendre le contraire signifie qu’on n’y croit pas ou qu’on veut tuer ces filières. La « maturité industrielle » implique pourtant des délais.

L’Agence internationale de l’énergie a développé des scénarios technologiques ambitieux de façon à respecter le facteur 2 au niveau mondial en 2050, et donc le facteur 4 pour les pays industrialisés. Dans des scénarios agressifs, elle estime qu’en 2050 les biocarburants de deuxième génération pourraient représenter 15 à 20 % de la consommation d’énergie dans le monde. Les biocarburants de troisième génération ne représenteraient pratiquement rien, considérant qu’ils sont encore en phase prospective. A échéance 2030, en phase de montée en puissance, la contribution des carburants de deuxième génération à l’approvisionnement énergétique du transport serait de l’ordre de 3 à 5 %. Ce sont des objectifs que nous partageons, et pour les atteindre, il faut développer très rapidement les divers projets en cours de lancement ou de réalisation en France. Quant aux biocarburants de première génération, ces chiffres seraient de l’ordre de 3 % à 5 %.

M. Jean-Yves Le Déaut, président. Monsieur François Moisan, l’ADEME s’est vu confier un fonds dédié à la mise en place de démonstrateurs. Pouvez-vous faire le point sur ce dispositif de soutien et sur les projets de démonstrateurs retenus ? On connaît le projet Futurol consacré à la voie biochimique ou enzymatique. Où en est-il, va-t-il aboutir au milieu de la décennie ? Où en est l’autre projet, celui qui devrait naître à Bure, au sein de la zone d’accompagnement économique prévue autour du laboratoire des déchets radioactifs ? Toutes les parties sont-elles en phase ou subsiste-t-il des incompréhensions qu’il faudrait régler au niveau national ?

M. François Moisan, directeur de la stratégie et de la recherche de l’ADEME. L’appel à manifestation d’intérêt sur les biocarburants du « fonds démonstrateurs de recherche » ayant été clos ce matin, à zéro heure, je ne pourrai pas répondre à toutes vos questions.

Que vise ce « fonds démonstrateurs de recherche » et qu’est-ce qu’un « démonstrateur » ?

C’est une expérimentation qui permet de valider une technologie en rupture, ou une option, à la plus petite échelle possible, compatible avec les conditions réelles de fonctionnement. Compte tenu des montants alloués à ce fonds qui couvre tout un ensemble de thématiques, l’objectif est de pouvoir valider une technologie dans sa dimension de performance technologique, mais aussi organisationnelle, voire sociale, des expérimentations étant possibles dans le tissu urbain sur la thématique transport, par exemple. Si c’est un procédé, l’échelle un dixième suffit en général comme ordre de grandeur pour s’affronter aux conditions réelles de fonctionnement. S’il s’agit d’un produit comme une automobile, c’est l’échelle 1.

Ce fonds « démonstrateurs », voulu à la suite du Grenelle de l’environnement et confié à l’ADEME, vise les nouvelles technologies de l’énergie. Pourquoi est-il limité à ce champ ? La réduction de facteurs 2 et 4 selon les différentes zones du monde est un objectif à échéance 2050. Echéance certainement trop lointaine pour que les signaux économiques soient perçus des acteurs et que les marchés soient assez proches pour permettre aux entreprises de s’engager dans des stratégies industrielles. Néanmoins, les technologies devront être disponibles en 2025-2030 pour pouvoir pénétrer non seulement les marchés mais aussi les parcs, et rendre possible en 2050 cette nécessaire transformation de nos modes de production et de consommation.

Un mot sur la gouvernance du fonds. Il est doté de 400 millions d’euros pour quatre ans, soit 100 millions par an, pour les nouvelles technologies de l’énergie. Celles-ci recouvrent les énergies renouvelables, y compris les biocarburants, les transports, notamment les véhicules à faible émission de gaz à effet de serre, les bâtiments, les réseaux énergétiques du futur, le captage et le stockage du CO2. Ce fonds est géré par l’ADEME. Le comité de pilotage rassemble les trois ministères chargés de l’écologie, de l’enseignement supérieur et de la recherche, et de l’économie. Le comité consultatif rassemble ces ministères et des personnalités qualifiées.

Le système d’aide utilisé sera l’aide à la recherche et au développement, conforme à l’encadrement communautaire des aides d’État aux entreprises. Le comité de pilotage demande à l’ADEME de réaliser une feuille de route dans la filière considérée, laquelle identifie le besoin de mettre en œuvre un ou plusieurs démonstrateurs. Puis, avec l’appui d’experts extérieurs à l’ADEME, nous préparons un appel à manifestation d’intérêt qui est publié. Celui sur les biocarburants a été publié le 25 juillet et clos hier soir.

Qu’est-ce qui est plus spécifiquement visé ?

L’ancienne agence de l’innovation industrielle ayant déjà pris l’engagement d’un démonstrateur de recherche pour la filière biologique, avec Futurol, dont le financement est pris en compte dans le fonds, nous avons ciblé cet appel à manifestation d’intérêt sur la voie thermochimique avec deux volets : soit la réalisation de carburants liquides avec les processus de préparation de la biomasse – gazéification, épuration des gaz et Fischer-Tropsch -, soit la préparation de gaz naturel synthétique à usage de carburants pour véhicules.

Les verrous technologiques visés dans cet appel à manifestation d’intérêt sont la collecte et la préparation de la biomasse, la gazéification et la purification des gaz, et le rendement carbone énergétique global. Car ce qui est visé à travers ces démonstrateurs de recherche, c’est aussi l’amélioration de la performance globale des procédés.

Ce démonstrateur de recherche fait suite au Programme national de recherche sur les bioénergies, financé par l’Agence nationale de la recherche et mis en œuvre par l’ADEME avec 32 projets et 23 millions d’euros d’aides pendant quatre ans.

Nous allons expertiser les projets qui auront été proposés et pensons pouvoir prendre une décision d’engagement d’ici à la fin 2008. Si l’aide individuelle à une entreprise est supérieure à 7,5 millions d’euros, il est nécessaire d’attendre une réponse positive de Bruxelles, à qui le projet doit être notifié, pour engager les crédits. Si l’aide est inférieure à 7,5 millions, nous pouvons engager le projet sans notification de Bruxelles, une information étant nécessaire à partir de 3,5 millions.

M. Jean-Yves Le Déaut. Je ne sais pas comment vous avez rédigé l’appel à manifestation d’intérêt, mais il y avait à la fois un problème de démonstrateur de plus grande capacité et des problèmes de pilotes industriels de plus petite capacité. M. Tillous-Borde de SOFIPROTEOL m’avait indiqué qu’ils étaient, eux, plutôt candidats à des petits pilotes industriels, l’un pouvant se situer à Compiègne et l’autre dans la région Centre.

M. François Moisan. Dans le mot démonstrateur de recherche, le terme « de recherche » a été demandé à notre conseil d’administration par le ministère de la recherche pour préciser que nous ne sommes pas à une échelle préindustrielle, mais plus en amont, sachant qu’après l’expérimentation, il y aura des retours sur la recherche et le développement.

M. Jean-Yves Le Déaut. Monsieur Ghislain Gosse, vous qui êtes président du centre INRA de Lille, quelle sera la place de l’INRA dans l’effort de recherche sur la biomasse de deuxième génération ?

M. Ghislain Gosse, chargé de mission carbone renouvelable à l’INRA. L’effort de l’INRA sur ces questions porte sur trois grands thèmes : la ressource, les processus de conversion, essentiellement par les voies biologiques, et l’approche systémique en termes de bilans environnemental, économique et social des biocarburants de deuxième génération.

Premièrement, la ressource. Des terres sont certes disponibles, mais elles feront, demain, l’objet d’une pression supérieure, et leur mise en valeur aura un coût accru. S’agissant du développement des biocarburants de deuxième génération, il nous faut donc raisonner en termes de performance par unité de surface. Deux solutions: soit on élargit l’assiette, en mobilisant l’agriculture, la forêt, les déchets urbains, soit on change l’approche au niveau des rendements en travaillant sur la plante entière et non uniquement sur les organes de stockage. Un dénominateur commun à ces deux approches : la lignocellulose. Chimiquement, c’est un tiers de lignine, un tiers de cellulose, un tiers d’hémicellulose.

Quelles sont les questions clé en matière de ressource ?

D’abord, les rendements. En se limitant à des cultures annuelles, les rendements seront de 10, 15 ou 20 tonnes de matières sèches à l’hectare. En passant à des systèmes pérennes, c’est-à-dire se reproduisant d’une année sur l’autre, les rendements peuvent aller jusqu’à 25, voire 30 tonnes à l’hectare. La difficulté sera l’insertion de ces systèmes pérennes, les plus performants en matière de rendements et d’environnement, dans nos systèmes agricoles européens essentiellement basés sur des rotations, sur des cultures annuelles. C’est un des défis en matière de recherche.

Deuxièmement, la qualité de la matière première et son adéquation au process. Pour la deuxième génération, avec les procédés biologiques, il s’agira d’obtenir une matière première avec un minimum de lignine, plus de cellulose et plus d’hémicellulose, et une imbrication moindre entre lignine, cellulose et hémicellulose, c’est-à-dire plutôt des plantes du genre herbe. Avec les voies thermochimiques, il s’agira plutôt d’augmenter la lignine, le bois, afin d’obtenir des PCI supérieurs. Un aiguillage est donc possible en matière de biotechnologies vertes.

Autre point clé pour la mobilisation de la ressource : la logistique. Olivier Appert l’a souligné, la taille de l’outil industriel et le process vont déterminer la taille du bassin d’approvisionnement, alors que nous allons travailler avec une biomasse à faible densité énergétique. La question de la récolte ou de la densification de la matière est un élément important.

Le process se compose de plusieurs étapes : un prétraitement de la matière première qui va consister en un éclatement entre lignine, cellulose et hémicellulose, une hydrolyse enzymatique pour ramener les sucres composés en sucres simples, puis la fermentation. Les deux premières étapes, prétraitement et hydrolyse, concentrent nos efforts en matière de recherche et développement, notamment dans le cadre du programme Futurol, car la qualité du prétraitement va induire la qualité des différentes matières premières, cellulose et hémicellulose – selon qu’on aura, ou non, généré des inhibiteurs de fermentation ou des produits secondaires compliquant la fermentation. Cette dernière en revanche relève d’un process relativement classique.

Considérons l’impact environnemental des biocarburants de deuxième génération. Premier intérêt : en termes de bilan de gaz à effet de serre, l’utilisation des engrais azotés sera moindre. Deuxième intérêt, celui de tout système pérenne comme les prairies permanentes ou les forêts : la séquestration du carbone dans les sols. En introduisant des systèmes pérennes dans nos systèmes agricoles, nous tendrons à avoir quelque chose qui ressemble à des prairies en termes de stockage de carbone, donc des systèmes très performants.

Comment se situent ces carburants de deuxième génération par rapport à la première ? Sur la voie biologique dans laquelle l’INRA est engagée, nous nous insérons directement, en liaison avec ce qui est fait pour la première génération, sur la production d’éthanol. Pour la culture de la canne à sucre aujourd’hui, ce sont à peu près 4 tonnes de CO2 évités par hectare, contre 5,5 tonnes pour la betterave. Si la canne à sucre est si intéressante aujourd’hui, c’est parce qu’on valorise autre chose que le sucre : la bagasse. En travaillant sur la plante entière, jusqu’à 8 tonnes de CO2 peuvent être évités par hectare. Notre logique de raisonnement est l’approche systémique autour des sucreries-distilleries ou des amidonneries-distilleries dans lesquelles nous pourrons, dans un premier temps, greffer au mieux ces unités biologiques de carburants de deuxième génération. On peut aller plus loin : l’extraction du sucre de la betterave donne, d’une part, du jus sucré, d’autre part, de la pulpe qui, chimiquement, est de la cellulose pure. Nous n’avons pas de prétraitement à faire : avec ce système pratiquement modèle, nous ferons de l’hydrolyse et de la fermentation. C’est dans cette logique que nous insérons cette réflexion deuxième génération pour greffer directement ces unités biologiques sur des unités de première génération.

M. Jean-Yves Le Déaut, président. Monsieur Alain Jeanroy, la Confédération générale des planteurs de betteraves soutient le projet Futurol. Comment allez-vous concilier première et deuxième générations, vous qui produisez déjà de la première génération ?

M. Alain Jeanroy, directeur général de la Confédération générale des planteurs de betteraves. Je vais faire un exposé sur le projet Futurol en vous présentant plusieurs visuels.

Le projet est porté par trois groupes de partenaires. Ce sont d’abord les acteurs de la R&D : l’INRA, l’IFP, le groupe Lesaffre et ARD qui est un organe financé par des coopératives agricoles. Ensuite les acteurs industriels : Tereos et Champagne Céréales, déjà présents dans la première génération, le groupe Total qui est notre partenaire dans le développement de la première génération, et l’Office national des forêts comme source de matières premières ultérieures. Viennent enfin les acteurs financiers que sont le Crédit agricole Nord-Est, la CGB et Unigrains qui est un organisme financier des céréaliers.

La méthodologie de développement se fait en quatre étapes : laboratoire, pilote de recherche, prototype et industrie.

Le calendrier : nous avons cinq ans avant le stop and go, pour savoir si la construction du pilote s’est bien passée et si nous pouvons passer à l’exploitation industrielle. Celle-ci ne pourra commencer avant 2016, dans huit ans donc. M. Appert l’a souligné, il est important de dire que ce n’est pas pour demain. Cela étant dit, nous ne sommes pas en retard en Europe sur ces technologies.

Le site du projet FURUROL est basé à Pomacle-Bazancourt, près de Reims.

Le budget global, réparti sur huit ans, s’élève à 74 millions d’euros. Une part prépondérante du financement, environ la moitié, revient à OSEO, le reste incombant aux trois groupes de partenaires. C’est un investissement lourd, avec tout ce que compte la France comme spécialistes de cette filière.

Aujourd’hui, tout concourt à prouver l’utilité de la première génération. Selon M. Bauquis, les biocarburants feront partie du bouquet énergétique de demain. M. Appert nous a annoncé que la première génération, à moyen et long termes, représenterait encore à peu près 50 % des débouchés au niveau mondial. M. Guyomard nous dédouane de la crise alimentaire, en démontrant la disponibilité des surfaces. L’ADEME, dans un rapport publié vendredi dernier, « Regard sur le Grenelle », annonce un bilan positif de la première génération. Selon M. Douaud, « les constructeurs automobiles sont moteurs ». Enfin, M. Gosse explique qu’on peut déjà faire passer des plantes de la première à la deuxième génération, citant la betterave dont la pulpe, si elle était transformée en électricité par méthanisation, par exemple, permettrait d’approvisionner 70 % des sucreries – elle est actuellement valorisée en alimentation animale –, sachant que la bagasse représente 150 % de l’énergie de la sucrerie.

En clair, nous aurons besoin de cette première génération et il faut inscrire la deuxième dans le prolongement de la première : nous allons partir des unités existantes et le process industriel sera le même. Nous travaillerons sur des sites industriels existants, et améliorerons la performance de la première génération pendant les huit années, avant d’arriver à cette deuxième génération en diversifiant la matière première, avec du miscanthus par exemple. Mais pour l’instant, le rendement énergétique d’une betterave est supérieur à celui du miscanthus.

S’agissant du bilan environnemental, avec la nouvelle méthodologie définie par l’ADEME lors du Grenelle de l’environnement, ce sont 60 % de CO2 en moins – à comparer aux 90 % cités par Olivier Appert pour la deuxième génération. De 60 %, nous passerons à 75% si nous faisons de la cogénération dans nos unités actuelles, c’est-à-dire si nous brûlons de la paille, par exemple, au lieu du gaz et autres matières fossiles.

La première génération doit continuer à vivre et à s’améliorer pendant au moins dix ou quinze ans, nous en avons besoin actuellement, et nous ne comprenons pas pourquoi elle fait l’objet de mesures qui lui sont défavorables. L’éco-pastille a été évoquée. Il est inimaginable de taxer un véhicule flex fuel autant qu’un véhicule qui consomme de l’énergie fossile ; j’espère que ce signal, très négatif, sera corrigé d’ici à la fin de l’année.

Dernier point : la fiscalité des carburants en 2008. Considérons le tableau des TIC brutes en euros par hectolitre – taxe intérieure de consommation sur les produits énergétiques – pour chaque carburant : 60,23 euros par hectolitre pour le SP 95, 60,23 pour l’éthanol, 42,58 pour le gazole, 5,99 pour le GPL et 0 pour le GNV. En équivalent euros par gigajoule, l’éthanol paie quasiment autant de taxes que le SP 95, plus que le gazole, contrairement aux idées reçues, et plus que le GPL et le GNV qui sont composés d’énergies fossiles.

Un autre tableau sur la taxation par unité énergétique en euros par gigajoule, indique, en vert, ce que rapporte l’éthanol à l’État – 15,6 en 2008 –, et en rose ce que rapportent le SP 95, le gazole, le GPL et le GNV, respectivement 18,6, 12,0, 2,4 et 0,0. Vous le voyez, nous contribuons dans une bonne mesure aux finances publiques… Et voilà qu’on nous propose, pour l’éthanol, de passer à 20,3 en 2009, 21,3 en 2010, 23,1 en 2011, voire à 28,3 en 2012 ! A horizon 2012, nous serions taxés 50 % de plus que le SP 95, ce qui n’est pas jouable. Nous l’avons dit : de 15,6, nous pourrions aller jusqu’à un niveau équivalent à celui de l’essence, mais certainement pas au-delà.

M. Jean-Yves Le Déaut. M. Bodo Wolf va maintenant nous présenter le dispositif mis en place par la société Choren, à Freiberg, en Saxe. Il est l’inventeur du procédé de gazéification et le fondateur de la société Choren, aujourd’hui contrôlée par le groupe Shell. M. Nikolaus Weber, ingénieur au cabinet MSW, qui contribue depuis longtemps à la mise en valeur industrielle du procédé du docteur Wolf, va servir d’interprète.

M. Nikolaus Weber. Avant la réunification allemande, le docteur Bodo Wolf avait la responsabilité technique des activités de gazéification des lignites et un poste de directeur technique à l’Institut des carburants en RDA. A peine le mur de Berlin tombé, il crée en 1990 sa société UET, devenue Choren en 2003. Il est donc le père fondateur de la société Choren qui a développé et mis en œuvre un site de démonstration et de production de biocarburants en Allemagne.

Puis il a passé le contrôle de cette société a un groupe industriel dans lequel Shell, Volkswagen et Daimler sont minoritaires, la majorité étant détenue par un groupe d’hommes d’affaires hambourgeois. A présent totalement indépendant de Choren, il a créé récemment une nouvelle entreprise pour aller au-delà de la technologie de Choren.

M. Bodo Wolf. Voilà plus de cinquante ans que je travaille dans le métier du charbon et de l’énergie. Aujourd’hui, la gestion de l’énergie est généralement menée dans un périmètre de bilan qui est la Terre. Mais si l’on veut répondre à l’enjeu qui nous est posé, il est indispensable d’élargir le périmètre du bilan : le périmètre du bilan de la nouvelle gestion énergétique, c’est le soleil et le cosmos, dans lequel la Terre n’est qu’un transformateur d’énergie. Dans le passé, la Terre nous a fourni les énergies primaires – charbon, pétrole, gaz naturel et combustible nucléaire ; elle nous livrera, dans l’avenir, des énergies renouvelables et de la biomasse. Shell prédit que, d’ici à 2060, les ressources en énergies primaires traditionnelles – charbon, pétrole, gaz naturel et combustible nucléaire – ne permettront plus que de couvrir un tiers des besoins énergétiques mondiaux.

Chaque élément de la matière terrestre formant un composé chimique avec d’autres éléments peut être considéré comme une ressource d’énergie. Cela peut concerner tous les éléments de la classification périodique. Mais la transformation chimique par l’entremise du soleil s’effectue de manière privilégiée avec les éléments carbone, hydrogène et oxygène.

Le cycle naturel du carbone est caractérisé par deux étapes principales, la photosynthèse et la décomposition, avec les produits intermédiaires que sont, d’une part, le dioxyde de carbone et l’eau, et, d’autre part, la biomasse.

Quelle biomasse et quelle quantité de biomasse pouvons-nous utiliser pour la production de biocarburants, tout en évitant les conflits avec la filière alimentaire ? Il faut se limiter à valoriser la biomasse qui, autrement, se décomposerait, serait perdue, et éviter de réduire le fonds de biomasse de la planète, pour des raisons environnementales et climatiques.

Le système thermodynamique carbone-hydrogène-oxygène décrit scientifiquement les relations réciproques entre ces trois éléments en fonction de la température et de la pression. Tout ingénieur correctement formé en génie chimique et en thermodynamique est capable de faire des calculs thermodynamiques pour prédire de manière scientifique ce qui est faisable et ce qui ne l’est pas.

Ce qui est faisable et déjà réalisé aujourd’hui, c’est la transformation de la biomasse, par gazéification, en gaz de synthèse, puis, par synthèse, en ressources énergétiques chimiques, à savoir du biocarburant renouvelable. Des recherches récentes ont prouvé que la biomasse peut également être transformée, par déshydratation, en « charbon vert », c’est-à-dire du charbon renouvelable. Avec de l’hydrogène et du carbone, on peut également introduire les énergies renouvelables dans la métallurgie, notamment en transformant des oxydes métalliques en métaux. Enfin, lorsque l’on ne peut pas se servir de la biomasse, on peut, à partir du dioxyde de carbone et de l’eau, mobiliser les énergies renouvelables pour obtenir des carburants.

Telles sont les raisons pour lesquelles, il y a dix-huit ans, je me suis attaqué, immédiatement après la Réunification, à la production de carburants renouvelables. Les quatre étapes de la technologie BTL de Choren sont : la préparation de la matière première, la génération de gaz de synthèse, la synthèse, et le produit final : un carburant que peut utiliser la voiture de M. Tout le monde.

Je m’arrête sur la technologie.

En amont, il y a la tâche tout à fait exigeante de la logistique et de la préparation de la biomasse. Les industries papetière et sucrière maîtrisent cela parfaitement.

Une étape importante est de conditionner la biomasse de sorte qu’elle puisse être injectée dans une gazéification à flux entraîné. Le premier étage, dit NTV (Niedertemperatur Vergasung), produit un gaz intermédiaire, un gaz goudronné, et du coke. Le gaz intermédiaire NTV est transféré au second étage, dit HTV (Hochtemperatur Vergasung) : celui-ci transforme le gaz goudronné, ainsi que le coke pulvérisé qui y est réinjecté, en gaz de synthèse. Ensuite le traitement de ce gaz de synthèse, en vue de le purifier, puis de le transformer en carburant à partir d’un procédé Fischer-Tropsch, redevient tout à fait traditionnel.

En 1998, avec mon équipe, j’ai mis en service un site pilote d’une puissance d’un MW. Cette installation nous a permis de produire, en 2003-2005, 25 tonnes de diesel, entièrement utilisées pour des essais sur moteur par Daimler Chrysler et Volkswagen.

Puis, avec un taux de conversion de scale up de 1 à 50, nous avons construit le site BTL « Bêta », à Freiberg, en Saxe. Le schéma du site BTL de Choren vous montre ses différentes zones : préparation biomasse, gazéification, synthèse et raffinage. Il y a également une centrale. La photo vous montre l’usine telle qu’est est aujourd’hui. Actuellement, les différents modules, les différents sous-systèmes sont testés.

La coopération avec Shell a été très approfondie, et Choren a décidé d’intégrer entièrement l’expérience de Shell dans ce site qui se situe au niveau le plus élevé au monde s’agissant des standards de sécurité pour les raffineries. Cette mise à niveau Shell a coûté du temps et de l’argent, mais notre site industriel va commencer sa production dans quelques mois.

Quelles sont les perspectives d’avenir ? Choren prévoit, sur son second site appelé « Sigma », une production de 200 000 tonnes de diesel par an. La recherche développement sera surtout concentrée sur le conditionnement de la biomasse. L’entreprise veut également atteindre les niveaux techniques les plus modernes de la gazéification du charbon.

En résumé, il est possible de transformer de l’énergie renouvelable en ressources énergétiques chimiques, grâce à la nature qui nous fournit les matières premières que sont le dioxyde de carbone et l’eau. Sur ces bases, je suis convaincu que l’on pourra faire face aux exigences de la gestion énergétique de l’avenir.

M. Jean-Yves Le Déaut. Monsieur Paul Lucchese, le CEA a pris l’initiative du programme NTE, dont vous êtes responsable. Pouvez-vous nous indiquer en quoi le procédé de gazéification du docteur Wolf se distingue des autres et quelles retombées scientifiques le CEA attend-il du projet pilote que vous avez présenté ?

M. Paul Lucchese, responsable du programme NTE au CEA. Mon propos sera focalisé sur la gazéification. Les technologies de gazéification diffèrent de celles employées pour l’autre voie, celle de la fermentation. Nous travaillons en mode thermochimique, c’est-à-dire à haute température, ce qui nous entraîne dans les domaines de la thermodynamique, de la cinétique et des hauts rendements.

Je ne m’étendrai pas sur les différentes technologies de gazéification. Une idée fait consensus : les technologies à flux entraîné – passage par un réacteur puis synthèse Fischer-Tropsch – permettront vraiment d’atteindre l’objectif de produire à coût minimal et durablement une quantité massive de biocarburants de deuxième génération. Mais ce choix technologique comporte des contraintes : utiliser du gaz de très haute pureté, travailler sous pression et donc développer des unités de très grande taille afin d’obtenir des économies d’échelle.

Plusieurs modèles économiques sont possibles. Le modèle de Choren correspond à un approvisionnement direct à 100 % en biomasse, avec de très grosses usines. Une variante consiste à décentraliser l’approvisionnement de biomasse en prétraitant celle-ci localement avant de l’acheminer vers de très grandes usines. Pour l’instant, aucun modèle ne s’imposant, il faut poursuivre les recherches.

Les technologies de prétraitement ne sont pas encore totalement au point. Des recherches sont encore nécessaires pour minimiser la perte de masse et d’énergie. La purification des gaz pose encore des problèmes car la biomasse est une ressource assez variable ; certains modèles prévoient même une alimentation mixte, faisant appel à la ressource fossile et à la ressource biomasse. Certaines étapes ne sont pas encore résolues compte tenu du degré de pureté requis pour les gaz.

Plus généralement, en biomasse pure, la possibilité de l’intégration de tels systèmes à très grande échelle n’a pas été démontrée à l’échelle industrielle – le Beta Plant aujourd’hui en service reste douze fois plus petit que la taille industrielle. C’est pourquoi nous avons encore besoin de développements et de recherches de base.

En Europe, trois technologies pourraient être adaptées : celles de Choren, de Siemens et d’Air liquide Lurgi. Les deux dernières n’ont jusqu’à présent pas travaillé avec des ressources purement biomasse, mais possèdent une expérience industrielle plus poussée en matière de ressources charbon ou autre.

Des centres de recherche assez conséquents existent en Allemagne, en Finlande et aux Pays-Bas ; ils travaillent généralement sur plusieurs applications. En France, le paysage de la recherche est constitué par l’université et le CNRS, mais aussi par l’Institut français du pétrole, qui s’intéresse à la purification des gaz, au traitement de la biomasse et à l’intégration des systèmes. Quant au CEA, il dispose d’une équipe d’une vingtaine de personnes qui travaille depuis sept ou huit ans sur les points durs de la gazéification.

Pour adapter ces technologies à un débouché industriel, il faut mener des recherches industrielles ; c’est ainsi qu’une première génération de BTL – biomass to liquid – pourra émerger en 2015 ou 2020. Mais, parallèlement, pour préparer les évolutions de cette première génération, nous avons besoin d’identifier des voies de rupture, d’amélioration du rendement masse et du rendement énergie ; or ce champ n’est encore couvert par aucun programme de recherche français. M. Wolf a cité la voie low thermic, qui consiste à introduire de l’énergie dans le système pour améliorer le rendement masse. Dans l’exemple de Choren, un million de tonnes de bois produit 150 000 à 200 000 tonnes de biocarburants. L’introduction de torches plasma ou d’hydrogène extérieur permet d’espérer un rendement double ou triple. Mais ces procédés ne sont pas encore au point. Le CEA commence à travailler sur cette thématique mais manque de soutien public, si ce n’est un programme ANR – Agence nationale de la recherche – dont les crédits sont ridiculement bas : 2 millions d’euros par an.

Il est indispensable de structurer la recherche de base française sur la gazéification car nous voyons bien que ce sujet débouchera dans les années à venir. La France possède tous les atouts pour se doter d’une structure de recherche pertinente, en synergie avec les dispositifs européens existants.

Des projets industriels, en cours de montage, visent à mettre sur le marché des produits de première génération entre 2015 et 2020. Cependant, la recherche de base doit se poursuivre. Je signale que le CEA travaille aussi sur les voies de troisième génération, c’est-à-dire les biohuiles et le biohydrogène. Il existe donc un continuum de recherche potentiellement intéressant.

M. Claude Birraux. Eu égard au niveau élevé du prix du pétrole, pensez-vous que les biocarburants puissent devenir compétitifs, par-delà le soutien financier public à la recherche et aux démonstrateurs ?

M. Bodo Wolf. La question de la viabilité économique est constamment posée. Sur les bases du montant d’investissement prévisible et du prix de la biomasse connu – 70 euros par tonne de matière sèche –, pour les sites Sigma, qui produisant 200 000 tonnes par an, nous attendons un prix de revient en sortie d’usine de 60 à 70 cents par litre. L’industrie pétrolière ne continuera pas très longtemps à garantir le niveau de prix actuel du carburant provenant des ressources fossiles. Dès lors, je suis convaincu que la production des carburants renouvelables synthétisés deviendra économiquement viable.

M. Olivier Appert. La rentabilité des biocarburants de première et de deuxième générations dépend de plusieurs paramètres : le coût de la matière première, les possibilités de valorisation de sous-produits, la parité euro/dollar, le coût de la transformation et le coût de l’énergie alternative, c’est-à-dire des produits pétroliers. Les biocarburants de deuxième génération étant en phase de développement, il est beaucoup trop tôt pour pouvoir répondre à votre question, si ce n’est que les coûts devront impérativement être réduits, aussi bien pour la voie biochimique que pour la voie thermochimique, pour ce qui concerne la matière première comme les procédés de transformation. L’Agence internationale de l’énergie évalue le coût actuel des biocarburants de deuxième génération dans une fourchette de 0,8 à 1 dollar par litre, soit un niveau non compétitif avec les produits concurrents ; à l’échéance 2050, elle se fixe pour objectif de descendre entre 0,5 et 0,7 dollar par litre, ce qui restera élevé.

M. Ghislain Gosse. Pour la voie biologique, au prix actuel de l’énergie, un objectif du projet Futurol est de parvenir à un coût industriel de l’ordre de 25 euros l’hectolitre, ce qui donnerait un prix à la sortie d’usine d’environ 60 euros l’hectolitre, pour une matière première sèche à 75 euros la tonne.

M. Pierre-René Bauquis. Il ne faut pas oublier le coût d’émission implicite de CO2 dans dix ou vingt ans. Avec un coût d’émission de la tonne de CO2 compris entre 20 et 50 dollars la tonne, l’avantage compétitif de ces filières est très insuffisant. Elles deviendront justifiables à terme, lorsque ce coût d’émission aura décuplé.

Quatrième table ronde

L’enjeu des biocarburants dans la stratégie énergétique : une autre manière de valoriser les ressources de la mer et de l’atome ?

- L’exploitation de la biomasse marine : M. Jean-Paul cadoret, chef du laboratoire physiologie et biotechnologies des algues de l’IFREMER

- Les biocarburants comme vecteur de stockage de l’énergie électronucléaire : M. Bernard bigot, haut-commissaire à l’énergie atomique

Présidence de M. Claude Birraux

M. Claude Birraux. Nous terminons cette audition publique par une table ronde qui vise à mieux appréhender la place des biocarburants dans la stratégie énergétique de notre pays. Autant la première table ronde avait une dimension diachronique, essayant de resituer les biocarburants dans la prospective de l’énergie du transport, autant celle-ci s’inscrira dans une perspective synchronique, essayant de mettre en valeur les effets de synergie susceptibles de jouer entre les biocarburants et les autres formes d’énergie.

Les biocarburants ne constituent-ils pas une autre manière de valoriser les ressources de la mer et de l’atome ? Nous avons le plaisir de recevoir deux éminents spécialistes de ces deux ressources énergétiques. M. Jean-Paul Cadoret va tout d’abord nous parler des possibilités d’exploiter la biomasse marine, notamment sous la forme d’algues, pour fabriquer des biocarburants.

M. Jean-Paul Cadoret, chef du laboratoire Physiologie et biotechnologie des algues de l’ifremer. Les perspectives ouvertes par les microalgues sont extraordinaires, du moins tant que nous restons dans la dimension théorique…

Les microalgues sont des organismes mesurant de 10 à 50 microns, 1 millimètre pour les plus grosses. Il en existe des vertes, des rouges, des filiformes, des rondes, etc. Leur impact est énorme : sur terre, 50 % du recyclage du carbone provient des microalgues, dont 20 % pour les seules diatomées. Malgré leur petite taille, les explosions de microalgues se voient de très haut dans le ciel, notamment au large des côtes ouest de l’Afrique, où les remontées d’eau froide sont très riches en éléments nutritifs, ce qui fait exploser la chaîne alimentaire. Des microalgues vivent dans des flaques d’eau, des déserts, des geysers à 50 degrés ou des icebergs. Certaines d’entre elles poussent avec un PH 1, voire 0,5.

On sait maintenant cultiver les microalgues, notamment pour colorer le saumon, à Hawaï – cette activité génère 250 millions de dollars de chiffre d’affaires –, ou pour produire du bêta-carotène, en Australie. Les systèmes de culture vont de l’extensif à l’intensif et du non contrôlé au contrôlé. Elles peuvent être cultivées dans des tubes, sous des bâches, selon des volumes extrêmement variables, du millilitre au litre.

Les rendements de la biomasse sèche par mètre carré et par jour sont illustratifs. Ainsi, un petit producteur de Vendée travaillant pour l’industrie cosmétique produit 10 à 13 grammes par mètre carré et par jour à partir de diatomées, alors que le rendement du colza ou du tournesol est plutôt d’1 à 3 grammes – mais les chiffres américains sont toujours supérieurs, autour de 50 grammes.

Les microalgues ne sauraient être conçues sans coproduits ; à cet égard, leur application théorique et pratique est extraordinaire. D’abord, parce que, restées en mer, elles possèdent de pigments qui n’existent pas ailleurs. Ensuite, parce qu’elles recèlent des huiles oméga 3, oméga 6 et autres.

S’agissant des biocarburants, quels avantages les microalgues présentent-elles ? Premièrement, leur rendement photosynthétique est intéressant car elles ne gâchent pas d’énergie dans des racines ou des tiges. Deuxièmement, leur production n’entrerait pas en concurrence avec celle de produits alimentaires. Troisièmement, la production en eau de mer ne génère pas de conflit relatif à l’eau, ce qui, à l’échelle de la planète, n’est pas négligeable.

Les microalgues sont des eucaryotes, c’est-à-dire des plantes assez évoluées, qui se divisent tous les jours. Elles peuvent être récoltées en continu avec un rendement intéressant et, dans une goutte, il y a jusqu’à 50 millions d’individus. Tout mouvement de diminution des nitrates et des phosphates est automatiquement observable dans les jours suivants. Il suffit d’acheminer le CO2 directement et de gérer son absorption par les microalgues.

En trois ans, une centaine de sociétés ont été créées dans le domaine des microalgues destinées au biodiesel. Le milliard d’euros d’investissement a été atteint il y a un ou deux mois et chaque investissement nouveau se compte désormais en centaines de millions d’euros.

À supposer qu’une biomasse de 10 grammes par mètre carré et par jour puisse être cultivée et qu’une algue donne 50 % d’huile, on arrive à quelque 24 000 litres d’huile par hectare, sachant que les meilleurs palmiers produisent 6 000 litres.

Je ne suis pas le chevalier blanc des microalgues mais je vous donne tous ces chiffres pour expliquer l’engouement actuel.

Le CIRAD, le Centre de coopération internationale en recherche agronomique pour le développement, fait tourner des moteurs à l’huile de colza depuis des années. La distinction entre huiles saturées, monoinsaturées et polyinsaturées est un peu lapidaire mais fait apparaître que le colza, qui n’est pourtant pas l’idéal, fonctionne déjà très bien. Une diatomée que nous cultivons en laboratoire se rapproche de l’huile idéale pour la combustion et par conséquent pour la production de biodiesel.

La boucle idéale consisterait à cultiver ces algues à tous les niveaux de contrôle, à proximité d’une station d’épuration qu’on aiderait à dépolluer en utilisant azote, phosphore et autres, et à proximité d’une centrale thermique pour se fournir en CO2. Les applications seraient complètes : huiles pour biocarburants et coproduits.

Notre travail consiste à optimiser la production d’huiles à partir de ces algues. Aux États-Unis, les huiles destinées à l’alimentation infantile sont vendues entre 300 et 500 euros le litre. Je ne suis donc pas sûr que nos collègues américains soient prêts à brûler ces huiles dans des moteurs.

Nous rencontrons deux problèmes majeurs. Premièrement, les surfaces aquacoles ne sont pas équivalentes aux surfaces agricoles françaises et européennes, loin s’en faut. Cela dit, puisque la production est effectuée en trois dimensions, le rendement de surface est accru. Deuxièmement, en ce qui concerne le coût, nous ne sommes absolument pas compétitifs. Tels sont les deux verrous que la recherche doit faire sauter. Deux programmes ANR financent ces thématiques. L’option des DOM-TOM, notamment de la Guyane, doit aussi être envisagée en vue d’exporter nos technologies.

Les niveaux d’investissement sont faramineux, avec des entreprises comme Chevron, Exxon, Shell ou l’ENI. Au niveau international, le sujet est brûlant.

M. le président Claude Birraux. M. Bernard Bigot, haut-commissaire à l’énergie atomique, va maintenant nous indiquer comment les biocarburants pourraient devenir un vecteur de stockage de l’énergie électronucléaire.

M. Bernard Bigot, Haut Commissaire à l’énergie atomique. Les biocarburants de seconde génération, obtenus à partir de la gazéification de la biomasse, peuvent-ils être utilisés à grande échelle pour stocker de l’électricité d’origine nucléaire, hydraulique, solaire ou éolienne, afin d’offrir des disponibilités à notre pays, une fois ses besoins prioritaires satisfaits ? Je précise que nous avons pour impératif de dimensionner globalement notre parc de production électrique afin d’être en mesure de couvrir la totalité de la demande, y compris en période de pic de demande.

En 2006, le pic maximal de demande d’électricité a été de 86,3 gigawatts – il pourrait être de 105 gigawatts en 2012 – alors que la demande moyenne annuelle a été de 62,7 gigawatts. La capacité totale du parc atteint 117 gigawatts, répartis en 63 gigawatts pour le nucléaire, 26 gigawatts pour l’hydraulique, 25 gigawatts pour le thermique et 3 gigawatts pour l’éolien et les autres énergies renouvelables.

La plupart des économies de la planète doivent se préparer activement à réduire leur dépendance aux produits pétroliers importés, dans un contexte de raréfaction programmée de la ressource, de forte volatilité des prix et d’impératif de limitation drastique des émissions de gaz à effet de serre et autres polluants atmosphériques.

Pour ce qui est des transports, l’évolution inéluctable semble être le développement de la motorisation hybride ou tout électrique, avant éventuellement un passage plus lointain vers une utilisation directe de l’hydrogène. Les deux formes énergétiques de substitution aux produits pétroliers nécessaires pour accompagner cette évolution inéluctable sont l’électricité et les biocarburants.

Symétriquement, les deux grandes sources d’énergies durables, les énergies nucléaires et les énergies renouvelables, doivent dans la majorité des cas être transformées en électricité pour être utilisables à grande échelle. Par une transformation ultérieure ou alternative, elles peuvent aussi produire de l’hydrogène, en particulier par dissociation électrolytique de l’eau.

Les questions majeures à traiter pour envisager cette utilisation couplée de l’électricité et des biocarburants dans les transports sont la disponibilité de la biomasse, le relativement faible rendement matière de sa transformation en biocarburant, la difficulté à stocker l’électricité dans le véhicule et l’adéquation instantanée entre offre et demande au niveau du réseau électrique.

Une piste peut concilier ces différentes contraintes : combiner le développement de l’usage électrique pour la motorisation et le développement des biocarburants de synthèse obtenus par fixation d’hydrogène sur de la biomasse, bref, transformer des carbohydrates, fruits de la photosynthèse à partir de dioxyde de carbone et d’eau, en hydrocarbures, en remplaçant les atomes d’oxygène par des atomes d’hydrogène sans perdre les atomes de carbone initialement immobilisés dans la matière végétale.

Compte tenu du kilométrage des 36 millions de véhicules particuliers et utilitaires du parc français, s’ils roulaient intégralement à la traction électrique, il suffirait de six réacteurs EPR pour couvrir la totalité de l’électricité dont ils auraient besoin. La disponibilité de l’énergie électrique au travers du réseau de distribution, combinée avec l’intelligence électronique pour bien gérer les besoins des batteries, offrirait une flexibilité pour réduire le niveau des pics. Au demeurant, les batteries des 36 millions de véhicules permettraient de constituer des stocks importants.

Cela dit, même si 80 % de leurs trajets journaliers se font dans ce rayon, nos concitoyens s’accommoderaient mal d’un dispositif limitant leurs déplacements à 100 ou 150 kilomètres. La motorisation hybride électricité-biocarburants est donc nécessaire.

La biomasse lignocellulosique, aujourd’hui non mobilisée, renouvelable par le processus de photosynthèse, est collectable et stockable. Elle a généralement une composition du type C6H9O4. Après gazéification, sans ajouter d’oxygène, on obtiendra au mieux quatre molécules de monoxyde de carbone et quatre d’hydrogène, loin du ratio optimal pour transformer les carbohydrates en hydrocarbures ; dans ces derniers, en effet, on a des chaînes CH2, ou le rapport de l’hydrogène au carbone est donc de 2 à 1. L’idée consiste à introduire dans le dispositif de l’oxygène – pour transformer les six atomes C en six molécules CO - et de l’hydrogène, pour achever la combustion et optimiser le ratio. Le rendement carbone atteindrait alors 100 %.

Cet hydrogène peut être obtenu, par exemple, grâce à la décomposition de l’eau par électrolyse alcaline. La technique existe mais est onéreuse et doit encore être améliorée. Elle utiliserait l’électricité correspondant au différentiel entre le niveau de satisfaction des besoins prioritaires et le niveau offert par le cumul d’un parc nucléaire et d’un parc renouvelable fonctionnant à son potentiel maximum permis par la nature, c'est-à-dire en moyenne un cinquième du temps.

Où en sommes-nous aujourd’hui ? Avec une composition atomique moyenne C6H9O4, on peut espérer au mieux 1,8 maillon de CH2, soit un rendement carbone de 30 %, et l’on est en réalité plus proche d’1 maillon, soit 17 %. L’introduction d’hydrogène permettrait de passer à un niveau compris entre 5,4 et 6 maillons, ce qui correspondrait à un rendement triple, très sensible au niveau du volume de biomasse à mobiliser.

Nous en sommes encore aux études papier mais nous nous situons dans une stratégie globale. D’après l’INRA, l’ONF et l’ADEME – l’Institut national de la recherche agronomique, l’Office national des forêts et l’Agence de l’environnement et de la maîtrise de l’énergie –, en combinant les ressources forestières existantes non mobilisées et des cultures dédiées raisonnables sur des surfaces agricoles non exploitées, la ressource potentielle française en biomasse serait d’environ 40 millions de tonnes équivalent pétrole ou MTEP.

En France, nous consommons 50 MTEP pour les transports ; une motorisation hybride permettrait de réduire cette consommation de moitié. L’objectif est de produire par synthèse 20 MTEP de biocarburant de deuxième génération, soit environ 230 térawatts-heures – pour information, la production électrique française s’élève à 550 térawatts-heures. En entrée, il faudrait alors 22 MTEP, c’est-à-dire à peu près la moitié de la biomasse renouvelable disponible. Pour assurer la continuité des usines de production des biocarburants de synthèse, nous nous autoriserions à utiliser 6 MTEP d’hydrogène produit à partir de gaz naturel. Il faudrait aussi 7,8 MTEP sous forme d’électricité. Le rendement énergétique serait alors de 56 %.

En sortie, une quantité de biocarburants de seconde génération correspondant à 20 MTEP serait récupérée : 60 % de gazole, 25 % de kérosène et 15 % de naphta. Aux conditions économiques actuelles, le coût de ce biocarburant de synthèse a été évalué à 100 euros le mégawatt-heure en l’absence d’hydrogène et à 85 euros le mégawatt-heure en cas d’apport d’hydrogène et d’électricité, ce qui correspond à un seuil de compétitivité avec le pétrole pour un prix de 120 euros le baril de pétrole brut, sans prise en compte d’une quelconque taxe carbone. Ce n’est donc pas irréaliste, même s’il reste des efforts significatifs de recherche et développement à accomplir.

À cet égard, je plaide pour que la France se mobilise davantage. Nous disposons d’atouts exceptionnels, avec un patrimoine forestier, agricole et nucléaire considérable. Pourquoi laisser les autres pays tirer les marrons du feu ?

Les 90 térawatts-heures supplémentaires d’électricité nécessaires ne seraient pas insupportables. Le rendement du parc actuel peut être amélioré de 5 %, soit 20 térawatts-heures. Les énergies renouvelables, à échéance de dix ou quinze ans, peuvent contribuer à hauteur des 20 térawatts-heures. Il conviendrait donc de développer le parc nucléaire pour produire 50 térawatts-heures par an, soit une puissance installée de 10 gigawatts ou six EPR.

Le schéma que je vous ai décrit conduirait donc la France à se doter de douze EPR pour atteindre quasiment l’autosuffisance. Dans le respect de la logique de solidarité croisée prévue par la loi de 2006 relative aux déchets nucléaires, le CEA a décidé d’investir sur le territoire qui a accepté d’accueillir le laboratoire de stockage des déchets radioactifs à vie longue en couche géologique profonde. Un appel d’offres a été lancé en direction des fournisseurs de technologies. Nous espérons pouvoir prendre une décision fin 2008 afin de débuter la construction courant 2010 et de produire les premières gouttes de carburant de synthèse en 2012.

M. Olivier Appert. Pour apporter un complément d’information sur la filière des algues, je rappellerai que l’IFP a mené, dans les années soixante-dix, une expérience sur un marché de niche très étroit : la spiruline. La filière algue suscite un très gros engouement, mais l’un des problèmes rencontrés est la taille du marché des carburants, sur lequel on raisonne par unités de centaines de milliers de tonnes ; ce sera une des grandes difficultés pour l’accès des algues à ce marché. La production est en outre difficile, car il faut exercer un contrôle très étroit sur la couverture gazeuse et la température, tout en répondant au défi de l’absence de contamination, surtout pour les grandes installations.

Cela étant, les technologies de transformation des algues sont relativement classiques. Comme pour l’huile de poisson ou de colza, il s’agit d’extraction par hexane et de transformation en ester, avec juste un problème complémentaire : le contenu en acides gras, qui peut imposer des traitements complémentaires.

Les coûts annoncés dans la littérature sont élevés – de l’ordre de 1,5 ou 2 dollars par litre – mais nous en sommes aux balbutiements de la technologie.

M. Pierre-René Bauquis. Dans le système des océans, ce qui est exploité presque au maximum, à savoir le potentiel de pêche, n’est autre que le sommet de la chaîne trophique partant des algues unicellulaires. Si les 100 millions de tonnes de poisson prélevés annuellement étaient transformées en carburant, la production ne serait que de 10 millions de tonnes, alors que 4 milliards de tonnes sont nécessaires. Pour des produits à forte valeur ajoutée vendus 100 dollars le litre, comme les oméga 3, cette filière est pertinente ; en revanche, pour des carburants, elle n’a strictement aucun sens.

M. Jean-Paul Cadoret. Comparaison n’est pas raison ; dans nos discussions, il ne faut pas mêler la pêche et l’aquaculture. Il n’a jamais été envisagé de se contenter de récolter les algues.

M. Pierre-René Bauquis. Jusqu’à la fin du XIXe siècle, l’huile de baleine était le résultat d’une « récolte » ou plutôt d’une chasse ; les baleines ont été sauvées in extremis par les pétroliers qui ont permis le remplacement des lampes à huile de baleine par les lampes à pétrole. La culture des algues supposerait l’apport d’intrants extérieurs aux océans, ce qui limiterait fortement l’intérêt économique et énergétique du procédé.

M. Jean-Paul Cadoret. Je ne suis pas d’accord avec le calcul proposé. Par ailleurs, la spiruline n’est pas une bonne référence dans la mesure où il s’agit d’un carbohydrate, qui ne contient pas d’huile. Il n’en demeure pas moins qu’il convient de faire primer le qualitatif sur le quantitatif ; de ce point de vue, je vais dans votre sens.

M. Christian Ngô. La France est un pays privilégié en matière de biomasse mais également de surface marine : avec 11 millions de kilomètres carrés en incluant les DOM-TOM, elle arrive en deuxième position, juste derrière les États-Unis et devant l’Australie.

M. Jean-Paul Cadoret. Je mettrai un gros bémol. Contrairement à l’Australie, la France n’est malheureusement pas une nation maritime mais agricole.

M. Bernard Bigot. Ces technologies de transformation de la biomasse pour produire des biocarburants de deuxième génération offrent des perspectives durables et non conflictuelles avec l’alimentaire. Pour qu’elles se déploient, une certaine visibilité des conditions économiques est requise. Il faut en particulier que le Parlement se penche le plus tôt possible sur la question de la fiscalité et fixe un cap. Sans encouragement, sans aide minimale, la frilosité prévaudra et les industriels n’investiront pas. Le jour où la démonstration sera faite que la filière est suffisamment rentable, les différents acteurs pourront se retrouver pour admettre que la nation peut cesser de verser des subsides.

Les ordres de grandeur évoqués sont frappants. Certaines productions peuvent être opérantes à petite échelle ; le développement industriel renouvelable et durable, c’est une autre affaire. Ma culture de chercheur m’invite néanmoins à ne fermer aucune porte, pour peu que les travaux soient conduits avec la plus grande rigueur scientifique.

Conclusion

M. Claude Birraux. Je remercie les participants aux quatre tables rondes pour leur contribution aux débats, ainsi que les personnes qui sont venues assister à cette audition publique et qui l’ont animée par leurs questions.

Le compte rendu de nos échanges sera bientôt disponible en ligne sur le site de l’OPECST, accessible via les sites de l’Assemblée nationale et du Sénat. Les documents présentés ici sur écran seront disponibles en téléchargement, pour autant que leurs auteurs n’y voient pas d’inconvénient.

Les débats ont fourni, je l’espère, des éléments permettant de bien situer l’apport des biocarburants dans la stratégie énergétique, que l’on peut résumer ainsi : un apport limité mais indispensable.

Un apport limité car il est certain que les biocarburants ne peuvent apporter à eux seuls une réponse aux besoins énergétiques futurs. Parmi les vecteurs d’énergie de transport, ils occuperont une place certes croissante, mais à côté des autres vecteurs : les hydrocarbures fossiles, encore inscrits dans le paysage énergétique jusqu’à la fin du XXIe siècle, l’électricité et les autres carburants de synthèse, par exemple le GTL, gas to liquid.

Un apport indispensable car ils permettent d’exploiter les ressources de la biomasse, jusqu’ici assez peu mises en valeur, et fournissent un vecteur de stockage pour une utilisation optimisée de l’énergie disponible.

Dans le cadre du pilotage de la recherche en énergie, on perçoit bien, en conséquence, que les biocarburants doivent conserver une place prioritaire.

Réjouissons-nous que nos organismes de recherche se mobilisent fortement pour le perfectionnement des filières de BTL, en exploitant la voie enzymatique pour le bioéthanol et la voie de la gazéification pour le biodiesel. Il faut que les crédits publics soutiennent et même, si possible, permettent d’amplifier cet effort. Il s’agit en effet de mettre en valeur un atout stratégique de la France, qu’elle partage avec la Finlande : une abondance de ressources en biomasse, d’origine forestière, comme dans la région de Bure, ou d’origine agricole, comme dans la Marne, sur le site de Futurol.

Les ressources en biomasse de la mer sont un peu le « petit Poucet » de ce dossier, alors que la France dispose aussi de l’atout stratégique que constitue un vaste domaine public maritime, le deuxième du monde, de l’ordre de 11 millions de kilomètres carrés. Les énergies de la mer ouvrent d’autres perspectives intéressantes parmi les énergies renouvelables, comme l’illustrent la viabilité, depuis quarante ans, de l’usine marémotrice de la Rance, d’une puissance non négligeable de 240 mégawatts, et le projet d’un pilote d’exploitation d’hydroliennes sur le site de Paimpol-Bréhat, bénéficiant localement d’un certain degré d’acceptation sociale. Cela milite probablement pour que nous ménagions un peu plus de place, dans notre stratégie de recherche énergétique, aux énergies de la mer, sous toutes leurs formes, biocarburants ou hydroliennes, et que l’IFREMER bénéficie d’une reconnaissance un peu plus importante de son apport sur les questions de l’énergie.

Ces débats nous ont donné l’occasion de rebattre les cartes, de savoir de quoi il ressort lorsqu’il est question de biocarburants, de savoir où en sont la recherche et le développement. Cela alimentera notre réflexion pour préparer le rapport d’évaluation de la stratégie nationale de recherche qui nous est commandé dans la loi de 2005 sur l’énergie, mais aussi pour introduire de la rationalité dans les débats lancés à la veille des lois dites « Grenelle de l’environnement ».

La séance est levée à dix-huit heures trente.

missions à l’Étranger

MISSION EN FINLANDE

23-25 septembre 2008

C’est l’argument que la Finlande conduit son ajustement énergétique d’une manière très autonome, dont la meilleure preuve tient en ce qu’il s’agit du premier pays d’Europe à relancer son programme nucléaire, qui a conduit vos rapporteurs à vouloir étudier de manière plus approfondie les conditions de la recherche énergétique en Finlande.

La Finlande est un pays d’une taille équivalente aux trois quarts de la France, couvert à 80% de forêts, et peuplé d’un peu plus de cinq millions d’habitants, plutôt regroupés dans la partie sud donnant sur la mer baltique. Sa consommation énergétique est très diversifiée, reposant pour 24% sur le pétrole, 20% sur le bois, 17% sur l’énergie nucléaire, 13% sur le charbon, 10% sur le gaz, 7% sur la tourbe. Les 90 TWh d’électricité fournie77 résultent pour 25% de l’énergie nucléaire, 16% de l’hydroélectricité, 15% du charbon, 11% du gaz, 7% de la tourbe ; 14% de l’électricité est importée.

Cette diversité énergétique est entretenue par une grande décentralisation institutionnelle de la production d’énergie, puisque les industriels et les collectivités locales ont la maîtrise de leur source d’approvisionnement en électricité ou en chaleur ; les villes sont équipées de systèmes de chauffage collectif, et même les chaussées d’Helsinki sont équipées de radiateurs contre le verglas.

Le projet de directive européenne sur les énergies renouvelables du 23 janvier 2008 assigne à la Finlande l’objectif d’une part de 38% d’énergies renouvelables dans sa consommation primaire, alors que celle-ci représente déjà une part de 28,5%.

La Finlande émet 12 tonnes de dioxyde de carbone par habitant et par an contre 6,2 pour la France, 20 pour les États-Unis, 11 en moyenne pour la Communauté européenne, 3 pour la Chine.

Personnalités rencontrées

Vos rapporteurs ont eu l’occasion de discuter avec une dizaine de spécialistes des questions de l’énergie au cours de ces trois jours de visite, sans compter les échanges très fructueux avec les représentants de la mission économique.

Parlement

M. Jyrki Kasvi : Député, Vice-président de la Commission de l’Avenir

Ministère de l’économie

M. Taisto Turunen : Directeur général de l’énergie

M. Pentti Puhakka : Ingénieur, département de l’énergie

VTT

M. Rauno Rintamaa : Vice Président

M. Kari Larjava : Vice Président pour la recherche et le développement

Tekes

M. Reijo Munther : Directeur des technologies de l’énergie

Vapo

M. Mikko Kara : Directeur général du département des biocarburants

UPM

Ms Anja Silvennoinen : Senior Vice President Energy

Creative Industries Management

M. Jorma Routti : Président, ancien directeur général de la recherche à la Commission européenne

Neste Oil

M. Simo Honkanen : Vice président, carburants renouvelables

L’apport des entretiens

Les entretiens ont permis de dégager cinq lignes de force de la stratégie finlandaise dans le domaine de l’énergie.

La démarche stratégique

La Commission de l’Avenir du Parlement finlandais a été créée dans l’idée que la Finlande devait se doter de moyens de prospective, de manière à éviter au pays un nouveau choc déstabilisateur comme celui survenu en contrecoup de l’effondrement de l’Union soviétique : l’économie finlandaise avait alors connu une forte chute d’activité, et une remontée brutale du chômage, qui n’ont pu être résorbées qu’à la fin de la décennie quatre-vingt-dix. La commission de l’Avenir aborde des sujets d’ordre général, mais le souci de la prospective se manifeste aussi à VTT, qui produit des documents stratégiques à longue échéance : en 2001, VTT a analysé ainsi l’horizon 2030 (« Energy visions 2030 for Finland ») ; un document similaire sur l’horizon 2050 est en cours d’élaboration en 2008.

La coopération public-privé

La recherche en Finlande est soutenue financièrement par deux organismes qui ont accueilli vos rapporteurs : le VTT, vaste organisme de recherche publique, un peu à l’image du CNRS quant à la diversité des domaines qu’il couvre, mais tourné vers la science appliquée plutôt que vers la science fondamentale ; et Tekes, un établissement s’apparentant plutôt à OSEO-ANVAR dans son positionnement de soutien aux projets de recherche des entreprises. Les deux établissements combinent leurs efforts puisque VTT se finance pour un tiers environ sur des contrats passés avec les entreprises (la part de financement privé atteint la moitié dans le secteur de l’énergie), lesquelles bénéficient par ailleurs d’une aide de Tekes sur projet, sous la forme d’un don ou d’un prêt bonifié, chacun d’au moins 25% du coût total, les deux pouvant s’additionner. Tekes accorde au total un soutien de 60 millions d’euros chaque année à la recherche sur l’énergie, dont les deux tiers vont à l’énergie tirée de la biomasse, et à l’optimisation de l’utilisation de l’énergie.

L’énergie nucléaire

Les difficultés que connaît le chantier de l’EPR à Olkiluoto (cinquième réacteur dans le pays) ne diminuent en rien l’intérêt des Finlandais pour l’énergie nucléaire, puisque trois nouveaux projets sont en instance d’instruction, qui pourraient faire l’objet prochainement d’un examen pour autorisation par le Parlement. Deux sont portés respectivement par les deux entreprises de l’énergie Fortum et TVO ; le troisième par un consortium, baptisé Fennovoima, regroupant divers industriels finlandais publics et privés utilisateurs ou distributeurs d’énergie (Outokumpu, Boliden, Rauma Energia,…) menés par E.on (détenant 34% des parts). Fennovoima pourrait viser la création de deux réacteurs.

La capture du gaz carbonique

La Finlande n’a pas de programme public dans ce domaine, et du reste, n’aurait pas de capacité de stockage dans son sol granitique. Cette analyse nous a été confirmé par M. Reijo Munther, directeur des technologies de l’énergie à Tekes, l’organisme de financement des innovations en Finlande, et par le député Jyrki Kasvi, vice-président de la Commission de l’Avenir au Parlement finlandais. Si un dispositif de capture était mis en œuvre, il obligerait donc à un transport pour rejoindre un site de stockage en dehors du territoire ; l’hypothèse de la Norvège a été indiquée, ou même la Russie, pour le cas d’une émanation de gaz carbonique résultant de l’utilisation du gaz d’importation : un conduit doublerait alors le gazoduc pour faire circuler le gaz carbonique dans l’autre sens.

Le biodiesel

La visite a permis de découvrir l’intense intérêt des Finlandais pour les technologies de deuxième génération pour le biodiesel, avec les projets Vapo et UPM de fabrication à partir de la biomasse, et le pilote de Neste Oil utilisant de l’huile végétale ou organique. Ce positionnement stratégique dans le domaine de la recherche énergétique correspond à la volonté de mettre en valeur deux atouts du pays : d’un côté, les ressources naturelles en bois (UPM est un groupe papetier78) et en tourbe (au cœur du projet Vapo79) ; de l’autre, la disponibilité d’un grand port pétrolier (Porvoo) et l’expérience en matière de raffinage. Par ailleurs, il s’agit d’anticiper un besoin d’énergie tirée de la biomasse au sein de l’Union européenne, en raison des objectifs en énergie renouvelable que celle-ci s’est fixée à l’horizon 2020 : Vapo estime ce besoin à 130 Mtep (1500 TWh). M. Kari Larjava, vice président pour la recherche et le développement de VTT nous a indiqué que les recherches sur la fabrication de biocarburants à partir de la biomasse ont commencé dans les années 80 ; cela explique sans doute que Neste Oil soit d’ores et déjà en mesure d’obtenir des contrats à l’étranger pour sa technologie, puisque l’entreprise doit construire une de ses prochaines raffineries de biodiesel en Autriche en 2009, parallèlement à son implantation dans des grands ports internationaux (Singapour, Rotterdam) en 2010 et 2011.

*

* *

En conclusion, la stratégie finlandaise de l’énergie s’appuie manifestement sur deux piliers : l’énergie nucléaire et le biodiesel de deuxième génération. Un gros programme d’équipement en éoliennes est certes annoncé, mais ne peut avoir d’impact effectif, car le climat local fait que le froid, qui prévaut souvent, s’accompagne d’absence de vent. Le pays s’investit à l’inverse de manière crédible dans les énergies renouvelables en exploitant un avantage comparatif : l’abondance de biomasse sous la forme du bois et de la tourbe.

MISSION AUX ÉTATS-UNIS

5 au 11 octobre 2008

La mission s’est déroulée sur une semaine. Elle a permis de prendre des contacts d’abord à Washington, au niveau des organismes officiels mais aussi de certaines officines privées représentant des intérêts divers, ensuite au Centre de recherche Sandia au Nouveau Mexique, enfin à San Francisco et à Stanford, en Californie. Au total, des discussions ont pu avoir lieu avec environ 35 personnes disposant d’une expérience dans les questions de l’énergie, sans compter les fructueux échanges informels, pour recueillir des compléments d’information ou tester des analyses, avec les représentants sur place de l’Ambassade de France.

Personnalités rencontrées

WASHINGTON

House of Representatives, Committee on Science and Technology

Mr Jim Turner : Chief Counsel

Ms Michelle Dallafior : Subcommittee on Energy and Environment, Professional Staff

Department of Energy (DOE)

Mr Richard Moorer : Associate Under Secretary for Energy
Mr Victor D. Ker : Deputy Assistant Secretary, Office of Fossile Energy

Ms Julie Carruthers : Office of Science, Science and Technology Policy Adviser

Ms Giulia Bisconti : Director, Office of European and Asian affairs

George Marshall Institute

Mr Jeff Kueter : Président

Edison Electric Institute

Mr David Owens : Executive Vice President of Business Operations

DuPont

Mr Michael Parr : Senior Manager, Government Affairs

United Nations Foundation

Mr Mark Hopkins : Expert, Energy Efficiency

Ms Janet Hall : Senior Policy Advisor

Energy Future Coalition

Ms Jana Gastellum : Associate Director

American Chemical Society

Mr Ray Garant : Assistant Director, Public Policy

Mr Barclay Satterfield : Science Policy Fellow

Trachtenberg School of Public Policy

Ms Joan Dudik-Gayoso : Lecturer in Public Policy

Albuquerque : Sandia National Laboratories

Mr Les Shepard : Vice President, Energy, Security and Defense Technologies

Mr Jeffrey Nelson : Manager, Energy and Infrastructure Futures Group-solar Technologies

Mr David Laird : Principal Member of the Technical Staff, Wind Technology Energy

Ms Marjorie Tatro : Director, Fuel and Water Systems

Mr Peter Swift : Yucca Mountain Project, Distinguished Member of the Technical Staff

SAN FRANCISCO

Mairie

Mr Cal Broomhead : Energy and Climate Programs Manager

Ms Johanna Partin : Renewable Energy Program Manager

California Energy Commission

Ms Jackalyne Pfannenstiel : Chairman

Mr Jeffrey Byron : Commissioner

Global Climate and Energy Project

Ms Sally Benson : Executive Director

Precourt Institute for Energy Efficiency

Mr James Sweeney, Director

Mr John Weyant, Deputy Director

Palo Alto Research Center

Mr Scott Elrod : Director of the Hardware Systems Laboratory

Electric Power Research Institute (EPRI)

Mr Richard Schomberg : EDF international

Mr Chris Larsen : Vice President, Nuclear Sector

Mr Bryan Hannegan : Vice President, Environnement and Generation

Mr Clark Gellings : Vice President, Technology

Mr Mark Duvall : Program Manager, Electric Transportation

Clean Energy Angel Fund

Mr Matt Lecar, Fund Manager

L’apport des entretiens

Les échanges ont couverts tous les sujets touchant à l’énergie, y compris la gestion des déchets nucléaires, et le devenir du site de Yucca Mountain (Peter Swift), ou la manière dont les États-Unis songent à combler leur retard considérable par rapport à l’Europe en matière d’efficacité énergétique (Precourt Institute for Energy Efficiency). Mais comme la mission concernait spécifiquement la recherche en énergie, les éléments suivants s’efforcent de mettre en valeur les apports de la visite sous l’angle des différents aspects plus particulièrement éclairants pour la démarche française dans ce domaine.

En ce qui concerne la capture du gaz carbonique aux États-Unis, la visite a permis de mesurer l’écart entre une approche formelle volontariste, et un réalisme informel pessimiste. Par ailleurs, il est apparu que d’autres voies scientifiques que la capture sur site industriel faisaient l’objet de recherche.

L’approche formelle volontariste a été illustrée par deux présentations : l’une au DOE (Washington), l’autre à l’EPRI (Palo Alto).

La présentation du DOE (Victor D. Ker, Deputy Assistant Secretary, Office of Fossile Energy) a mis l’accent sur le fait que les énergies fossiles émettrices de gaz carbonique conserveraient une part prépondérante de plus de 85% dans la consommation d’énergie mondiale, la consommation de charbon des économies émergentes devant notamment augmenter de plus de 70% d’ici 2030. Les États-Unis contribuent au cinquième environ des émissions mondiales de gaz carbonique (6 milliards de tonne par an sur un total de 29 milliards de tonne). Le programme américain lancé en 2001 combine des efforts de recherche technologique essentiellement axés sur la séquestration (Clean Coal Power Initiative – CCPI, et démonstrateurs FutureGen), avec une recherche de sites géologiques d’accueil pour le stockage (c’est à ce titre que le laboratoire Sandia est impliqué dans la capture du gaz carbonique, pour la zone du sud-ouest des États-Unis ) ; la capacité annuelle de stockage ciblée pour chaque installation est de l’ordre du million de tonnes de CO2 (équivalent de la capacité du site de Sleipner en Norvège) ; le potentiel total de stockage du sous-sol américain, sous les trois formes des cavités salines, cas de loin le plus abondant, des veines de charbon inexploitables, et des anciens puits de pétrole ou de gaz, représenterait un à trois fois 1000 milliards de tonnes de CO2. Cependant le DOE a souligné trois difficultés auxquelles va se trouver confrontée la diffusion de la technologie : son coût de mise en œuvre, notamment au regard du supplément de consommation d’énergie qu’elle impose (dans l’état actuel, le prix de revient de l’électricité produite à partir du charbon serait doublé ; le but serait de ramener le surcoût à 30%) ; sa viabilité, liée à la maîtrise effective du risque de fuite du gaz stocké ; enfin, l’incertitude du cadre réglementaire et juridique, qui laisse ouverte par exemple la question de la détermination des responsabilités en cas de fuite du gaz stocké.

Pour l’EPRI (Bryan Hannegan, Vice President), le secteur électrique américain peut maîtriser ses émissions de CO2 de manière à retrouver en 2030 son niveau de 1990, à condition de mobiliser tous les moyens possibles, dont la maîtrise de la demande, l’accroissement de la production à partir de l’énergie nucléaire et des énergies renouvelables, l’augmentation de l’efficacité des usines à charbon, le développement des véhicules hybrides rechargeables (susceptibles d’échanges bidirectionnels avec le réseau) et des sources d’énergies réparties (notamment d’origine solaire) ; la capture du gaz carbonique constitue le complément indispensable de cette panoplie de moyens à mobiliser. La mise au point d’un dispositif de production d’électricité en « charbon propre » permettrait à partir de 2020 une substitution au gaz assurant une meilleure maîtrise du prix de l’électricité, qui triplerait autrement à l’horizon 2050 au lieu d’augmenter seulement de moitié. L’EPRI met en œuvre un programme de démonstrateurs de capture du CO2, fonctionnant en post-combustion , voire en oxy-combustion (concentrant les flux émis pour faciliter leur récupération), d’une taille progressivement de plus en plus importante, pour atteindre le stade du déploiement commercial de la technologie en 2020 ; mais, de l’aveu même de l’EPRI, la complexité des opérations à maîtriser (notamment l’intégration d’une unité de production d’oxygène pour l’oxy-combustion) rend ce calendrier très volontariste (« very aggressive »).

La complexité de cette technologie est l’argument principal invoqué par nos interlocuteurs ayant manifesté un réalisme informel pessimiste à son endroit, notamment quant à son délai de disponibilité. C’est la position notamment de Jeff Kueter, President du George Marshall Institute, de David Owens, Executive Vice President of Business Operations de l’Edison Electric Institut, ou de Les Shephard, du laboratoire Sandia d’Albuquerque.

Le second argument à l’appui de ce pessimisme concerne le coût du déploiement de la technologie : pour Jeff Kueter, sa mise en œuvre forcée, et la hausse consécutive du prix de l’électricité, causerait une diminution sensible du niveau de vie de la population américaine, suscitant son hostilité. Jim Turner, Chief Counsel de la commission de la science et de la technologie de la Chambre des représentants, rappelant que la production d’électricité est le fait d’une multitude d’acteurs indépendants aux États-Unis (les « utilities »), a dit son sentiment que celles-ci refuseraient d’assumer la charge de l’installation des dispositifs de captage sur leurs équipements. Allant dans le même sens, Jeffrey Byron, commissaire de la California Energy Commission, a expliqué que les « utilities » se demandaient quand la technologie serait vraiment disponible, et à quel prix, et plaçaient de ce fait le captage du gaz carbonique au troisième rang de leurs priorités d’investissement, derrière la construction de centrales nucléaires et le développement des sources renouvelables. La California Energy Commission n’a pour l’instant aborder le sujet qu’en lançant début octobre 2008 une enquête sur l’opportunité d’une régulation des émissions de gaz à effet de serre par les producteurs d’électricité.

Trois voies de recherche alternatives à la capture industrielle ont par ailleurs été identifiées :

1. Les Shephard a soutenu l’idée que la voie d’une valorisation industrielle directe du gaz carbonique lui semblait plus viable à terme, et a fait référence aux expériences en cours sur son site de recherche en énergie solaire, utilisant un four solaire pour porter un mélange de vapeur d’eau et de gaz carbonique à une température assez élevée pour récupérer un mélange de monoxyde de carbone et d’hydrogène, composants à partir desquels on peut produire des carburants de synthèse. Il a mentionné également l’intérêt de la culture des algues pour produire des biocarburants, dans la mesure où les algues absorbent le gaz carbonique.

2. Scott Elrod du Palo Alto Research Center (PARC) de Xerox a présenté une solution technique originale du traitement des émissions de gaz carbonique : un dispositif de capture électrochimique qui s’inspirerait d’un procédé utilisé par la NASA pour traiter l’air respiré par les astronautes. Il permettrait un filtrage par une membrane de l’air sans avoir à concentrer préalablement le gaz carbonique pour le capturer. Ce principe d’un filtrage électrochimique aérien rejoint une autre annonce faite en avril 2008 par un groupe de chercheurs du Los Alamos National Laboratory. Ce type de procédé permettrait de faire l’économie d’un équipement une à une des installations industrielles émettrices. Dans les deux cas, les promoteurs du procédé couplent l’idée de la récupération du gaz carbonique avec celle d’une utilisation de celui-ci pour produire du carburant en passant par l’étape d’une synthèse du méthanol.

3. Marc Magaud, de l’Ambassade, a attiré notre attention sur l’existence d’entreprises développant des technologies de piégeage du gaz carbonique dans les matériaux de construction ; un ciment d’un type nouveau l’absorberait au lieu d’en émettre. Cela concerne par exemple la société Calera, implantée en Californie (Los Gatos).

En ce qui concerne les recherches sur l’utilisation de l’hydrogène dans les piles à combustible, elles ont été évoquées par deux interlocuteurs dans leur présentation : Julie Carruthers au DOE, Sally Benson dans le cadre du Global Climate and Energy Project (GCEP) ; dans les deux cas, il s’agissait d’effectuer un panorama des pistes poursuivies par des structures disposant de moyens de recherche considérables, l’hydrogène constituant l’une de ces pistes. Les recherches du GCEP se situent au niveau le plus fondamental, concernant par exemple l’étude de la production d’hydrogène par des voies photo-biologiques.

Cependant la tonalité générale des personnes interrogées n’était pas enthousiaste : au DOE, la technologie est présentée comme devant encore bénéficier de percées fondamentales pour permettre une véritable mise en œuvre technologique. Jim Turner a mentionné son scepticisme personnel quant à la possibilité d’une réelle émergence au niveau industriel. Mais la réaction la plus intéressante a été celle du commissaire de la California Energy Commission, Jeffrey Byron, qui a répondu, à une question de Christian Bataille l’interrogeant sur le sort de la fameuse « Autoroute de l’hydrogène », dont on lui avait vanté les mérites il y a quatre ans, qu’elle faisait l’objet de réaménagements ayant conduit notamment à fermer une station service de San Francisco80.
S’agissant de la recherche en énergie solaire, cette visite aux États-Unis a connu deux temps forts : d’une part, le déplacement au laboratoire Sandia d’Albuquerque ; d’autre part, la présentation de Scott Elrod au Palo Alto Research Center de Xerox. En outre, nos contacts avec les services du Consulat de San Francisco nous ont permis de mesurer le dynamisme des Clean’Tech dans ce domaine, qui s’explique pour partie par le volontarisme des autorités locales, illustré par le programme solaire de la ville de San Francisco.

Le site dédié à l’énergie solaire au laboratoire Sandia, dirigé par Jeffrey S. Nelson, teste en plein air des dispositifs de concentration d’énergie par miroir pour produire de l’électricité de manière thermique, grâce à un convertisseur Stirling, faisant un cliquetis bruyant bien caractéristique. Deux configurations géométriques sont expérimentées : le système de coupoles paraboliques composées de miroirs indépendants concentrant les rayons au foyer (Dish / Engine), et le système de parterre de miroirs faisant converger la lumière au sommet d’une tour (Power Tower) ; les miroirs suivent le soleil dans sa course pour optimiser l’énergie récupérée. L’ancien système de l’auge parabolique d’une seule pièce (Parabolic Trough) est représenté sur place, mais par des équipements qui n’ont plus l’air d’être en service, sans doute parce qu’il s’agit aujourd’hui d’une technologie commercialisée.

Les tests portent sur les différents composants jouant un rôle dans l’efficacité énergétique des dispositifs (miroirs, convertisseur), et sur le stockage d’énergie associé : celui-ci s’effectue dans la tour sous forme du chauffage d’une citerne remplie de liquide caloporteur, qui assure une autonomie de production d’électricité pouvant atteindre plusieurs heures.

Les coupoles paraboliques peuvent produire plusieurs dizaines de kW, pour un coût de 8 dollars le Watt, et le système en tour plusieurs centaines de MW (10 000 fois plus), pour un coût au Watt installé moitié moindre. Le taux d’utilisation annuelle est au mieux de l’ordre de 20%, et le coût du kWh produit de l’ordre de 10 cents (0,1 dollar).

La démarche du Palo Alto Research Center (PARC) de Xerox en matière d’énergie solaire a consisté à identifier un créneau parmi les différents types de recherche possibles, car le laboratoire ne s’est positionné que récemment dans le secteur des Clean’Tech. Les recherches visant à mettre au point un nouveau type de procédé photovoltaïque (silicium, couche mince, organique) ont été écartées comme nécessitant un investissement de durée trop longue pour atteindre le stade de la commercialisation : le PARC a établi que les progrès d’efficacité dans ce domaine n’étaient que de 4% par décennie, quelle que soit la filière considérée. Le PARC a préféré en conséquence concentrer ses efforts sur la partie aval de la recherche en énergie solaire photovoltaïque, à savoir la mise en œuvre des cellules photovoltaïques, avec l’idée d’utiliser à cette fin des procédés développés antérieurement dans le domaine de la technologie bureautique, d’ores et déjà parfaitement maîtrisés par Xerox.

Deux exemples ont été notamment cités :

- d’abord, le recours à une technique particulière d’impression propre à Xerox, la « co-extrusion », pour affiner la production des masques utilisés dans la production en série des cellules photovoltaïques. Cette technique permet un gain d’efficacité dans la production de seulement 1%, très appréciable cependant sur de gros volumes de production. Le gain net correspondant pour le fabriquant qui s’équiperait du dispositif serait de l’ordre de 150 000 dollars par MW produit ;

- ensuite, la maîtrise de Xerox dans les systèmes optiques des photocopieurs et des imprimantes laser a été mobilisée pour mettre au point un dispositif concentrateur de lumière, venant renforcer l’efficacité de chaque cellule photoélectrique, jusqu’à abaisser de moitié le coût de revient de l’électricité produite. Ce concentrateur est d’ores et déjà diffusé commercialement (avec un client en Espagne, notamment) par la société SolFocus.

Une présentation de Didier Janci sur l’écosystème de la Silicon Valley nous a permis d’apprécier le dynamisme des Clean’Tech dans l’énergie solaire. On compte une cinquantaine de ces entreprises travaillant dans ce domaine, mettant en œuvre des innovations à différents niveaux : nouveau procédé photovoltaïque, ou nouveau procédé de mise en œuvre d’une technologie photovoltaïque permettant d’abaisser ses coûts de production. Beaucoup de ces entreprises ont l’une ou l’autre de ces deux caractéristiques : un membre fondateur ayant développé antérieurement une compétence dans le secteur des composants électroniques utilisant le silicium ; un membre fondateur issu des universités californiennes. En lien avec l’ouverture internationale des universités de Californie (un tiers d’étudiants étrangers), dans la moitié des cas, ces entreprises ont un fondateur étranger. A l’échelle des États-Unis, le mouvement des Clean’Tech se concentre en Californie pour la moitié du capital total mobilisé, et pour le tiers dans la baie de San Francisco. L’apport financier provient, pour la première moitié, c’est-à-dire 25 à 30 milliards de dollars, des fonds de capital risque (Venture Capital), et pour l’autre moitié, des « Business Angels » (investisseurs individuels). Une Clean’Tech mobilise en moyenne de l’ordre de 50 à 100 millions de dollars, ce qui montre que le développement technologique de l’énergie solaire (photovoltaïque principalement) reste assez peu capitalistique ; il n’y a pas de véritable barrière à l’entrée comme pour l’énergie nucléaire par exemple, pour laquelle les investissements de base se chiffrent en milliards d’euros. Un échange avec Matt Lecar, qui dirige un fond de capital risque, a permis d’apprendre que la crise financière aurait des répercutions pour les nouveaux projets de Clean’Tech, les fonds préférant réserver leurs ressources au soutien des projets antérieurement lancés ; un fond de capital risque anticipe un résultat moyen entre d’un côté les projets qui vont permettre de dégager un gros profit, et de l’autre ceux qui vont échouer. Dans le cas des Clean’Tech axés sur les technologies solaires, on anticipe à terme un phénomène de concentration, devant laisser au maximum deux ou trois entreprises viables aux États-Unis. Certaines grandes entreprises françaises suivent sur place l’évolution de l’offre technologique solaire : EDF (à travers EDF Energies nouvelles) prend des participations dans certaines Clean’Tech ; Saint-Gobain évalue l’apport des Clean’Tech dans le cadre de son programme de veille Nova.

Le programme solaire de la ville de San Francisco (Solar Energy Incentive Program - GoSolarSF) illustre le volontarisme des autorités locales en matière de développement des énergies renouvelables, et explique pour partie l’éclosion locale du mouvement des Clean’Tech. Ses concepteurs (Cal Broomhead, Johanna Partin) ont indiqué qu’il s’agissait de doter la ville d’une source d’appoint d’énergie photovoltaïque pour éviter le retour de black out survenus antérieurement du fait d’une dépendance de sources d’électricité géographiquement lointaines. Il s’agit de déployer 5 MW de puissance potentielle, alors que la ville consomme en base de l’ordre du gigawatt ; par conséquent, l’intermittence de l’énergie solaire (liée au fog des mois d’été notamment) peut être compensée sans investissement supplémentaire (« dans le bruit ») par les sources d’approvisionnement principales. Les ressources financières du plan sont fournies par les excédents dégagés par une station hydroélectrique appartenant à la ville (150 MW). Plutôt qu’une démarche d’investissement direct, la ville a préféré intervenir en subvention (3000 dollars par foyer), de manière que l’aide ainsi fournie puisse se cumuler à celles déjà apportées au niveau fédéral (crédit d’impôt de 30%), et au niveau de l’État de Californie (remboursement partiel au titre du California Solar Initiative). Au total, le coût d’investissement est diminué de moitié au moins, la prise en charge pouvant atteindre les trois-quarts. L’effet de seuil de l’investissement peut être en outre gommé par l’entremise de sociétés de services spécialisées le prenant en charge contre le paiement d’un loyer ; ce dispositif présente l’avantage de répartir la charge en cas de changement de propriétaire du bâtiment. La ville a mis en place une filière de formation pour des techniciens des équipements solaires, et la subvention accordée est doublée (6000 dollars) si l’installation est confiée à une entreprise employant des techniciens formés par cette filière. Cal Broomhead a souligné la lourdeur des procédures de création d’un programme incitatif local (consultation publique, appel d’offre), et a signalé l’avantage d’un programme organisé à un niveau administratif plus général, dont l’échelon local n’a plus ensuite qu’à assurer la mise en oeuvre en remplissant un formulaire. Si l’effort de la ville a porté sur l’énergie photovoltaïque plutôt que sur le chauffage solaire, qui aurait pu logiquement s’imposer, c’est que le lancement prématuré de cette dernière technologie dans les années 70 a laissé un très mauvais souvenir collectif dans la population.

La visite a permis d’assister à trois reprises à une présentation concernant l’élaboration d’une stratégie de recherche en énergie : au DOE, au Global Climate and Energy Project et au Palo Alto Research Center. Le contact avec la California Energy Commission concernait ce domaine plus indirectement, puisque cet organe s’occupe de définir une stratégie de couverture des besoins en énergie, et non pas des questions de recherche.

Au DOE, Julie Carruthers a présenté le processus d’élaboration de la stratégie suivie par l’Office of Science, bras scientifique du département, qui dispose à lui seul d’un budget d’environ 4 milliards de dollars, et qui couvre toute la palette des recherches allant des plus fondamentales (études des processus aux niveaux atomique et électronique) aux plus appliquées (le déploiement des technologies ayant passé le cap de la démonstration industrielle). La démarche de construction de la stratégie part des missions officielles du DOE, au premier rang desquelles figure la sécurité énergétique ; des ateliers impliquant toute la communauté scientifique identifient les pistes possibles ; les programmes en cours sont soumis parallèlement à une évaluation extérieure indépendante (en fonction des objectifs prévus) ; un modèle économétrique donne des indications sur la manière d’allouer les ressources en vue de maximiser leur efficacité. Au final cependant, les priorités fixées correspondent plus à des nuances dans les soutiens qu’à des choix exclusifs : Richard Moorer, Associate Under Secretary, a clairement dit qu’aucune piste n’était en fait négligée, car le passé avait révélé qu’en science, les rejets absolus étaient parfois inconsidérés. Ainsi, par exemple, le DOE a mis quelques moyens de recherche sur les énergies de la mer, même si celles-ci ne sont pas mises sur le devant de la scène aux États-Unis. A l’inverse des petits pays qui sont contraints à des choix stratégiques tranchés, le plus puissant pays du monde peut se permettre d’être présent sur tous les fronts de la science.

Le Global Climate and Energy Project se trouve également dans la situation d’utiliser au mieux les ressources (110 millions de dollars) mises à sa disposition par ses quatre mécènes fondateurs : Schlumberger, General Electric, Toyota et ExxonMobil. Le GCEP a pour objet de développer la recherche fondamentale, en liaison directe avec les laboratoires universitaires de Stanford, mais dans une perspective très ouverte de coopération internationale. Il a des contacts en France avec l’IRDEP (Institut de recherche et développement sur l'énergie photovoltaïque) et l’Université de Picardie (laboratoire menant des recherches sur les batteries). La démarche de choix stratégique vise là à déterminer les pistes de recherche les plus pertinentes dans l’intérêt de la science, en veillant à s’inscrire en complémentarité des efforts déjà conduits par ailleurs dans le monde ; il s’agit d’identifier des domaines délaissés mais pourtant intéressants par leurs retombées potentielles ; il s’agit aussi de favoriser les recherches sur des domaines croisés pour créer les meilleures conditions d’éventuelles percées scientifiques. Sally Benson, le directeur général du GCEP a présenté comme point de départ de la réflexion stratégique un bilan global de l’« exergie » au niveau mondial ; l’« exergie » est la partie de l’énergie qui se transforme effectivement en travail ou en service. Cette approche fait classiquement ressortir le besoin de développer des sources d’énergie n’émettant pas de gaz à effet de serre (énergie solaire, biomasse), la nécessité d’améliorer l’efficacité des dispositifs de stockage et de conversion d’énergie ; pour la réduction du gaz carbonique dans l’air, le GCEP se donne l’objectif d’explorer des voies alternatives au captage et stockage géologique ; enfin, sa dernière priorité concerne le développement d’outils de gestion intelligents des réseaux électriques (« Smart Grids »). Le pilotage des ajustements du programme s’effectue deux fois par an dans un dialogue entre les mécènes et divers comités d’experts, qui se concertent quant à eux à l’occasion d’ateliers périodiques. In fine, les recherches pilotées par le GCEP se regroupent principalement autour de quatre thèmes : les énergies renouvelables (40% du financement), le captage du gaz carbonique (30%), l’hydrogène et la pile à combustible (20%), les batteries (6%) ; quelques recherches concernent l’énergie nucléaire, en particulier la fusion. Sally Benson a mentionné une réussite particulière des projets consacrés à l’énergie photovoltaïque et au stockage sur batterie (justement les deux sujets impliquant les collaborations françaises mentionnées précédemment).

La California Energy Commission a pour mission de définir une politique de l’énergie pour l’État de Californie, sous la contrainte de développer l’usage des énergies renouvelables, dont la part dans la consommation d’énergie doit atteindre 20% en 2010 et 33% en 2020. Pour une planification de l’effort énergétique à l’horizon 2020, une anticipation sur les possibilités technologiques est nécessaire, et les éléments présentés par Jackalyne Pfannenstiel et Jeffrey Byron concernant leur prochain rapport à paraître fin 2008 mentionnent la California Solar Initiative, mise en place par la Chambre de Californie en 2006 à la suite d’une annonce du Gouverneur de 2004 (un million de toits solaires), qui consiste en une aide de 3 milliards de dollars sur 10 ans pour encourager la mise en place d’un parc solaire photovoltaïque supplémentaire de 3 GW ; l’aide au Watt installé est décroissante dans le temps pour tenir compte d’un effet d’apprentissage. Quant à la diminution des gaz à effet de serre, elle est envisagée sous l’angle de l’efficacité énergétique et du développement des énergies renouvelables, sans évoquer la capture et le stockage du gaz carbonique.

En ce qui concerne les biocarburants, nos interlocuteurs n'évoquaient en fait que le bioéthanol, puisque la production de biodiesel américaine est marginale (vingt fois moindre). La recherche sur les procédés de fabrication de deuxième génération est centrée sur ce qu'ils appellent "l'éthanol cellulosique" qui renvoie en France à la voie biochimique (dégradation enzymatique de la cellulose) par opposition à la voie thermochimique (dégradation par chauffage) du biodiesel, même si la voie thermique permet en fait la production de toute une gamme d’hydrocarbures. Le DOE nous a permis d'apprendre que trois laboratoires fédéraux se focalisent sur ce domaine de recherche, en portant leurs efforts sur la mise au point 1°) des meilleures solutions pour la plante devant fournir la cellulose ; 2°) de l'enzyme devant détruire la carapace de lignine ; 3°) du microbe devant assurer la fermentation : le Bioenergy Science Center de Oak Ridge (Tennessee) étudie les composants biologiques déjà disponibles à l'état naturel, le Joint Bioenergy Institute de Berkeley (Californie) recourt à la biologie de synthèse (synthetic biology) pour concevoir des composants améliorés, et le Great Lakes Bioenergy Research Center de Madison (Wisconsin) vise à optimiser les procédés de fabrication. Ce dernier conduit aussi des recherches sur la voie thermochimique, support d’un partenariat en discussion avec les papetiers finlandais d'UPM. Vos rapporteurs n'ont pas pu visiter le Joint Bioenergy Institute initialement inscrit à leur programme de visite en Californie du fait d'une préséance de dernière minute accordée à des membres du Congrès américain. Michael Parr de la compagnie DuPont, très impliquée dans la production du bioéthanol, depuis l'exploitation agricole jusqu'à la transformation chimique, a indiqué que la première génération permettrait d’augmenter la production des 6 milliards de gallons en 2008 (un gallon fait 3,78 litres) aux 36 milliards de gallons en 2022 fixés comme objectif par le Energy Independence and Security Act de décembre 2007, et que le complément apportée par la deuxième génération assurerait un doublement de la production à 60 milliards de gallons d’ici 2030.

S'agissant de l'effet d'éviction au détriment des cultures alimentaires, outre un rappel par divers interlocuteurs, dont Janet Hall de l’UN Foundation (structure autonome résultant d'un don de Ted Turner pour soutenir l'ONU) qu’il résultait de déterminants multiples (dynamisme de la démographie mondiale, hausse du niveau de vie dans les pays émergents), Michael Parr a estimé qu'il serait minimisé à terme par une poursuite de l'augmentation des rendements, et l'exploitation future de nouvelles plantes comme le switchgrass et le miscanthus ; en outre, à plus court terme, la hausse des prix va stimuler l’offre des cultures alimentaires ; pour l’instant, les biocarburants ne mobilisent que 3 à 4 % de la surface agricole américaine. Janet Hall a indiqué qu'une concertation était en cours au sein de l'ONU pour harmoniser les positions divergentes entre les différentes institutions spécialisées qui sont parties prenantes : la FAO d'un côté, la Banque mondiale (BIRD) de l'autre. Joan Dudik-Gayoso (Trachtenberg School of Public Policy) a évoqué la thèse selon laquelle la Communauté européenne porterait une lourde responsabilité de l'effet d'éviction du fait de l'annonce d'objectifs disproportionnés en matière de biocarburants (10% du contenu énergétique des carburants à l'horizon 2020), qui supposeraient des importations de produits agricoles en provenance du Tiers monde.

L’intensité du développement de l’agriculture sous l’effet de la double demande alimentaire et énergétique commence à susciter des inquiétudes sur la disponibilité des réserves en eau aux États-Unis (Ray Garant de l’American Chemical Society, et Marjorie Tatro des Sandia National Laboratories).

*

* *

En conclusion, cette mission aux États-Unis a permis de confirmer certaines données de comparaison utiles pour une évaluation de la stratégie française de recherche en énergie. Ainsi il apparaît que les États-Unis, à l'inverse d'un petit pays comme la Finlande, ont les moyens de poursuivre des recherches tous azimuts, selon un ordre de priorité où l'indépendance énergétique est fortement mise en avant. La lutte contre l'effet de serre prend principalement la forme d'un volontarisme en matière d'efficacité énergétique, le captage et stockage du gaz carbonique, du fait de son coût sans contrepartie économique, faisant l'objet d'un soutien dubitatif. L'idée de l'élimination du gaz carbonique alimente en revanche un actif courant de recherche sur la photosynthèse artificielle. La mise au point des biocarburants de seconde génération fait l'objet d'un effort de même degré d'avancement que celui de la France, avec des moyens cependant beaucoup plus conséquents s'agissant du bioéthanol. La pile à combustible demeure un point d'intérêt mais sans discours futuriste sur l'économie de l'hydrogène. Les énergies de la mer font l'objet d'un programme de recherche manifestement non prioritaire.

MISSION AU JAPON

24 au 28 novembre 2008

La mission s’est déroulée sur une semaine. Elle a permis essentiellement d’avoir des contacts avec des organismes officiels, le lien avec le secteur privé se faisant à travers Mitsubishi Chemical Compagny, et les représentations sur place d’entreprises françaises (Areva et Total). Au total, des discussions ont pu avoir lieu avec environ une trentaine de personnes spécialistes des questions de l’énergie, sans compter les fructueux échanges informels, pour recueillir des compléments d’information ou tester des analyses, avec les représentants sur place de l’Ambassade de France.

Personnalités rencontrées

Council for Science and Technology Policy (CSTP)

Mme Yuko Harayama, professeur à l’Université de Tohoku (ancien membre)

Ministry of Economy, Trade and Industry (METI)

Mr Toshikazu Masuyama, Director, Policy Planning Division, Energy Conservation and Renewable Energy Department, Agency for Natural Resources and Energy

Mr Oshihiro Mitsuhashi, Director, Global Environment Technologies Office

New Energy and Industrial Technology Development Organization (NEDO)

Mr Sadao Wakasa, Executive Director

Mr Shunichi Yanai, Director, Environment Technology Development Department

Ms Mayumi Yoshizaki, Deputy Director, Policy Planning and Coordination Department

National Institute of Advanced Industrial Science and Technology (AIST)

Mr Akira Ono, Senior Vice-President

Mr Kozo Uto, Director, International Affairs Department

Mr Yoshiro Owadano, Research Coordinator for Energy Technology

Mr Yoshio Watanabe, Director, Research Core for Deep Geological Environments

Mr Shinichi Goto, Director, Research Center for New Fuels

Mr Mitsuharu Koguma, Research Scientist

Energy Conservation Center

Mr Kazuo Okumura, President

Mr Tuzuru Nuibe, Director General, International Cooperation Division

Mr Junichi Noka, General Manager, International Cooperation Department

Japan Hydrogen and Fuel Cell Park

Mr Hisashi Yano

Mr Matsushita

Ms Furusaka

Japan Photovoltaic Energy Association (JPEA)

Mr Takayuki Nakajima, General Manager, International Department

Mr Tetsuzo Kobayashi, General Manager, Eko Instruments

Mr Masahiro Sakurai, General Manager, Fuji Electric Engineering & Construction

Mitsubishi Chemical Compagny

Mr Hiroshi Kita, General Manager, R&D department

Mr Akira Ishiwada, General Manager, Methanol & DME division

Areva, représentation au Japon

M. Rémy Autebert, Président

M. Christophe Xerri, Directeur

Total, représentation au Japon

M. Jacques Chambert-Loir, Président

M. Naoaki Endo, Vice Président

M. Mathieu Gougeon

L’apport des entretiens

Cette visite au Japon a permis principalement de recueillir des informations sur les conditions de déploiement de l’énergie photovoltaïque, et l’état de la recherche en ce qui concerne la capture et le stockage du gaz carbonique, ainsi que de mieux comprendre l’intérêt du nouveau carburant DME. Elle a permis également d’apporter un éclairage sur d’autres aspects de la politique énergétique japonaise.

L’énergie photovoltaïque

Cette question a été abordée lors de la visite au METI (M. Masuyama), et de la Japan Photovoltaic Energy Association.

La politique japonaise est marquée en ce domaine par l’arrêt en 2004 du soutien mis en place en 1974 (Sunshine Project), avec une constance de trente années, faisant fi des variations du prix du pétrole, le contre-choc pétrolier de la fin des années quatre-vingt ayant rendu notamment peu rentable une subvention à cette forme très chère d’énergie. L’arrêt du soutien a entraîné un arrêt du déploiement de la technologie, et le Japon a été rattrapé puis dépassé sur ce terrain par l’Allemagne, qui dispose depuis 2005 du parc photovoltaïque installé le plus important au monde : 2,8 GW contre 1,7 GW (en France, le parc est cinquante fois moins important : 40 MW).

Le Japon reste néanmoins le premier producteur mondial de panneaux photovoltaïques avec une production annuelle de 920 MW en 2007, soit près du quart de la production mondiale (3730 MW). Les quatre grands industriels japonais du secteur sont Sharp, Kyocera, Sanyo, Mitsubishi. L’Allemand Q-Cells reste néanmoins le premier producteur mondial avec une part de marché de plus de 10%.

Le soutien accordé au Japon à l’énergie photovoltaïque repose sur un principe différent du tarif de rachat européen (Feed in Tarif). Il s’agit du Renewable Portefolio Standard (RPS), une obligation pour les producteurs d’électricité de réaliser une certaine quantité de production à partir d’énergie renouvelable ; en ce cas, le prix de rachat est fixé par les compagnies d’électricité. L’aide interrompue en 2004 consistait en une subvention à l’investissement, en fonction de la puissance installée.

M. Masuyama a mis l’accent sur le fait que l’équipement photovoltaïque constituait encore un marché émergent sur lequel la concurrence de prix entre fournisseurs comptait moins que la qualité de leur offre. Il a confirmé l’importance de la qualité des prestations d’installation et de maintenance pour le déploiement de la technologie, quoique l’État japonais n’intervienne pas encore dans ce domaine ; ce sont les producteurs de panneaux photovoltaïques qui supervisent ces prestations techniques, dans le cadre de l’assistance à leurs clients. Néanmoins, M. Masuyama a signalé que l’ouverture progressive du marché à de nouveaux acteurs conduisait le METI à envisager l’éventualité d’imposer des normes ; l’AIST s’est engagé dans une étude de métrologie pour les préparer. Cependant la diversité des technologies utilisées par les différents fournisseurs complique l’effort de normalisation.

La Japan Photovoltaic Energy Association se donne pour objectif d’appuyer le déploiement de l’énergie photovoltaïque en diffusant de l’information, à travers son site Internet, et l’organisation d’événements divers.

Une relance du système d’aide à l’investissement a été décidée dans le cadre du budget pour 2009, dont la mise en oeuvre commence en avril. Il s’agit d’inciter les grands fournisseurs japonais qui se sont détournés vers les marchés d’exportation à réinvestir le marché national.

Le captage et stockage du gaz carbonique

L’effort de recherche japonais dans ce domaine a été présenté par le METI (M. Mitsuhashi), la NEDO (M. Yanai), et a été discuté aussi avec les représentants de l’AIST.

Ce qui était frappant, dans les échanges sur le sujet avec nos interlocuteurs japonais, c’est qu’ils étaient plus diserts sur le captage que sur le stockage. Tout semblait se passer pour eux comme si le stockage n’était pas une question à l’ordre du jour. En fait, ils finissaient par reconnaître qu’un stockage géologique était difficile au Japon, compte tenu de la géographie et de la sismographie du pays. A l’AIST, la question leur a été posée après des échanges sur la situation du stockage des déchets nucléaires de haute activité, et il est apparu que les deux dossiers présentaient des difficultés similaires, la question des déchets nucléaires ayant déjà, en plus, à son passif, plusieurs manifestations de rejet par des populations locales.

Une piste pour un stockage à l’étranger a été évoquée à travers la mention d’une coopération avec la Chine et les pays d’Asie du Sud Est.

En Chine, le Japon participe au projet de capture du gaz carbonique à la sortie d’une centrale au Charbon près de Harbin, avec une injection dans le champ pétrolier de Daqing, à 200 km de là. Une coopération est en cours également avec l’Australie (Callide A, dans le Queensland, avec une séquestration à 250 km de la centrale au charbon émettrice).

M. Mitsuhashi a présenté une Road Map programmant le stockage géologique pour 2020, et le stockage dans l’océan pour 2030 ; il a mentionné le démarrage d’un projet de démonstrateur d’une capacité de capture de 100 000 tonnes de CO2 par an en 2009.

Le contact avec la NEDO se voulait spécifiquement ciblé sur le stockage et captage du gaz carbonique, une demande explicite ayant été formulée pour la présentation d’un projet de coopération avec la Chine et les pays d’Asie du Sud-Est dans ce domaine.

En fait, la NEDO a présenté l’ensemble de ses projets relatifs au charbon propre, en mettant en avant d’abord la recherche d’efficacité, et ensuite, par voie de conséquence, le gain en termes d’émission de gaz carbonique que permet cette efficacité accrue.

S’agissant des centrales thermiques, la NEDO a mis en évidence, entre 1980 et 2005, un gain d’efficacité moyen du parc de 2,5% (passage d’un rendement de 39% à 41,5%) obtenu par le déploiement des générations nouvelles de centrales : d’abord les centrales supercritiques, puis les centrales ultra supercritiques, dont le rendement accru (jusqu’à 43%) vient de l'augmentation de la pression et de la température de la vapeur à l'admission dans la turbine ; enfin, plus récemment, les centrales à lit fluidisé (PFBC)81 fonctionnant au charbon pulvérisé, d’un rendement de 43%.

Elle a présenté deux projets en cours de déploiement de technologies nouvelles : 1°) le procédé de la gazéification, qui, grâce à un apport complémentaire d’oxygène, permet de brûler du gaz de synthèse (monoxyde de carbone et hydrogène) dans une centrale à gaz à cycle combiné (IGCC), et d’isoler l’émission de gaz carbonique ; une étude de faisabilité du transport et du stockage du gaz carbonique émis par une centrale IGCC de Nakoso (dans la préfecture de Fukushima), à destination d’un ancien puit off-shore de l’exploitation gazière d’Iwaki est en cours ; 2°) le procédé du raffinage initial pour brûler de l’« hyper-charbon » ; le charbon est alors traité par des solvants qui permettent d’en extraire les résidus non carbonés.

La NEDO a présenté deux projets visant à une utilisation plus efficace du charbon dans des installations industrielles : l’un concernait la fabrication de coke, en traitant les dépôts pour y récupérer une source additionnelle d’énergie ; l’autre, l’optimisation de la production d’essence à partir de charbon liquéfié. Elle a enfin fait état d’un projet visant à la récupération du gaz carbonique émis par les usines sidérurgiques.

Le propos général soulignait la faible contribution du Japon aux émissions de gaz carbonique à partir du charbon : environ 200 millions de tonnes par an, alors que la contribution cumulée des États-Unis, de la Chine et de l’Inde représente plus de 3 milliards de tonnes par an. La NEDO a fait observer que la mise en œuvre effective des « bonnes pratiques » permettrait la réduction d’un tiers (un milliard de tonnes) des émissions cumulées dans ces trois pays, alors qu’elle ne permettrait un gain que d’une douzaine de millions de tonnes au Japon.

Le message implicite était donc que le captage et stockage du gaz carbonique constituait un élément fort d’affichage politique, mais traité pour l’instant principalement par le biais d’un surcroît de performance dans l’efficacité énergétique ; la phase de stockage apparaît comme constituant un objet d’étude.

Le carburant DME

Le DiMethyl Ether (DME) est présenté comme un carburant du futur. Total participe à son développement au Japon en partenariat avec des entreprises japonaises. Le voyage a permis de mieux comprendre l’intérêt du DME à travers la visite d’une unité de production à Niigata, et du laboratoire sur les nouveaux carburants de l’AIST à Tsukuba.

L’usine DME de Niigata fait partie d’un vaste complexe chimique de Mitsubishi Gas Chemical. Elle a été inaugurée en septembre 2008, prenant le relais d’un pilote de démonstration qui était installé à Kushiro sur l’île d’Hokkaido, et testait un mode de synthèse direct du DME à partir du gaz naturel. L’unité de Niigata produit le DME à partir du méthanol. Le dispositif technique est conçu pour produire un DME très pur, et c’est là le principal atout de cette usine par rapport à la production chinoise qui a cours déjà depuis cinq ans.

Le méthanol utilisé est obtenu en l’occurrence à partir du gaz naturel, mais il est aussi possible, en théorie, d’en produire à partir de la biomasse (distillation du bois, d’où le nom d’« alcool de bois »). En Suède, Volvo teste un camion fonctionnant avec du DME produit à partir d’une gazéification de la biomasse.

Le DME est déjà utilisé commercialement comme propulseur d’aérosol, et pour cet emploi il n’a pas besoin d’être très pur. En revanche, la pureté est une caractéristique nécessaire pour son emploi comme carburant, puisqu’il se distingue alors par le fait qu’il brûle sans fumées, sans suies (un linge placé sur l’échappement reste propre), sans émettre de particules, ni d’oxydes de soufre, et en dégageant peu de dioxyde de carbone. C’est un carburant d'auto-allumage par compression, qui peut fonctionner en mélange avec le diesel, ou en remplacement de celui-ci.

Le carburant connu le plus proche du DME du point de vue de ses caractéristiques est le GPL (gaz de pétrole liquéfié). Les chinois utilisent d’ailleurs le DME en mélange dans le GPL. L’usage du GPL ne s’est pas diffusé en France, à cause de l’explosion des réservoirs en cas d’incendie, avant que la réglementation n’impose une soupape de sécurité, et à cause de l’offre limitée des constructeurs en véhicules adaptés.

Le DME pose les mêmes problèmes de sécurité et de distribution comme le GPL, et est facile à transporter et à stocker. Mais il présente par rapport à lui quatre avantages majeurs : l’indice de cétane du DME est supérieur (ce qui facilite l’autoallumage) ; sa production est possible par plusieurs sources, dont la biomasse (via le méthanol) ; le gaz naturel peut servir de source même à partir d’un petit champ d’exploitation ; les droits de propriété intellectuelle sur les techniques de production sont plus ouverts pour le DME que pour le GPL (Shell est hostile pour cette raison au DME).

Une particularité gênante du DME est lié au fait qu’il s’agit d’un éther, et donc qu’il dissout le caoutchouc et le plastique. Il faut donc prévoir des matériaux résistants dans les moteurs qui l’utilisent. Par ailleurs, il s’agit d’un produit « sec » qui use particulièrement le dispositif d’injection, même si les tests réalisés par des camions de l’AIST ont permis de mettre au point une configuration technique permettant une bonne résistance à cet égard.

Pour assurer la diffusion du DME, une importante activité de normalisation ISO est en cours, auquel Total prend une part active.

Mais le besoin d’un système de distribution spécifique va a priori handicaper fortement le développement du DME, qui devra rester cantonner à des flottes captives, ce qui est l’inconvénient commun de toutes les sources d’énergie alternatives pour les transports.

Le développement du DME apparaît comme un élément de la stratégie de diminution des émissions de gaz carbonique, dans la mesure où ce nouveau carburant limite les émissions diffuses, en déplaçant la génération de gaz carbonique au niveau centralisé de la production, c'est-à-dire à un stade où, d’une part, il peut plus facilement être capturé, et d’autre part, il peut être réutilisé comme composant chimique ; car c’était un des grands intérêts du pilote de Kushiro de tester un mode de production directe du DME réinjectant dans le processus les émissions secondaires de gaz carbonique. D’une certaine façon, on retrouve là l’idée, peut-être caractéristique de la stratégie japonaise, d’aborder la question de l’émission de gaz carbonique au stade de la production industrielle, par plus d’efficacité dans l’utilisation des ressources carbonées.

La planification de la recherche

Une rencontre avec Mme Yuko Harayama, professeur à l’Université de Tohoku, et membre du conseil d’administration de Saint-Gobain, organisé à la suite d’une recommandation que M. Jean-Louis Beffa avait formulée lors de son audition du 19 juin 2008, a permis de découvrir le dispositif institutionnel en charge de la stratégie de la recherche au Japon. Mme Harayama est une spécialiste de l’économie de la science et de la technologie. Les explications de Mme Harayama ont été utilement complétées par des éléments fournis par M. Pierre Destruel, Attaché pour la science et la technologie à l’Ambassade.

Mme Yuko Harayama a indiqué qu’elle avait été membre depuis 2006 et jusqu’à récemment du Council for Science and Technology Policy (CSTP), structure rattachée directement au Premier ministre, chargée de piloter l’effort de recherche japonais.

Il ne s’agit pas de l’un de ces organismes évanescents producteurs de rapports non suivi d’effet, dont on a le secret dans certains autres pays : le CSTP se compose pour moitié de personnalités scientifiques, pour l’autre moitié de ministres en exercice concernés par la recherche ; il se réunit environ tous les deux mois, sous la présidence physique effective du Premier ministre. Il s’agit quasiment d’un conseil des ministres restreint régulier, élargi à des universitaires ou des industriels reconnus.

Le CSTP assure l’élaboration, et l’évaluation au niveau de la mise en oeuvre, de grands plans quinquennaux pour la recherche, dont le premier, mis en place par une loi sur la science et la technologie de 1995, a couvert la période 1996-2000. Le CSTP a été institué en janvier 2001, et a pris en charge le deuxième plan (2001- 2005), puis le troisième (2006-2010) actuellement en cours de mise en œuvre.

Ce troisième plan prévoit une mobilisation de plus de 200 milliards de dollars, et retient l’énergie comme l’une de ses priorités de second rang, la primauté allant globalement à la recherche fondamentale, et s’agissant des efforts sectoriels, à la recherche sur les sciences de la vie, les technologies de l’information, les sciences de l’environnement, les nanotechnologies et les matériaux. Le CSTP reçoit spécifiquement comme mission, pour ce troisième plan, d’une part de renforcer le management de la recherche publique et, d’autre part, de lever les éventuels goulots d’étranglement « institutionnels ou opérationnels ».

Le CSTP ne dispose pas de moyens propres importants, à l’exception d’un petit budget de fonctionnement rattaché au ministère de l’Education et de la Recherche (MEXT), et d’un secrétariat composé d’une centaine de fonctionnaires mis à disposition pour quelques années. Les financements de soutien passent par des agences de moyens comme le JSPS (Japan Society for the Promotion of Science), le JST (Japan Science and Technology Agency) ou la NEDO.

Il inscrit son empreinte en fonctionnant en osmose avec les milieux politiques et administratifs pilotant la recherche : les commissions et les groupes parlementaires, qui invitent les membres du CSTP à leurs réunions de réflexion ou de décision ; la haute administration, dont certains membres travaillent directement pour le CSTP dans le cadre d’une mise à disposition, et qui gardent le contact avec leurs anciens collègues.

Mme Harayama a expliqué que c’était un choix fondamental d’organisation que d’avoir privilégié une structure légère. Cela doit permettre notamment d’éviter des biais de pilotage produits par des pratiques de maximisation du pouvoir, ou de capture par des intérêts privés, bien identifiées depuis le développement des analyses économiques de l’école du Public Choice, qui décrivent les mécanismes conduisant les grands ensembles administratifs au dysfonctionnement. Inversement, cette structure légère nuit à l’autonomie du CSTP qui risque de tomber sous l’influence des ministères, vers lesquels les fonctionnaires détachés reviennent après leur passage temporaire dans le secrétariat du CSTP, ce qui les poussent à ne pas soutenir des positions pouvant gêner leur carrière future au sein des ministères.

Le METI assure de son côté une fonction de pilotage de la recherche qui est de fait relativement autonome par rapport aux prescriptions du CSTP ; cependant, il en respecte les grandes lignes.

S’agissant du management de la recherche, Mme Harayama a estimé qu’il était difficile d’obtenir des résultats en ayant recours à des missi dominici parachutés pour assurer le pilotage des projets, car ceux-ci ont du mal à avoir autorité sur les services compétents des ministères. Par ailleurs, la mise en place d’un grand nombre de chefs de projet finit par soulever des difficultés de mise en cohérence de leurs actions. En outre, ce type de structuration a tendance à rigidifier la structure d’ensemble de l’appareil de recherche, au détriment de sa capacité d’adaptation à l’évolution des besoins. Mme Harayama a estimé que ce genre de difficultés structurelles se manifestaient déjà au Japon ; de là sans doute, l’objectif mentionné dans le troisième plan de lever les éventuels goulots d’étranglement « institutionnels ou opérationnels ».

La multiplication des agences impliquées dans l’effort de recherche (NEDO, JST, JSPS) a soulevé la question d’un éventuel regroupement institutionnel, auquel le METI notamment serait favorable. La multiplicité des acteurs n’empêche cependant pas un effort de coordination, voie privilégiée pour l’instant. Elle permet également de faire émerger plus facilement l’information relative à l’état des programmes de recherche, ce qui est utile pour améliorer l’allocation des ressources.

La pile à combustible pour le transport

La visite du Japan Hydrogen and Fuel Cell Park, créé à Yokohama à l’initiative du METI, montre que l’intérêt de la communauté scientifique pour la pile à combustible est toujours vivace, bien que Mme Harayama ait signalé que l’engouement semblait moindre aujourd’hui par rapport à ce qu’il était voilà une dizaine d’années.

C’est la pile de type PEFC (Polymer Electrolyte Fuel Cell) qui est privilégiée pour le transport parce qu’elle fonctionne dans les conditions normales de température et de pression, et qu’elle peut être compactée dans une taille relativement réduite.

Cependant la pureté requise de l’hydrogène atteint 99,99%, et il faut encore faire des progrès sur la durée de vie des piles (5000 heures en 2030, contre 2000 heures aujourd’hui), et sur leur coût (30 euros le kW en 2030 contre 300 euros environ aujourd’hui). Dans ce coût, le prix du platine utilisé comme catalyseur entre pour une partie essentielle.

Une des motivations fortes de l’intérêt du Japon pour la pile à combustible est la disponibilité potentielle importante d’hydrogène en sous-produit de la fabrication d’acier et de soude caustique : Japan Steel aurait commencé la recherche et le développement de techniques permettant de récupérer l'hydrogène issu de la fabrication de coke ; la plate-forme d'essai installée produirait déjà 0,2 tonne d’hydrogène par jour ; évidemment, c’est une ressource pure à 70% seulement qu’il faudrait ensuite raffiner. Mais cette disponibilité abondante créée une différence de contexte avec l’Europe, où l’industrie lourde susceptible de dégager de l’hydrogène en sous-produit est en recul.

L’efficacité énergétique

Le Japon dispose d’une structure entièrement dédiée à l’étude et à la mise en œuvre de l’efficacité énergétique, appelée Energy Conservation Center (ECCJ). On nous y a rappelé le contexte général des engagements de Kyoto pour le Japon : une diminution des émissions de gaz à effet de serre de 6%, en 2012, par rapport au niveau atteint en 1990, ce qui correspond à un effort de 12% par rapport à la situation actuelle, déjà en dérive de 6% par rapport au niveau atteint en 1990. Sur ces 12%, la contribution de l’efficacité énergétique atteindrait 4,8%, c'est-à-dire que l’effort sur l’efficacité énergétique doit permettre à elle seule de réaliser 40% de la réduction attendue des émissions. Cela correspondrait à un accroissement intrinsèque de l’efficacité énergétique, c'est-à-dire à une économie supplémentaire d’énergie pour atteindre les mêmes objectifs industriels, de l’ordre de 23%.

Ce gain de 23% devra être accompli alors que le Japon a déjà amélioré son intensité énergétique de 30% sur les dix ans qui ont suivi la crise pétrolière de 1973, et d’encore 10% sur les vingt années qui ont suivi, plaçant au total le Japon au premier rang de l’efficacité énergétique mondiale, en Tep mobilisé par point de PIB.

L’effort se partagera entre un surcroît de progrès technique (5%), l’apport d’un audit des installations existantes (7%), et une meilleure intégration des préoccupations d’efficacité énergétique dans la gestion courante (11%).

Parmi les démarches de mise en œuvre qui ont été présentées, quatre méritent attention :

1. Le principe d’un diagnostic gratuit effectué sur une journée par une équipe de deux inspecteurs du ECCJ, l’un compétent en énergie électrique, l’autre en énergie thermique. Environ 400 usines et autant de bâtiments font l’objet d’un audit chaque année. Les recommandations bénéficient de tout un arsenal d’aides publiques sous forme de prêt à taux préférentiel pour leur mise en œuvre. L’expérience passée (1997-2003) montre que le gain d’efficacité énergétique ainsi obtenu est bien de l’ordre de 7%;

2. L’obligation, en vertu de la loi, de nommer dans chaque usine, un « Energy Manager », qui a un rôle de conseil auprès de la direction, et de formation auprès des employés. Sa qualification est sanctionnée par un diplôme national obtenu après une session de formation ou un stage de validation, selon son niveau d’expérience professionnelle. Ce rôle est voisin de celui que joue, en Europe, le « correspondant informatique et Libertés » pour la protection des données personnelles. L’avantage d’une certification nationale est qu’elle transforme tous ces « Energy Manager » en un réseau de diffusion des « bonnes pratiques » en matière d’économie d’énergie, puisque l’ECCJ organise mensuellement des sessions de présentation d’une dizaine de cas intéressants traités avec succès ;

3. L’adoption de la démarche « Top Runner » qui consiste à fixer les objectifs à atteindre en matière d’efficacité énergétique en prenant comme référence la meilleure performance dans la catégorie. Un profil cible d’augmentation de l’efficacité énergétique, calé sur la meilleure performance constatée, est défini sur une période de moyen terme pour chaque catégorie de produits, de l’automobile à l’ordinateur. La mise en place du dispositif de référence constitue le cœur de métier de l’ECCJ, le METI s’occupant de surveiller le respect de sa mise en œuvre en formulant publiquement des recommandations aux entreprises accumulant des écarts ;
4. L’appel à la vigilance des consommateurs. Cela passe essentiellement par un système d’étiquetage et de publication qui met en évidence les résultats des produits par rapport au programme « Top Runner ».

Les bilans effectués sur la première période d’application du programme « Top Runner » montre que les objectifs cibles ont été atteints et dépassés. Manifestement, l’effort déployé pour mettre en œuvre ce programme montre l’importance que le Japon accorde à l’efficacité énergétique dans sa stratégie d’adaptation de sa consommation d’énergie fossile.

L’énergie nucléaire

Les rencontres avec le conseiller nucléaire de l’Ambassade (M. Pierre-Yves Cordier), avec les représentants d’Areva sur place (MM. Rémy Autebert et Christophe Xerry), ainsi qu’une discussion à l’AIST avec M. Yoshio Watanabe, directeur de la recherche sur les environnements géologiques profonds, ont permis de faire le point sur la situation de l’énergie nucléaire au Japon.

• Renouveau de l’énergie nucléaire

Le premier Ministre Fukuda a indiqué, en avril 2008, à la 41e conférence annuelle du Japan Atomic Industrial Forum (JAIF), que l’énergie atomique était la clef du problème du changement climatique.

Le METI a décidé, en mai 2007, une diminution de la fréquence des inspections des centrales nucléaires pour augmenter la disponibilité des centrales nucléaires et donc leur rendement global. Le taux de fonctionnement des centrales atteint 70% au Japon contre 90% aux États-Unis. L'amélioration du rendement des centrales représente un enjeu environnemental : s’il atteint 90%, les émissions de gaz carbonique seraient réduites de 4%.

Le METI a annoncé, en juillet 2007, son intention d'encourager les laboratoires universitaires à travailler sur les technologies nécessaires à la construction de centrales nucléaires, telles que les matériaux ou le soudage. Une aide de plus de 2 millions d'euros va être distribués sur trois ans aux laboratoires concernés.

Il a donné son accord, en avril 2008, à la construction de la centrale de Ohma (1380 MW), première autorisation de construction de centrale nucléaire au Japon depuis 10 ans. La mise en marche est prévue pour 2014. Le coût total estimé est de l’ordre de 3 milliards d'euros. Ce sera la première centrale fonctionnant à 100% au MOX, le pourcentage de MOX ne dépassant pas en général 30%. Le lancement d’une dizaine d’autres centrales est en projet d’ici 2018.

• Avancée du dispositif de retraitement

En novembre 2008, la société Japan Nuclear Fuel (JNFL) a annoncé pour mars 2009 un nouveau report du démarrage de l'usine de retraitement de déchets nucléaires de Rokkasho-Mura, construite avec l’aide d’Areva sur le modèle de l’usine de La Hague. Ce sont les phases expérimentales relatives à la vitrification, dont le procédé ne reprend pas celui d’Areva, qui se révèlent particulièrement difficiles. De fait, les reports s'enchaînent depuis plus d'un an tous les deux ou trois mois.

Une usine de MOX, construite sur le même site, doit entrer en service en 2012.

• Impact des séismes

En mars 2007, un séisme de magnitude 6,9 a secoué la péninsule de Noto dans le centre du Japon provoquant des dégâts mineurs dans la centrale nucléaire de Shika située à 21 km de l'épicentre.

En juillet 2007, un séisme de magnitude 6,8 a atteint la centrale nucléaire de Kashiwazaki-Kariwa, située à 9 kilomètres de l'épicentre. Mais les dégâts sont restés là encore mineurs : un incendie s'est déclaré au niveau d'un transformateur électrique, provoqué par la rupture d'un câble consécutive à un affaissement de terrain ; il n'a été maîtrisé que deux heures après, parce que les pompiers ont jugé ce foyer moins prioritaire ; une fuite d'eau a déversé 12.000 litres d'eau radioactive dans la mer, mais sans que le taux de dilution atteint présente un risque.

• Surgénérateur de Monju

D’une puissance de 280 MW, il fait partie du site nucléaire de Tsuruga, situé dans la région centrale de l'île de Honshu, et exploité par la compagnie japonaise de l'énergie atomique (JAPC). Il est à l’arrêt depuis 1995, après que des vibrations du circuit secondaire de refroidissement ont causé la rupture d'une sonde thermométrique, permettant la fuite de plusieurs centaines de kilogramme de sodium liquide, qui se sont enflammés au contact de l’humidité de l’air. Le redémarrage est annoncé pour les prochains mois, en 2009.

• Gestion des déchets

Un site de stockage des déchets de faible activité est en service à Rokkasho-Mura, mais toutes les tentatives pour définir un site de stockage des déchets à haute activité se sont heurtées à l’hostilité de la population locale. En 2005, un maire a annoncé la candidature de sa commune, puis a démissionné pour provoquer une consultation implicite liée à sa réélection, et a été sévèrement battu. En 2007, un autre maire a retiré la candidature de sa commune quatre jours après l’avoir annoncée, du fait de l’opposition de ses concitoyens.

M. Yoshio Watanabe a évoqué, comme facteur fondamental d’hostilité de la population, le traumatisme du bombardement nucléaire. Il a expliqué qu’un effort se poursuivait néanmoins pour trouver de nouveaux arguments permettant de convaincre de la possibilité d’un stockage dans de bonnes conditions de sûreté.

En marge de la visite, des échanges ont eu lieu avec Pierre Destruel, Attaché pour la science et la technologie, mais avant tout Professeur des universités, et ancien chercheur dans le domaine de l’énergie photovoltaïque organique au laboratoire LAPLACE de l’Université de Toulouse.

M. Pierre Destruel a conduit diverses réflexions sur l’organisation de son domaine de recherche à la demande de la direction du CNRS, notamment dans un rapport de juillet 2008 sur « L’électronique organique en France ». Il y préconise de regrouper les multiples pôles de recherche sur l’énergie photovoltaïque organique, les diodes électroluminescentes organiques et les transistors à effet de champ organiques, au sein d’une seule entité de recherche sur « l’électronique organique ». Ce regroupement permettrait d’atteindre une taille critique maximisant les effets de synergie entre ces différents pôles, et de concentrer les soutiens nationaux et européens, jusque là saupoudrés ; cette structure de recherche renforcée pourrait aussi plus facilement s’articuler sur un dispositif de valorisation industrielle. La région bordelaise serait la plus à même d’accueillir un éventuel pôle géographique commun, compte tenu des acteurs déjà présents dans la région.

*

* *

En conclusion, le Japon offre le curieux exemple, vu de France, d’un pays très spontanément ouvert à la technologie, et représenté par des entreprises privées connues pour leur capacité à investir fortement dans la R&D, qui a éprouvé le besoin de restructurer son effort public de recherche, pourtant minoritaire. Le secteur privé finance 80% de l’effort de recherche au Japon contre seulement 50% en France. En fait, il s’est agi, avec la création du CSTP, moins de renforcer l’effort public de recherche, que d’en faire un outil de pilotage de l’ensemble de l’effort national, les entreprises japonaises ayant la caractéristique de suivre les impulsions données par leurs autorités publiques. La définition d’une stratégie de la recherche vise manifestement au Japon à organiser et orienter un élan spontané du secteur privé, pour éviter la perte d’efficacité liée à une dispersion.

La France, quoique se trouvant dans une situation bien différente, avec un poids déterminant de la dépense publique de R&D (0,9% du PIB contre 0,7% au Japon), ne peut que gagner à s’inspirer de l’exemple du CSTP pour l’élaboration d’une stratégie de recherche.

Il semble aussi que le Japon montre une autre voie que celle du stockage du gaz carbonique pour lutter contre le changement climatique : c’est une mobilisation intense autour de l’efficacité énergétique, qui permet la diminution de l’émission de gaz carbonique à travers le soutien aux efforts d’économie d’énergie.

1 Conférence des Nations Unies sur l’environnement et le développement. Elle s’est tenue à Rio de Janeiro, au Brésil, du 3 au 14 juin 1992, et a réuni les représentants de 178 pays, dont 110 chefs d'État et de gouvernement.

2 « http://www.industrie.gouv.fr/energie/recherche/f1e_rech.htm »

3 La stratégie préconisée par le comité opérationnel sur la recherche n’omet ni les axes prioritaires relatifs à l’énergie nucléaire (prolongement de la durée des réacteurs, gestion durable des déchets radioactifs), ni ceux relatifs aux énergies fossiles (amélioration de l’efficacité énergétique, production de produits propres, amélioration des taux de récupération à l’extraction).

4 « Rapport sur les nouvelles technologies de l’énergie », juin 2004, p.55.

5 Cf. le compte rendu de son audition du 10 avril 2008.

6 Cf. le compte rendu de son audition du 19 juin 2008.

7 Cf. le compte rendu de la mission des rapporteurs aux États-Unis.

8 Cf. http://www.industrie.gouv.fr/liste_index/technocles2010.html.

9 En moyenne, dans l’OCDE, la recherche publique exerce sur l’ensemble de l’effort de recherche un effet de levier correspondant à un facteur 3. Le rapport d’information de juin 2008 des sénateurs Joseph Kergueris et Claude Saulnier sur la recherche et l’innovation en France montre que l’effet de levier est moitié moindre dans notre pays, alors qu’il est supérieur à 4 au Japon (p.32 et suiv.). Mais ces données concernent tous les domaines de recherche considérés globalement, et non l’énergie spécifiquement.

10 “Prospective sur l’énergie au XXIe siècle”, Commission “Energie et changement climatique”, octobre 2008.

11 Article L.542-3 du code de l’environnement.

12 European Research Programme for the Transmutation of High Level Nuclear Waste in an Accelerator Driven System.

13 Par exemple, la recherche sur le bioéthanol de deuxième génération (« l’éthanol cellulosique » pour les Américains) vise à mettre au point les meilleures solutions pour la plante devant fournir la cellulose, l'enzyme devant détruire la carapace de lignine, et le microbe devant assurer la fermentation. Le DOE a réparti la tâche entre trois laboratoires fédéraux : le Bioenergy Science Center de Oak Ridge (Tennessee) étudie les composants biologiques déjà disponibles à l'état naturel, le Joint Bioenergy Institute de Berkeley (Californie) recourt à la biologie de synthèse (synthetic biology) pour concevoir des composants améliorés, et le Great Lakes Bioenergy Research Center de Madison (Wisconsin) est chargé d’optimiser les procédés de fabrication. Cette division du travail paraît assez théorique.

14 Cf. le communiqué de presse du ministère de l’Industrie.

15 TIPP : taxe intérieure sur les produits pétroliers ; TICGN : taxe intérieure de consommation sur le gaz naturel.

16 En liaison avec le Comité d'Etudes Pétrolières et Marines (CEP&M), qui a disparu lui aussi un peu plus tard.

17 « Perspectives énergétiques de la France à l’horizon 2020-2050 », Centre d’analyse stratégique, Commission Energie présidée par Jean Syrota, La documentation française, février 2008, p.147.

18 « Document récapitulatif des tables rondes tenues à l’Hôtel de Roquelaure les 24, 25 et 26 octobre 2007 », p.2

19 « Le bâtiment sans énergies fossiles ? », Christophe Marchand et alii, Futuribles, n°343, juillet-août 2008.

20 « ETNA : Essais thermiques en climat naturel ou artificiel ».

21 Articles 14 à 17 de la loi de programme du 13 juillet 2005 fixant les orientations de la politique énergétique. L’article 16 du projet de loi de programme relatif à la mise en œuvre du Grenelle de l’environnement prévoit le renforcement du mécanisme.

22 « Positionnement des électriciens sur la performance énergétique », Conférence organisée en février 2008 par la CSEE : http://www.cseee.fr/Conf_6022008.html.

23 « Maîtrise de l’énergie et énergies renouvelables : chiffres clés 2007 », disponible sur le site Internet de l’ADEME.

24 Le même document de l’ADEME rappelle que : 1 tep = 11 628 kWh.

25 La réglementation thermique 2005 fixe à 2,58 le coefficient de transformation en énergie primaire pour les consommations et les productions d’électricité (article 35 de l’arrêté du 24 mai 2006).

26 Cf. Rapport d’activité de l’ADEME pour l’année 2007, p.17.

27 Le watt-crête (Wc) mesure la puissance théorique maximale qu’un module peut produire dans des conditions standard d’ensoleillement.

28 Un temps propriété des fonds Doughty Hanson, après sa cession par Alcatel en janvier 2004, Saft est, depuis avril 2007, une société anonyme avec un capital détenu à 4% par la direction et les employés, 96% restant flottant.

29 Ce chiffre est obtenu en tenant compte de ce que seule une partie de l’eau stockée est véritablement utilisée, correspondant à la tranche d’eau de 20 mètres de hauteur située en haut du réservoir, à une altitude moyenne de 40 mètres, si la hauteur émergée de la digue atteint 50 mètres. L’énergie mécanique potentielle ainsi accumulée sur un kilomètre carré (soit un million de mètres carrés) est : 20×1 000 000×w×40, w étant le poids d’un mètre cube d’eau en Newton, soit 1000×9,81. On obtient ainsi 7 848 GJ, soit 2,18 GWh d’énergie potentielle, c'est-à-dire 1,96 GWh d’énergie électrique puisque le rendement du turbinage est d’environ 90%. Si la hauteur émergée de la digue atteint 100 mètres, la tranche d’eau utile a une épaisseur de 40 mètres et une hauteur moyenne de 80 mètres, donc l’énergie stockée est quatre fois plus importante.

30 L’apport de la capacité de stockage d’un atoll peut également s’apprécier en prenant en compte le « facteur de charge » de l’énergie éolienne, calculé à partir de la production moyenne effective. Les estimations le situent habituellement entre 20% et 33% (20% dans la CE, selon les données du baromètre de l’éolien, n°183 du Journal des énergies renouvelables), ce qui correspond, pour un parc de 25 GW à une puissance effective moyenne de 5 à 8 GW. Un ou deux atolls de stockage suffiraient donc pour stabiliser les fluctuations de la production du parc éolien français de 2020 autour de sa valeur moyenne effective.

31 Association nationale pour le développement des carburants agricoles.

32 Il s’agit d’une décomposition par l'eau.

33 Ce procédé permet de transformer du gaz de synthèse, mélange d’hydrogène et de monoxyde de carbone, en une cire. Il porte le nom des deux ingénieurs allemands qui l’ont mis au point en 1920.

34 L’hydrocraquage est une opération chimique, réalisée sous pression d’hydrogène, permettant de scinder les longues chaînes moléculaires des hydrocarbures lourds pour obtenir des hydrocarbures plus légers.

35 Ceux de l’Agence de l’innovation industrielle, absorbée par Oseo au 1er janvier 2008..

36 La protection cathodique consiste à déporter le processus de corrosion sur des électrodes faites d’un métal ayant un potentiel plus électronégatif que le métal à protéger ; ces anodes sacrificielles doivent alors être régulièrement remplacées.

37 « Rapport sur les moyens consacrés à la politique énergétique », « jaune » budgétaire présenté en annexe au projet de loi de finances pour 2009 (p.27).

38 Cf les articles suivants : « Eoliennes : nouveau souffle ou vent de folie ? », Amicus Curiae, Institut Montaigne, juillet 2008 ; « Pour en finir avec les contre-vérités sur le coût de l’énergie éolienne », Note du Syndicat des énergies renouvelables, septembre 2008 ; « Pour rétablir la vérité sur le coût de l’éolien », Amicus Curiae, Institut Montaigne, novembre 2008.

39 « 10 questions à Gilbert Ruelle sur l’éolien : une énergie du XXIe siècle ? », Académie des technologies, Commission « Energie et changement climatique », 23 août 2008.

40  Source : http://www.bmwi.de/BMWi/Navigation/Energie/energiestatistiken.html (Site Internet du Bundesministerium für Wirtschaft und Technologie).

41 Brochure « Energies et Matières premières », Commissariat général au développement durable, octobre 2008, p.27.

42 Laboratoire d’énergétique et de mécanique théorique et appliquée (Nancy)

43 Par William Robert Grove, avocat puis juge britannique, pratiquant la chimie en amateur.

44 Cf. « http://www.ipcc.ch/pdf/special-reports/srccs/srccs_spm_ts_fr.pdf », tableau p. 2 de ce document..

45 Rapport spécial sur le piégeage et stockage du dioxyde de carbone, p.8.

46 Idem, p.32 et 33.

47 Idem, p.9

48 Rapport d'information au nom de la Commission chargée des affaires européennes sur le paquet "Energie-Climat", novembre 2008.

49 L'étude « Technologies clés 2010 » mentionnée dans la partie I comporte une fiche intitulée « Capture et stockage géologique du CO2 avec nouvelle conception de centrale à charbon », qui constate l’existence d’un marché, (« la production d'électricité à partir de charbon continuera à jouer un rôle majeur dans les zones disposant de réserves de charbon abondantes »), mais sans analyser ni ses caractéristiques en termes de barrières à l’entrée, ni les actions déjà engagées dans les principaux pays concernés.

50 Cf. le site officiel canadien EcoAction : http://www.ecoaction.gc.ca/news-nouvelles/20081219-fra.cfm.

51 Cf. le site du comité Nobel : http://nobelprize.org/nobel_prizes/economics/laureates/2008/press.html : "for his analysis of trade patterns and location of economic activity".

52 Cf. “Is Free Trade “Passé” ?” Paul R. Krugman. The Journal of Economic Perspectives, Vol. 1, No. 2. (Autumn, 1987), pp. 131-144; ou encore: “Trade Policy and Market Structure”, E. Helpman and P. Krugman (1989), MIT Press.

53 Le rapport spécial du GIEC, « Piégeage et stockage du dioxyde de carbone » indique : « Quoique ces sources [les grandes sources fixes de CO2] soient réparties un peu partout sur le globe, les bases de données révèlent que les émissions sont particulièrement concentrées dans quatre régions, à savoir l’Amérique du Nord (centre-ouest et est des États-Unis d’Amérique), l’Europe (nord-ouest), l’Asie de l’Est (côte est de la Chine) et l’Asie du Sud (sous-continent indien). » (p. 21)

54 Le communiqué de presse du ministère de l’Industrie, lors de la signature du contrat d’objectifs, le 13 février 2007, résume ainsi l’une des cinq missions de l’IFP : « L’IFP contribue à l’effort de recherche international sur les procédés de captage, de transport et de stockage géologique du CO2. ». Dans son discours marquant l’événement, M. François Loos, ministre délégué à l’Industrie, a cité le CSC comme relevant de la part de la recherche menée par l’IFP « dénuée de retombées économiques immédiates ». Le contrat d’objectifs mentionne le captage et stockage du CO2 en exemple de l’action européenne de l’IFP (p.62)

55 Cf. : http://www.cslforum.org

56 Pour ne pas exagérer les inconvénients, on laissera ici de côté l’effet dit « Ricardo-Barro », qui annihile la stimulation initiale même en cas d’emprunt, du fait que les contribuables anticipent l’augmentation future des impôts, nécessaire pour faire face aux remboursements, en réduisant immédiatement leur consommation.

57 Romer Paul : Increasing Returns and Long Run Growth, Journal of Political Economy, octobre 1986; Robert Lucas : On the Mechanics of Economic Development, Journal of Monetary Economics, juillet 1988.

58 Cf. http://www.bulletins-electroniques.com/actualites/56134.htm

59 Les rapporteurs préconisent que la grille géographique de basse consommation pour les bâtiments neufs :

1°) distingue le cas du chauffage par énergies renouvelables à côté des cas déjà retenus du chauffage électrique et des combustibles fossiles, pour mieux tenir compte des émissions de gaz à effet de serre ;

2°) identifie des zones géographiques de consommation très basse, de manière que la norme moyenne nationale de 50 kWh par m² et par an puisse être respectée.

60 AgroParisTech, CEA Saclay, CNRS, Ecole Polytechnique, Ecole Centrale Paris, ENS Cachan, ENSTA ParisTech, INRA, Mines ParisTech, PRES ParisTech, PRES UniverSud Paris, Supélec, Université Paris-Sud 11, Université Versailles Saint-Quentin.

61 EDF R&D, GDF Suez, Air Liquide, Total, Schlumberger, Lafarge, Schneider Electric.

62 Integrated Gasification Combined Cycle : Centrale à gazéification intégrée du charbon.

63 Abréviation de « Petroleum coke », résidu de raffinerie très pur en carbone. Un mélange de petcoke et de vapeur d’eau porté à une température de 1000°C se transforme en « gaz de synthèse » constitué de monoxyde de carbone et d’hydrogène, qu’il faut ensuite isoler.

64 Areva et Nuclear Power Corporation of India Limited (NPCIL) ont conclu le 4 février 2009 à Delhi un protocole d'accord ouvrant la voie à une collaboration dans le domaine de la production d'électricité nucléaire. Il s’agit de construire de deux à six réacteurs EPR à Jaitapur, dans l'État du Maharashtra, et de fournir du combustible pendant toute la durée de vie de ces réacteurs, soit 60 ans. L’Inde ambitionne de porter la part nucléaire de sa production électrique de 2,5% à 25% d’ici 2050. L’accord a été rendu possible par la levée, en septembre 2008, de l'embargo international imposé à l'Inde pour n'avoir pas signé le Traité de non-prolifération.

65 Ce chiffre est obtenu en tenant compte de ce que seule une partie de l’eau stockée est véritablement utilisée, correspondant à la tranche d’eau de 20 mètres de hauteur située en haut du réservoir, à une altitude moyenne de 40 mètres. L’énergie mécanique potentielle ainsi accumulée sur un kilomètre carré (soit un million de mètres carrés) est : 20 × 1 000 000 × w × 40, w étant le poids d’un mètre cube d’eau en Newton, soit 1 000 × 9,81. On obtient ainsi 7 848 GJ, soit 2,18 GWh d’énergie potentielle, c'est-à-dire 1,96 GWh d’énergie électrique puisque le rendement du turbinage est d’environ 90%.

66 M. Bugat a été consulté pour l’élaboration du rapport sur « Les nouvelles technologies de l’énergie » de M. Thierry Chambolle. Il était président d’un des six groupes de travail (celui consacré aux « Evolutions technologiques ») constitués au sein de la Commission Energie présidée par M. Jean Syrota, qui a rendu en septembre 2007, au nom du Conseil d’analyse stratégique, un rapport sur « Les Perspectives énergétiques de la France à l’horizon 2020-2050 ».

67 Article 169 : « Dans la mise en œuvre du programme-cadre pluriannuel, la Communauté peut prévoir, en accord avec les États membres concernés, une participation à des programmes de recherche et de développement entrepris par plusieurs États membres, y compris la participation aux structures créées pour l'exécution de ces programmes. »

Article 171 : « La Communauté peut créer des entreprises communes ou toute autre structure nécessaire à la bonne exécution des programmes de recherche, de développement technologique et de démonstration communautaires. »

68 L’arrêté du 10 juillet 2006 prévoit une prime à l’intégration au bâti, dont va bénéficier par exemple une production à partir de tuiles photovoltaïques remplaçant des tuiles classiques, mais pas une production à partir de panneaux solaires déployés sur une terrasse.

69 Le Nordel (mot formé de la contraction de Nord et électricité) est l'organisme qui coordonne les réseaux électriques interconnectés des Pays nordiques.

70 Ces lois expriment la conservation de l'énergie et de la charge dans un circuit électrique.

71 L’uranium « recyclé » provient du retraitement des combustibles usés ; l’uranium « appauvri » est le résidu de la production d’uranium « enrichi » (ce qui signifie enrichi en isotope 235).

72 Il faudrait environ 315 000 éoliennes.

73 Ecole nationale supérieure du pétrole et des moteurs.

74 En 1986, les travaux de Georg Bednorz et Alexander Müller, au laboratoire de recherche d’IBM à Zürick, ont permis de relever d’un coup la température du phénomène de supraconductivité, qu’il semblait impossible de faire progresser depuis 1973. Ce succès leur a valu le prix Nobel dès l’année suivante.

75 La puissance crête représente la puissance délivrée par un panneau d'un décimètre carré au point de puissance maximum, c'est-à-dire pour une irradiation solaire de 1 000 W/m2.

76 Un autre thème de recherche mis en avant concerne l'absorption partielle du CO2 dans les fumées à l'aide d'absorbants, dans le but de valoriser le CO2 en le recyclant dans des nouveaux produits.

77 En France, 550 TWh.

78 La papeterie représente 6% du PIB finlandais, et emploie au total 200.000 personnes. Le secteur plus large du bois et du papier représente 14% du PIB.

79 Ce projet met en valeur la diminution de l’effet de serre induite par la disparition des tourbières.

80 Cinq pompes ont été fermées, mais dix nouvelles doivent être implantées, selon le site Internet du California Hydrogen Highway.

81 Pressurized Fluidized Bed Combustion.


© Assemblée nationale