LES ENJEUX ET LES PERSPECTIVES DE L’ÉPIGÉNÉTIQUE
DANS LE DOMAINE DE LA SANTÉ
TOME I : Rapport
par
MM. Alain CLAEYS et Jean-Sébastien VIALATTE, députés
par M. Jean-Yves LE DÉAUT, Président de l’Office |
par M. Bruno SIDO, Premier vice-président de l’Office |
Composition de l’Office parlementaire d’évaluation des choix scientifiques
et technologiques
Président
M. Jean-Yves LE DÉAUT, député
Premier vice-président
M. Bruno SIDO, sénateur
Vice-présidents
M. Christian BATAILLE, député M. Roland COURTEAU, sénateur
Mme Anne-Yvonne LE DAIN, députée M. Christian NAMY, sénateur
M. Jean-Sébastien VIALATTE, député Mme Catherine PROCACCIA, sénateur
DÉputés |
SÉnateurs |
M. Bernard ACCOYER M. Gérard BAPT M. Christian BATAILLE M. Alain CLAEYS M. Claude de GANAY Mme Françoise GUÉGOT M. Patrick HETZEL M. Laurent KALINOWSKI Mme Anne-Yvonne LE DAIN M. Jean-Yves LE DÉAUT M. Alain MARTY M. Philippe NAUCHE Mme Maud OLIVIER Mme Dominique ORLIAC M. Bertrand PANCHER M. Jean-Louis TOURAINE M. Jean-Sébastien VIALATTE |
M. Patrick ABATE M. Gilbert BARBIER Mme Delphine BATAILLE M. Michel BERSON M. François COMMEINHES M. Roland COURTEAU Mme Catherine GÉNISSON Mme Dominique GILLOT M. Alain HOUPERT Mme Fabienne KELLER M. Jean-Pierre LELEUX M. Gérard LONGUET M. Pierre MÉDEVIELLE M. Franck MONTAUGÉ M. Christian NAMY M. Hervé POHER Mme Catherine PROCACCIA M. Bruno SIDO |
SOMMAIRE
___
Pages
I. LE DÉVELOPPEMENT CONTINU DES CONNAISSANCES EN GÉNÉTIQUE 19
A. LA DÉCOUVERTE DE LA COMPLEXITÉ DE LA STRUCTURE ET DU FONCTIONNEMENT DU GÉNOME 19
1. Les progrès considérables de la biologie moléculaire 19
a. La découverte de la structure de l’ADN 19
i. Les facteurs sur lesquels repose l’information génétique 19
ii. Comment l’ADN transmet-il l’information génétique ? 20
b. Une vision constamment affinée de la régulation génique 21
2. La contribution des nouvelles technologies 23
a. Le séquençage à haut débit 23
b. Les approches « omiques » 25
3. Les avancées de la compréhension des maladies 32
a. Le bouleversement de l’étude du déterminisme génétique des maladies 32
b. Le développement continu des thérapeutiques 34
II. L’APPROCHE NOUVELLE DU VIVANT PAR L’ÉPIGÉNÉTIQUE 39
A. L’APPORT D’INFORMATIONS SUPPLÉMENTAIRES SUR LA RÉGULATION DE L’EXPRESSION DES GÈNES 39
1. La diversité des marques épigénétiques impliquées 39
a. L’épigénome : un ensemble complexe de mécanismes 40
ii. Les modifications d’histones 42
iii. Les ARN non codants (ARNnc) 44
b. Le jeu des mécanismes épigénétiques dans le développement et la différenciation cellulaires 44
2. L’épigénétique, interface entre les gènes et l’environnement 49
a. La réversibilité des marques épigénétiques 50
b. La transmission des marques épigénétiques 52
1. L’identification du rôle des mécanismes épigénétiques 56
iv. Maladies neurodégénératives (MND) 63
b. Les maladies épigénétiques 66
a. L’épigénétique environnementale 67
iv. Maladies neurodégénératives 73
b. La DOHaD (origines développementales de la santé et des maladies) 76
1. Le perfectionnement des outils d’analyse 82
a. Le recours à des technologies de pointe 82
i. Mesure de la méthylation de l’ADN 82
iii. Méthode d’analyse du méthylome 83
v. Combinaison de la CHIP et de l’analyse de la méthylation de l’ADN 85
vi. Analyse in vivo de l’interaction entre ARN et protéine 85
b. La diversité des approches de la régulation épigénomique 86
i. Les cartographies de l’épigénome 86
ii. Les méthodes d’analyse de cellule unique (single cell) 92
2. L’exploration de nombreux domaines de recherche 94
a. Une évolution se déroulant au sein de l’épigénétique 94
i. Une identification toujours plus précise du rôle des mécanismes épigénétiques 95
ii. Le développement des études en matière d’épigénétique environnementale 98
b. L’interaction entre l’épigénétique et d’autres disciplines scientifiques 107
iii. Les sciences sociales 114
3. L’expansion de l’épigénétique dans les filières d’enseignement et les centres de recherche 117
a. L’épigénétique, facteur d’interdisciplinarité 117
b. L’épigénétique : objet de spécialisation académique 122
4. Le rythme soutenu des colloques 123
5. La croissance exponentielle des publications 124
1. L’intensité de la recherche translationnelle 125
a. L’oncologie : un domaine moteur 125
i. L’existence d’un environnement institutionnel favorable 125
ii. L’exploitation des marques épigénétiques à des fins cliniques 127
b. Le développement des applications cliniques concernant les autres pathologies 131
iii. Maladies neurodégénératives 135
2. La diversité des innovations thérapeutiques 137
a. Les médicaments épigénétiques : des outils thérapeutiques à multiples facettes 137
i. Le rôle pionnier de l’oncologie 138
ii. L’extension de l’utilisation des médicaments épigénétiques aux autres maladies 147
b. L’utilisation des produits naturels : une autre source d’innovations thérapeutiques 154
1. Le statut scientifique de l’épigénétique 161
a. L’épigénétique est-elle une nouvelle discipline ? 161
i. L’affirmation de la nouveauté disciplinaire de l’épigénétique 161
ii. L’inscription de l’épigénétique dans la continuité de la génétique 165
b. Les difficultés liées à la quête permanente d’une définition 167
2. Un savoir fondamental perfectible 170
a. La connaissance partielle du mode d’action des mécanismes épigénétiques 170
i. Les interrogations sur le rôle réel joué par les mécanismes épigénétiques 171
ii. Les difficultés à apprécier les effets de l’environnement 173
b. La problématique de l’héritabilité 174
1. Les perspectives prometteuses du marché de l’épigénétique 182
a. Le marché des thérapies épigénétiques 182
i. Un marché aux segments d’importance variable 182
ii. La domination écrasante de l’industrie pharmaceutique américaine 183
b. Le marché du microbiote 185
2. Les thérapies épigénétiques sont confrontées à d’importants obstacles 186
a. Des thérapies comportant des imperfections 186
ii. Les autres pathologies 187
b. La complexité du contexte biologique dans lequel s’appliquent les thérapies épigénétiques 188
i. La complexité de l’épigénome 188
ii. Le savoir limité sur le rôle combiné des facteurs génétiques et des facteurs épigénétiques 189
iii. L’existence de difficultés techniques 189
1. L’adéquation de la recherche aux objectifs de la médecine des 4P 193
a. L’épigénétique, outil de la médecine prédictive 194
b. L’épigénétique, outil de la médecine préventive 195
c. L’épigénétique, outil de la médecine personnalisée 196
d. L’épigénétique, outil de la médecine participative 198
2. Le plaidoyer de la recherche en faveur d’une politique intégrative de la santé 199
a. La promotion du développement durable de la santé 199
b. La synergie entre la politique de santé et les autres politiques sectorielles 204
ii. Dans les pays anglo-saxons 211
1. Une prise en compte variable selon les autorités publiques 217
2. Des politiques aux effets limités 233
a. Des orientations budgétaires non pertinentes 234
i. La prévention, parent pauvre des politiques publiques de santé 234
ii. Les effets pervers de certaines mesures 237
b. La défaillance des dispositifs institutionnels 240
i. La question récurrente de la coordination des politiques publiques de santé 240
ii. L’absence de politiques publiques dans certains domaines 241
i. Les ambiguïtés de la tentative de définition 252
ii. Une démarche suscitant des réserves 253
b. Les travaux du projet IBISS (Incorporation biologique et inégalités sociales de santé) 254
1. L’extension à l’épigénétique des législations existantes 261
a. La protection des données à caractère personnel 261
i. Un objectif devant harmoniser plusieurs exigences 262
ii. Les orientations des réformes législatives récentes 264
2. L’adaptation de certaines législations aux particularités de l’épigénétique 267
a. Les limites du régime de la responsabilité pour faute du droit américain 267
EXAMEN DU RAPPORT PAR L’OFFICE LE 11 OCTOBRE 2016 281
COMPOSITION DU COMITÉ DE PILOTAGE 299
LISTE DES PERSONNES ENTENDUES PAR LES RAPPORTEURS 301
Mesdames, Messieurs,
La biologie comporte des notions qui, plusieurs années et même plusieurs décennies postérieurement à leur invention, continuent de susciter d’intenses débats quant à leur définition et à leur contenu.
Il en est ainsi de l’épigénétique, qui signifie au-dessus ou au-delà de la génétique selon les traductions. C’est l’embryologiste britannique Conrad Waddington qui a utilisé ce terme le premier en 1942, afin de rapprocher la génétique – la science de l’hérédité des caractères – de l’épigénèse.
Cette dernière théorie a été formulée, quant à elle, par Aristote pour désigner le développement graduel d’un œuf informel aboutissant à un organisme aux tissus différenciés. Aristote s’opposait ainsi aux partisans du préformationnisme, qui postulaient que la totalité des caractéristiques d’un individu était contenue dans l’œuf dont il est issu.
Aux yeux de Waddington, cette nouvelle notion d’épigénétique devait permettre d’étudier les mécanismes par lesquels les interactions entre les gènes et l’environnement donnent naissance au phénotype, c’est-à-dire aux caractéristiques physiologiques et morphologiques d’un individu.
Les travaux auxquels les rapporteurs ont procédé dans le cadre de cette étude les ont amenés à constater la diversité des définitions de l’épigénétique et l’intensité des controverses qu’elles peuvent susciter, ainsi que l’illustrent deux de ces définitions. La première a été formulée en 1994 par le généticien britannique Robin Holliday, selon laquelle l’épigénétique est l’étude des changements d’expression des gènes transmissibles au travers des divisions cellulaires, voire des générations, sans changement de la séquence d’ADN. Cette définition a inspiré un très grand nombre de chercheurs.
La deuxième définition – proposée en 2007 par le généticien britannique Adrian Bird – considère l’épigénétique comme l’étude des adaptations structurelles des régions chromosomiques qui permettent d’enregistrer, de marquer ou de perpétuer des états modifiés d’activité des gènes.
Quoiqu’il en soit, cette diversité des définitions, qui s’accompagne d’un autre débat sur la nouveauté disciplinaire de l’épigénétique au regard de la génétique, n’a pas empêché son essor depuis une vingtaine d’années, dont les rapporteurs ont pu mesurer l’ampleur, au double plan de la science fondamentale et des applications cliniques.
En effet, s’agissant de la science fondamentale, le progrès des recherches a permis de mieux établir les liens entre l’activité des gènes et les problématiques du développement – c’est-à-dire, celles se rapportant notamment aux processus de différenciation et d’identité cellulaires. Apparemment abstraites, ces problématiques touchent pourtant à des aspects vitaux du fonctionnement du corps humain puisqu’il s’agit, par exemple, de voir quand et comment des gènes codant pour les protéines ayant une fonction spécifique dans le foie doivent être actifs uniquement dans le foie, bien qu’ils soient présents dans chacune de nos cellules. En effet, si toutes les cellules ont le même ADN et les mêmes gènes, ceux-ci doivent toutefois être activés ou inhibés pour permettre le développement.
Quant aux applications cliniques, l’apport essentiel de l’épigénétique a résidé dans le renouvellement de l’étiologie et du traitement de plusieurs maladies – en particulier les maladies dites complexes – à savoir notamment les cancers, le diabète, les maladies neurodégénératives et les maladies auto-immunes.
Pour autant, lors de l’audition publique organisée par l’OPECST le 16 juin 2015 consacrée aux aspects scientifiques et technologiques de l’épigénétique, les chercheurs ont mis l’accent sur la nécessité de se départir de tout triomphalisme et de l’optimisme excessif qui avaient pu prévaloir à la naissance de la thérapie génique.
Un autre fait remarquable de cette même audition publique a tenu à ce que plusieurs intervenants n’ont pas séparé les aspects scientifiques de l’épigénétique, de leur dimension éthique et sociétale, thème qu’a traité l’audition publique du 25 novembre 2015 organisée par l’OPECST.
La démarche des chercheurs est d’autant plus remarquable que, comme l’a fait valoir le Pr Jean-Claude Ameisen, président du comité consultatif national d’éthique, la conjonction des interactions étroites entre le développement de l’épigénétique, d’une part, et l’épidémiologie et les sciences humaines et sociales, d’autre part, est essentielle pour comprendre et expliquer la manière dont l’environnement impacte la santé (1).
Ce faisant, ce propos du Pr Jean-Claude Ameisen a conforté les rapporteurs dans leur conviction que cette étude devait permettre à l’OPECST – et, au-delà, au Parlement – d’éviter d’être à la remorque des avancées – toujours plus rapides – de la biologie, dont l’épigénétique est l’une des expressions (2). Au demeurant, il importe de relever, à cet égard, que le législateur a déjà pris en compte cette exigence. En effet, il a intégré la notion d’exposome, qui a été forgée par les chercheurs dans la loi du 26 janvier 2016 de modernisation de notre système de santé.
Dans la même perspective, le deuxième volet de l’audition publique du 25 novembre 2015 a été consacré à une réflexion sur les conditions dans lesquelles l’essor de l’épigénétique pourrait se concilier avec le respect des normes juridiques et éthiques.
Dans le présent rapport, les rapporteurs souhaiteraient donc analyser l’ensemble de ces problématiques :
- ainsi leur faudra-t-il, tout d’abord, voir pourquoi et comment l’épigénétique est une nouvelle approche du vivant s’inscrivant dans l’évolution de la génétique ;
- ensuite, il importera d’évoquer les défis auxquels, malgré son essor, est confrontée l’épigénétique ;
- enfin, il conviendra de s’interroger sur la nécessité de concilier son rôle potentiel d’instrument de modernisation des politiques de santé, et à laquelle elle est susceptible de concourir, avec le respect des normes éthiques et juridiques.
PREMIÈRE PARTIE :
L’ÉPIGÉNÉTIQUE : UNE NOUVELLE APPROCHE DU VIVANT S’INSCRIVANT DANS L’ÉVOLUTION DE LA GÉNÉTIQUE
La nature des rapports entre l’épigénétique et la génétique a été l’un des thèmes majeurs des travaux des rapporteurs. À cet égard, il est significatif qu’Alain Claeys, co-rapporteur, ait, lors de l’audition publique du 16 juin 2015 consacrée aux apports scientifiques et technologiques de l’épigénétique, posé la question de savoir si, en la matière, il existait des clivages entre chercheurs.
Deux catégories de réponses y ont été apportées. L’une, très minoritaire, voit dans l’épigénétique un changement de paradigme, qui peut être comparé à celui introduit par la physique quantique au regard de la physique newtonienne.
L’autre, ultra-majoritaire, récuse toute idée de clivage, car la génétique aurait déjà réfléchi aux problématiques qu’abordera l’épigénétique. C’est pourquoi est même jugée critiquable l’observation du Pr Michel Morange, professeur à l’École normale supérieure et à l’université de Paris VI, Pierre et Marie Curie, selon laquelle l’épigénétique comble les insuffisances de la génétique.
Quoi qu’il en soit, force est, en effet, de constater qu’il existe des interactions entre génétique et épigénétique. Car, d’un côté, le développement continu des connaissances, qui a marqué la première, a catalysé l’essor de la seconde. De l’autre, comme le relève une note de l’Alliance nationale pour les sciences de la vie et de la santé (Aviesan) : « L’épigénétique est un champ d’investigation stratégique dans le domaine de la génétique et la France figure parmi les leaders dans ce domaine » (3).
I. LE DÉVELOPPEMENT CONTINU DES CONNAISSANCES EN GÉNÉTIQUE
Le développement des connaissances a revêtu deux aspects connexes :
- le premier réside dans la découverte de la complexité de la structure et du fonctionnement du génome ;
- le second a trait à la compréhension et au traitement des maladies.
A. LA DÉCOUVERTE DE LA COMPLEXITÉ DE LA STRUCTURE ET DU FONCTIONNEMENT DU GÉNOME
L’analyse toujours plus approfondie du génome a été le fruit d’avancées multiples et très étroitement liées les unes aux autres. En effet, si la biologie moléculaire a connu un essor incontestable dans la seconde moitié du XXe siècle, les technologies bioinformatiques ont, pour leur part, prolongé et amplifié les résultats de la recherche fondamentale.
1. Les progrès considérables de la biologie moléculaire
Ces progrès tiennent au double fait que les généticiens ont pu parfaire leur approche des mécanismes de l’hérédité et celle de la régulation génique.
a. La découverte de la structure de l’ADN
Au début de la seconde moitié du XXe siècle, les biologistes avaient compris que la molécule de l’ADN était le support de l’hérédité et savaient qu’elle se composait de quatre types de molécules plus petites : -appelées nucléotides- se distinguant par leur base azotée : A (adénine), T (thymine), C (cytosine),
G (guanine).
Toutefois, les biologistes ignoraient ce qu’était la forme de l’ADN. C’est ce que les biologistes Francis Harry Compton Crick et James Dewey Watson auront découvert en 1953, en montrant que l’ADN possède une structure dimensionnelle en forme de double hélice.
Le modèle proposé par Crick et Watson expliquait comment la macromolécule d’ADN pouvait contenir l’information génétique. En outre, il suggérait la manière dont l’ADN pouvait transmettre cette information.
i. Les facteurs sur lesquels repose l’information génétique
- l’existence d’une relation précise entre les gènes et les enzymes : à chaque gène correspond une enzyme et à chaque enzyme correspond un gène ;
- l’idée d’un code génétique : cette idée repose sur une correspondance précise entre la succession des bases dans l’ARN (codons) et celle des acides aminés dans les protéines.
Ce code génétique est universel. Il est le même, à de très rares exceptions, pour tous les êtres vivants.
ii. Comment l’ADN transmet-il l’information génétique ?
En premier lieu, l’ADN joue un rôle dans la synthèse des protéines ; composantes majeures des cellules vivantes, les protéines sont des macromolécules composées d’une chaîne – la chaîne polypeptidique – dont les maillons sont des acides aminés. Il y a vingt acides aminés protéinogènes. Or, l’ordre des acides aminés dans la chaîne qui forme une protéine est déterminé par l’ordre des nucléotides dans la séquence des acides aminés d’une protéine. Par exemple, le gène de l’albumine code pour la succession des acides aminés dans la molécule de l’albumine.
En second lieu, le code de la séquence des acides aminés est produit dans la cellule par une machinerie moléculaire complexe. D’abord, les deux brins de l’ADN sont séparés et une molécule d’acide ribonucléique messager (noté « ARNm » ou « ARN messager ») est synthétisée lors d’un processus que l’on appelle « transcription ». Le résultat de la transcription est une molécule d’ARN dont la séquence nucléotidique est la copie conforme de celle de l’ADN. C’est un vrai messager car cette molécule sort du noyau de la cellule pour aller dans le cytoplasme. C’est ici que se produit la « traduction », le processus qui consiste à traduire le code de l’ADN sous la forme de la séquence d’acides aminés de la protéine. Ce que l’on appelle l’expression du gène est le fruit des processus de transcription et de traduction.
La relation un gène-une protéine constitue ce que Crick a appelé le dogme central de la biologie moléculaire.
Il en résulte, d’une part, que la séquence de l’ADN qui code la protéine est un gène qui détermine le caractère par l’intermédiaire de la protéine qu’il code, d’autre part, que la génétique classique a formalisé la notion d’hérédité grâce aux couples gène-caractère ou génotype-phénotype.
En identifiant le gène comme segment de l’ADN – à travers la découverte de la structure de l’ADN –, la génétique classique a apporté une réponse à la question de la transmission des caractères qui n’était, d’abord, qu’un outil conceptuel puis un emplacement sur le chromosome.
S’il demeure vrai dans ses grandes lignes, le dogme central allait connaître une exception capitale du fait de la découverte de la transcriptase inverse. En effet, en 1970, un chercheur américain avait découvert chez un virus ayant pour génome un ARN une enzyme capable de copier l’ARN en ADN. Elle effectuait donc l’opération inverse de celle que l’on considérait jusqu’alors comme seule possible, la transcription d’un ADN en ARN, d’où les noms de transcriptase inverse choisi pour l’enzyme nouvelle et le rétrovirus pour désigner les virus qui l’utilisent.
Au fil des années, la transcriptase inverse a été mise en évidence – après les bactéries – jusque dans les cellules végétales et animales.
On relèvera que c’est la détection de la transcriptase inverse dans les cultures de cellules infectées qui a permis la découverte du VIH en 1983 par Jean-Claude Chermann et Françoise Barré-Sinoussi (prix Nobel de médecine en 2008).
b. Une vision constamment affinée de la régulation génique
Plusieurs avancées conceptuelles ont façonné la compréhension par les biologistes des mécanismes moléculaires qui sous-tendent le processus de différenciation cellulaire ; cette question, comme on le verra plus loin, est au cœur de l’épigénétique.
• La première avancée est le fait d’études menées chez la souris et la mouche drosophile à partir des années 1930, qui montrent que des gènes contrôlent le développement embryonnaire.
• La publication du modèle de l’opéron par François Jacob et Jacques Monod, en 1961, constitue la seconde avancée majeure. Les deux scientifiques ont, en effet, démontré l’existence, chez la bactérie, de gènes dits « régulateurs », dont la fonction principale est de moduler l’expression d’autres gènes au niveau de la transcription.
Visionnaires, ils ont émis l’hypothèse selon laquelle, chez les organismes pluricellulaires également, des gènes comparables jouent un rôle essentiel dans le processus de différenciation des gènes propres à un type cellulaire donné.
Ainsi, les travaux de Jacob et Monod sur l’opéron ont-ils présenté un double intérêt. D’une part, ils ont permis de mettre en évidence le rôle de l’ARN messager – évoqué précédemment – dans la synthèse des protéines, enrichissant ainsi le dogme central de la biologie moléculaire tel qu’il a été exposé par Crick.
D’autre part, comme l’a fait observer le Pr Michel Morange (4), le modèle de l’opéron a été élaboré en vue de répondre à la question, qui a été centrale pour l’épigénétique, depuis l’invention de ce terme par Waddington, de savoir comment les cellules (que ce soit celles d’une bactérie ou d’un eucaryote) peuvent, à l’aide d’un ensemble donné de gènes, exprimer d’autres gènes acquérant ainsi différentes propriétés stables (5).
• Une troisième catégorie de très importantes avancées, dans la ligne des travaux de Jacob et Monod, apporte des précisions sur les conditions de la synthèse des protéines. On a, en effet, découvert dans les années 1970, quelques vingt années après l’élucidation de la structure en double hélice de l’ADN, que les gènes des organismes multicellulaires étaient « morcelés », c’est-à-dire constitués d’exons (une dizaine en moyenne par gène) séparés par des introns. Les exons et les introns sont transcrits à partir de l’ADN en un ARN dit pré-messager
(pré-ARNm). Dans une seconde étape, les introns sont éliminés et les exons raboutés pour former l’ARN messager (ARNm). Ce mécanisme, nommé épissage, se déploie dans le noyau des cellules avant l’export des ARNm dans le cytoplasme, où ils sont traduits en protéines dans les ribosomes. L’épissage de chaque intron nécessiterait l’intervention d’un très grand nombre de protéines. Dans certaines situations, des exons sont aussi éliminés avec les introns : on parle alors d’épissage alternatif.
L’épissage alternatif a longtemps été considéré comme un épiphénomène. Mais la situation a changé après le séquençage du génome humain en 2001, lequel a révélé comment seulement 20 000 gènes environ codaient des protéines.
On s’est donc aperçu que l’épissage alternatif était bien plus fréquent qu’on ne le pensait. Ainsi, en 2008, plusieurs études fondées sur des méthodes de séquençage de masse ont indiqué que la plupart des gènes (au moins 95 %) sont assujettis à l’épissage alternatif.
Celui-ci joue un rôle important dans la diversification des fonctions cellulaires. En effet, ainsi que le précise une étude (6), la comparaison des ARNm exprimés montre que chaque type cellulaire n’est pas seulement caractérisé par le niveau d’expression des gènes mais également par le contenu en exons des ARNm produits à partir des gènes. Ainsi, des gènes exprimés dans différents types cellulaires peuvent, selon le contenu, produire des variants d’épissage différents.
Les mécanismes de la régulation de l’épissage n’ont été décryptés que partiellement. Mais on parle déjà d’un deuxième code génétique, à savoir le code de l’épissage, dont le rôle est de modifier le taux d’inclusion des exons lors de l’épissage.
• Une quatrième avancée pouvant illustrer le fait que la génétique a aussi abordé les mêmes problématiques que l’épigénétique est issue des travaux de John Gurdon et Shinaya Yamanaka sur la reprogrammation des cellules souches en cellules souches pluripotentes, qui leur ont valu d’être lauréats du prix Nobel de médecine en 2012.
Ainsi, les expériences effectuées par John Gurdon dans les années 1960 concernant la transplantation du noyau d’une cellule d’une grenouille dans un ovocyte énucléé ont permis de révéler que la spécialisation des cellules était un processus réversible, ce qui allait à l’encontre d’un des dogmes de la biologie. Grâce aux travaux de John Gurdon, on sait dorénavant que le noyau d’une cellule pourrait retrouver un stade indifférencié.
Les travaux de Shinaya Yamanaka ont permis de rendre possible un tel processus à l’échelle d’une cellule entière. En effet, le Pr Yamanaka est parvenu à reprogrammer des cellules adultes de souris (des fibroblastes de peau) en cellules souches en y introduisant seulement quatre gènes, grâce à des virus. Ces cellules souches dites induites sont pluripotentes (iPS selon l’acronyme anglais pour Induced pluripotent stem cells), c’est-à-dire capables de donner naissance à plus de deux cents types cellulaires, représentatifs de l’ensemble des tissus de l’organisme.
• Enfin, différents travaux sur le monde des ARN ont contribué à bouleverser notre vision de l’expression des gènes, en ajoutant plusieurs niveaux de complexité aux mécanismes de régulation.
C’est ainsi que depuis vingt ans ont été découvertes trois nouvelles classes d’ARN : les microARN, les siARN (7) et les piARN. À l’inverse des ARNm (ARN messagers), ces nouveaux ARN ne codent pas de protéines et, à la différence des ARN non codant tels les ARNr (ARN ribosomique) et les ARNt (ARN transfert), ils jouent un rôle en contrôlant l’expression d’autres gènes. Ce rôle est loin d’être négligeable puisque, selon une étude (8), plus de 60 % des gènes codants chez l’être humain sont contrôlés par les microARN.
2. La contribution des nouvelles technologies
Dans une précédente étude (9) à laquelle les rapporteurs renvoient, l’ampleur des progrès technologiques et la baisse drastique des coûts que ceux-ci ont permis avaient été évoquées.
Ces progrès ont été poursuivis à travers le projet ENCODE (10). Réalisé sous l’égide d’un consortium international, il a regroupé plus de quatre cents scientifiques sous la direction des principales universités américaines (Harvard, Stanford, MIT), des instituts nationaux de santé et d’organismes de recherche des États-Unis.
La revue Nature a publié, en 2012, les résultats de ce projet, qui avait été lancé en 2003.
Les principaux résultats concernent d’abord la notion d’ADN poubelle (en anglais, Junk DNA). Celle-ci désignait jusqu’alors essentiellement la portion d’ADN dont la fonction était encore inconnue et restait à découvrir.
En effet, le séquençage du génome humain effectué au début des années 2000 avait montré que la fraction d’ADN codant des protéines n’excédait pas 1,5 % à 2 % selon les estimations.
Toutefois, antérieurement au projet ENCODE, les chercheurs avaient déjà suggéré, dans une série d’hypothèses, que cet ADN poubelle non codant ne pouvait s’accumuler sans avoir de fonctions précises.
C’est pourquoi certaines équipes du projet ENCODE se sont attelées à mieux définir les limites des gènes codant pour les protéines déjà connues, ou à en découvrir quelques nouveaux, tandis que d’autres équipes ont, par exemple, recensé les séquences d’ADN non codantes permettant d’activer ou d’inactiver la production d’une protéine dans un type cellulaire spécifique (une cellule du foie, par exemple). Les chercheurs en ont trouvé près de quatre millions, toutes actives dans au moins cent quarante-sept types cellulaires testés.
Au fond, l’ensemble de ces travaux aura permis de déterminer une fonction pour 80 % de l’ADN. Ce dernier chiffre est certainement celui qui aura suscité le plus de débats au sein de la communauté scientifique. La principale raison en est l’absence de définition formelle du terme « fonctionnel », lequel peut, selon le contexte, être très général ou spécifique. Selon certaines interprétations, le terme aura ici été utilisé sous sa forme générale, à savoir que 80 % de notre ADN a une fonction biochimique (par exemple, le fait de pouvoir être reconnu par une enzyme particulière), qui n’implique pas forcément une fonction biologique particulière mais peut être utilisée pour des expériences précises.
Quant au Pr Andràs Paldi, chercheur à Généthon et professeur à l’École pratique des hautes études, il a déclaré qu’ENCODE ne produisait pas suffisamment de connaissances relativement à l’investissement qu’il représente, le projet ayant coûté 200 millions de dollars (soit environ 154 millions d’euros). Selon lui, si ce projet a généré d’innombrables données, ses conclusions sont peu innovantes. Il s’agit plutôt d’un des programmes que la génétique a inventés pour continuer d’exister et d’être financée.
Pour autant, comme le Pr Paldi l’admet lui-même, ENCODE fournit aux chercheurs des résultats intéressants.
→ Les biologistes savaient déjà que de nombreuses séquences d’ADN étaient transcrites en ARN, mais sans que cela ne débouche nécessairement sur la production de protéines par la cellule. ENCODE semble montrer que ce phénomène est beaucoup plus massif que ne le supposaient les chercheurs. Ces ARN pourraient avoir des fonctions de régulation dans le fonctionnement du génome. Par exemple, les longs ARN non codants participent au contrôle de l’expression des gènes en tant qu’activateurs ou répresseurs, aussi bien au niveau transcriptionnel que post-transcriptionnel.
→ ENCODE fournit aussi une masse d’informations sur la constitution des réseaux de gènes, la manière dont ils se coordonnent.
→ enfin, ENCODE fournit une description de la chromatine à un niveau de précision inédit, ce qui ne peut manquer d’intéresser les chercheurs en épigénétique, compte tenu du rôle-clé joué par la chromatine dans les processus épigénétiques, comme on aura l’occasion de le voir.
Selon une étude de l’Inserm, « L’idée de base associée aux approches « omiques » consiste à appréhender la complexité du vivant dans son ensemble au moyen de méthodologies les moins restrictives possibles sur le plan descriptif. Ces approches peuvent, en particulier, être utiles pour mettre en évidence et identifier de nouveaux biomarqueurs (d’exposition, d’effet ou de susceptibilité), générer de nouvelles connaissances sur le plan mécanistique (mode d’action) ou encore élaborer de nouveaux outils de toxicologie prédictive pour aider l’identification des dangers » (11).
Outre le fait de reposer sur une approche holistique du vivant, les « omiques » présentent une double caractéristique commune :
- d’une part, elles recourent à des technologies informatiques très sophistiquées ;
- d’autre part, ce sont des disciplines exigeant le concours de chercheurs provenant de plusieurs disciplines.
Au sein de ces approches « omiques », on distingue plusieurs types, entre lesquels existe une complémentarité.
La génomique est l’étude exhaustive des génomes et, en particulier, de l’ensemble des gènes, de leur disposition sur les chromosomes, de leur séquence, de leur fonction et de leur rôle.
Elle se caractérise par un changement d’échelle. On passe de l’analyse individuelle et artisanale d’un gène à l’analyse globale de l’expression des gènes, de manière systématique et à haut débit.
Elle apporte une nouvelle vision, dynamique et plus globale pour la connaissance intégrée du fonctionnement des cellules.
Elle est composée de quatre volets complémentaires : la génomique structurale, la génomique fonctionnelle, la génomique comparative et la protéomique.
Ø La génomique structurale analyse la structure des gènes et des autres parties du génome. Elle contribue à l’annotation des génomes et à l’identification des séquences informatiques, telles que les gènes codant des protéines ou des ARN fonctionnels ou encore les séquences régulatrices.
Ø La génomique fonctionnelle vise à déterminer la fonction des gènes à partir de leurs produits d’expression : ARN et protéines.
À ce titre, la génomique fonctionnelle détermine notamment les interactions que le produit d’un gène (12) peut établir avec d’autres produits de gènes et/ou d’autres types de molécules. Ce type d’analyse débouche sur la construction de réseaux d’interactions.
Les nouvelles techniques de séquençage à très haut débit ont encore élargi les champs d’investigation de la génomique fonctionnelle. On peut ainsi citer :
- le séquençage de novo ou le reséquençage d’un génome connu ;
- l’étude de la variabilité génétique et du polymorphisme de nucléotide simple (SNP) (13) ;
- l’étude de plus en plus fine du transcriptome à travers :
1) l’identification de transcrits rares ;
2) l’épissage alternatif (14) ;
3) l’analyse quantitative du niveau de transcription des gènes ;
4) l’étude du profil des petits ARN non codants (small ncRNAs).
Ø La génomique comparative, qui compare la structure et les fonctions des génomes de différentes espèces.
La transcriptomique a pour objet de mesurer l’abondance des transcrits, c’est-à-dire l’ensemble des ARN (messagers, ribosomiques, de transfert et autres espèces d’ARN) issus de la transcription du génome.
L’analyse transcriptomique peut caractériser le transcriptome – à savoir l’ensemble des transcrits – d’un tissu particulier ou d’un type cellulaire.
La caractérisation et la quantification du transcriptome dans un tissu donné et dans des conditions données permettent d’identifier les gènes actifs, de déterminer les mécanismes de régulation d’expression des gènes et de définir les réseaux d’expression des gènes.
Ainsi, la transcriptomique apporte-t-elle des connaissances supplémentaires sur les gènes, dont l’expression varie lors de modifications de l’environnement et permet d’identifier de nouveaux gènes, et des microARN (miARN). Ces derniers sont des ARN non codants de vingt et un à vingt-cinq nucléotides, qui contrôlent l’expression génique au niveau post-transcriptionnel.
L’étude transcriptomique à grande échelle a été rendue possible par l’utilisation de puces à ADN, qui permettent d’évaluer le niveau d’expression des gènes. Grâce à une seule puce à ADN, c’est le niveau d’expression de milliers de gènes qui est reflété à un moment donné.
À cet égard, une étude de l’Alliance Aviesan (15) indique que le développement de méthodes combinées au séquençage à très haut débit a permis d’observer, chez les eucaryotes et les procaryotes, une transcription cryptique (16) importante du génome, souvent divergente par rapport aux gènes codant les protéines. Le rôle de cette transcription n’est pas connu. Mais, selon les auteurs de cette étude, il y a de fortes chances que ce phénomène puisse réguler la transcription d’un nombre important de gènes, soit en contrôlant l’environnement chromatinien des promoteurs (17), soit par la production d’ARN non codants régulateurs.
La compréhension des implications à l’échelle des génomes de ce phénomène fait l’objet de travaux intenses.
Dans le domaine médical, l’analyse transcriptomique apporte des informations considérables ouvrant de nombreuses perspectives de recherche pour mieux examiner les pathologies, mieux comprendre leur physiopathologie et améliorer leur prise en charge, à travers l’identification de marqueurs diagnostiques et pronostiques et de réponse aux traitements.
C’est ainsi que, à l’exemple de la cancérologie, la rhumatologie utilise de plus en plus l’outil de la transcriptomique, ce qui a permis de confirmer, de redécouvrir ou de mettre en évidence des mécanismes physiopathologiques, de mieux classer certaines pathologies et de montrer qu’il était possible d’identifier des profils d’expression capables de prédire l’évolution de telle ou telle pathologie ou de prédire la réponse à certains traitements. La transcriptomique, comme d’autres omiques, apparaît donc comme un vecteur du développement de la médecine personnalisée.
La protéomique a pour but d’identifier et de quantifier l’ensemble des protéines synthétisées, ou protéome, à un moment donné et dans des conditions données au sein d’un tissu, d’une cellule ou d’un compartiment cellulaire.
Le protéome est une entité dynamique et complexe. Au sein de chaque cellule, le contenu des protéines se modifie en permanence en fonction des conditions intra ou extra cellulaires. De plus, par le biais de réarrangements qui modifient ses fonctions biologiques, un même gène peut donner naissance à plusieurs protéines. Le protéome contient donc un nombre beaucoup plus important de protéines que le génome ne contient de gènes.
Les principaux objectifs de la protéomique sont d’identifier et de quantifier les protéines présentes dans un échantillon biologique à un instant T, et d’obtenir des données fonctionnelles : localisation, identification de protéines partenaires, sites de liaison de ligands. Ces données permettent de mieux comprendre les mécanismes moléculaires impliqués dans les grandes fonctions cellulaires. Il est, par exemple, possible d’étudier des voies de signalisation impliquées dans les processus biologiques ou dans l’apparition de maladies. En comparant les échantillons de personnes en bonne santé et de personnes malades (incluses dans de grandes cohortes), la protéomique permet également de découvrir et de valider l’utilisation de biomarqueurs protéiques utiles au dépistage de maladies, au suivi de leur évolution ou encore à l’évaluation de l’efficacité d’un traitement.
Devraient contribuer à une connaissance plus approfondie du protéome, trois études : le Human Protein Project (HPP), d’une part et, d’autre part, Human Proteom Map et Proteomics DB.
Human Protein Project (HPP)
Un vaste projet international de protéomique, sur le modèle de celui qui existe en génomique, a été lancé en 2011. Piloté par l’Human Proteome Organisation, une organisation internationale, il consiste à créer une base de données permettant de décrire les protéines correspondant aux 20 000 gènes codants chez l’homme. Les différents pays partenaires de ce projet se sont répartis les chromosomes qu’ils annotent progressivement. La France est en charge du chromosome 14. D’autres volets de ce projet consistent à caractériser les protéomes du plasma, du foie, du cerveau, du système immunitaire, du rein, de l’urine ou encore du système cardiovasculaire. L’hétérogénéité des protéomes d’un individu à l’autre et leur caractère dynamique rendent cet exercice difficile, mais ils présentent l’avantage de promouvoir la protéomique et de stimuler les coopérations internationales.
Human Proteome Map et Proteomics DB
Human Proteome Map est un projet dirigé par les États-Unis, auquel sont associés le Canada, le Chili, l’Inde et le Royaume-Uni.
Proteomics DB est un projet allemand lancé par l’université technologique de Munich.
Les deux projets visent à établir des catalogues de protéines des différents tissus du corps humain.
La revue Nature a publié, le 28 mai 2014, les articles de ces équipes, qui décrivent leurs méthodes et résultats, tandis que chaque équipe a mis en ligne une base de données, ouverte gratuitement à tous les scientifiques des laboratoires publics et présentant l’intégralité de leurs catalogues.
Ces travaux permettront de savoir, parmi l’ensemble des protéines humaines, lesquelles sont présentes et en quelles proportions dans l’œsophage, la rétine, le cortex frontal, le pancréas ou les testicules, tant chez l’adulte que chez le fœtus.
L’équipe internationale a ainsi travaillé à partir d’échantillons de dix-sept tissus différents d’adultes, sept tissus de fœtus et six cellules hématopoïétiques (celles qui génèrent les cellules sanguines).
Ainsi les scientifiques pourront-ils comparer le protéome complet d’un fœtus et d’un être humain adulte, un outil précieux pour la biologie du développement.
Mais les travaux de ces équipes sont également utiles pour améliorer les connaissances sur le fonctionnement interne du système cellulaire. Certains résultats publiés sont plus ou moins attendus, tels que les « ubiquistes », protéines correspondant à plus de deux mille gènes et qui sont présentes et abondantes dans tous les types de tissus et cellules. À l’inverse, d’autres résultats ont révélé l’existence de deux cents protéines jusqu’alors totalement inconnues dans les bases de données et qui ne correspondent pas à des gènes. Les chercheurs évoquent, à leur sujet, des « pseudo-gènes », pour désigner ces régions présumées non codantes de l’ADN et qui sont pourtant à l’origine des protéines
Sources : Jérôme Garin, Protéomique, Inserm, mars 2013, et Sylvestre Huet, Libération, 29 mai 2014.
Pour tous les projets de recherche qui viennent d’être évoqués, les chercheurs ont recours à la spectrométrie de masse, qui permet de connaître la composition et la structure en trois dimensions d’une protéine ou ses sous-parties, les peptides (18).
C’est ainsi que l’équipe du Human Proteome Map a produit vingt-cinq millions de spectres de masse, tandis que l’équipe de Protemics-DB en a utilisé soixante et onze millions, la plupart déjà en banques de données. Le défi que représente l’exploitation informatique de ce « déluge de données » fait désormais partie de tous les grands projets scientifiques. Cette masse de données est, en effet, inutilisable, sans le « calcul intensif », mêlant capacité de stockage, puissance de traitement et recours à des bioinformaticiens de haut niveau.
La métabolomique est l’étude de l’ensemble des métabolites (petites molécules) présents dans un organite (19), une cellule, un tissu ou un organisme à un temps et dans des conditions donnés. Elle est apparue dans les années 1990 à la suite des progrès technologiques réalisés dans les domaines de la biologie moléculaire, de la chimie analytique et grâce à l’essor de la bioinformatique.
Elle permet de détecter des perturbations – telles que le stress ou une physiopathologie – d’entités métaboliques spécifiques et les relie à des processus, voies ou mécanismes biochimiques utilisables à différentes fins :
- étude de la fonction des gènes ;
- études toxicologiques ou pharmacologiques. S’agissant de ce point, on considère que, au regard des autres omiques, la métabolomique présente l’avantage d’accéder plus concrètement aux interactions entre un individu et son environnement ;
- étude des stress environnementaux ;
- diagnostic ou prévention des maladies ;
- étude sur la nutrition.
Ainsi, la métabolomique contribue-t-elle à une meilleure compréhension de la biologie des systèmes en mettant en évidence des interactions métaboliques qui n’auraient pas pu être détectées au moyen d’approches biochimiques traditionnelles, ou même, selon un chercheur, grâce à une approche reposant sur la génomique.
En effet, prenant l’exemple des maladies respiratoires, ce chercheur indique que la génomique ne peut expliquer qu’une partie des mécanismes physiopathologiques de ces maladies, pour deux raisons.
La première est que des anomalies phénotypiques peuvent survenir en l’absence de modifications génétiques du fait, notamment, de l’intervention de mécanismes épigénétiques. Dans ce contexte, l’apport de la métabolomique et l’étude des interactions entre différents métabolites cellulaires semblent plus utiles que le simple séquençage des gènes et la description de leurs mutations et/ou polymorphismes.
La seconde raison réside dans le fait que, dans un organisme sain et/ou malade, les molécules (ou autres cellules et tissus) fonctionnent en réseau et non pas isolément. Une même anomalie d’une composante de ce réseau affectera différemment les individus selon la robustesse des autres composantes et leurs capacités variables à suppléer la composante défaillante.
L’interactomique étudie les interactions protéine-protéine, lesquelles forment l’interactome. Celui-ci est obtenu par l’identification systématique des partenaires protéiques de tout ou partie des protéines d’une cellule ou d’un organe ou d’un organisme.
Il s’agit d’un champ émergent et par nature très largement interdisciplinaire, faisant ainsi appel à des expertises diverses dans les domaines de la biochimie des protéines, de l’analyse par spectrométrie de masse et des analyses biostatistiques et bioinformatiques.
Quant à l’intérêt que présente cette discipline, il réside dans le fait que l’accès aux interactions protéine-protéine permet de connaître de façon détaillée l’organisation des « machines cellulaires » et leur dynamique.
En outre, l’étude de l’interactome confirme l’existence de protéines qui étaient seulement prédites (20) et attribue un rôle potentiel aux protéines de fonction inconnue, encore qualifiées de « coupables par association ».
La régulomique a pour objet l’étude du régulome. Celui-ci rassemble l’ensemble des interactions intervenant dans la cellule, notamment celles impliquant les interactions entre les protéines et l’ADN ou entre les protéines et l’ARN à différents niveaux de résolution conduisant à la régulation de l’activité du génome.
C’est pourquoi l’étude du régulome consiste à analyser, à l’échelle du génome complet ou du transcriptome, les interactions entre des facteurs de transcription et l’ADN ou des facteurs de régulation de la traduction, et à rechercher des sites de fixation des facteurs de transcription et les interactions entre ces derniers.
Les « omiques » qui viennent d’être évoqués ne rendent pas compte de l’ensemble, très dense et en constante évolution, des nouvelles disciplines dont le suffixe se termine par « ique » ou « ome », tant elles sont très nombreuses.
Une telle prolifération illustre la complexité du matériel cellulaire et génétique et, au-delà, celle du vivant, à laquelle est confrontée la génétique.
À cet égard, comme le souligne Aviesan, le développement des technologies omiques permet de passer progressivement d’une biologie réductrice, restreinte à l’étude d’un gène ou d’une protéine, à une biologie plus globale embrassant l’étude de voies et réseaux biologiques et d’appréhender la complexité des bases physiopathologiques des maladies de façon plus intégrée (21).
3. Les avancées de la compréhension des maladies
La connaissance extensive des bases génétiques des maladies a conduit au développement croissant des diagnostics génétiques permettant une prise en charge précoce et codifiée des patients.
a. Le bouleversement de l’étude du déterminisme génétique des maladies
Grâce au Next Generation Sequencing (NGS) et au développement de l’analyse bioinformatique, il est possible, depuis 2008, d’identifier à partir d’un nombre limité de patients, les bases génétiques des maladies en réalisant une analyse comparative d’exomes de patients présentant la même maladie mais appartenant à des familles différentes.
En effet, antérieurement à l’apparition du NGS, la recherche sur le déterminisme génétique avait, comme le rappelle Aviesan, distingué les maladies en deux classes : les maladies mendéliennes résultant d’altérations délétères d’un gène et les maladies multifactorielles résultant de la combinaison de facteurs environnementaux et de multiples variations génétiques présentes dans la population générale, qui augmenteraient le risque de maladies sans être ni nécessaires ni suffisantes.
Or, le NGS a permis une relecture de la complémentarité du déterminisme génétique des maladies. La découverte de l’étendue du polymorphisme (22), du nombre considérable de SNVs (single nucleotide variation - variation nucléotidique) privés (23) ont démontré que des maladies considérées comme monogéniques – telles les maladies dominantes à pénétrance incomplète – résultaient de la combinaison de quelques variations génétiques et avaient, en fait, un déterminisme oligogénique, c’est-à-dire dépendant de quelques gènes.
À l’inverse, des maladies initialement considérées comme multifactorielles et survenant de façon sporadique sont, en réalité, le résultat d’une mutation délétère survenue de novo (24).
De fait, selon Aviesan (25), de nombreuses maladies se caractérisent probablement par une très grande hétérogénéité génétique impliquant de nombreux variants individuellement rares, mais de fort impact.
Quoiqu’il en soit, l’identification des bases génétiques des maladies mendéliennes a été, au cours des vingt dernières années, une des plus grandes avancées médicales permettant la compréhension de la physiopathologie de ces maladies – en particulier grâce à la possibilité de créer des modèles animaux pertinents pour ces affections –, la mise au point de diagnostics moléculaires, le développement du diagnostic présymptomatique, le suivi médical et le traitement personnalisé des patients et de leurs familles.
En revanche, les études du déterminisme génétique des maladies multifactorielles sont l’objet d’appréciations contrastées. Ces études reposent sur une stratégie d’association pangénomique (GWAS) consistant à comparer deux groupes de sujets, malades (cas) et témoins, la fréquence des variations génétiques communes et à rechercher une ou des variations qui sont distribuées différemment entre ces deux groupes et à calculer pour les sujets présentant ces variations un risque relatif (odds ratio) de développer la maladie.
Tout en soulignant que ces études ont mobilisé des ressources considérables en termes de nombre d’individus et d’analyse bioinformatique, certains en critiquent les faiblesses. D’une part, ils font valoir les limites statistiques de ces études, qui tiennent au fait que les odds ratio sont, pour la plupart, faibles, de l’ordre de 1-2. D’autre part, ces études ont fait le plus souvent abstraction de l’impact des facteurs environnementaux, ce qui serait l’une des raisons pour lesquelles les GWAS ne sont pas parvenues à expliquer l’héritabilité manquante, Celle-ci correspond au fait que les données statistiques au sein d’une population ne permettent pas d’expliquer la part des facteurs génétiques dans les variations interindividuelles d’un caractère phénotype mesurable, comme la taille, par exemple. Sur ce point précisément, M. Vincent Colot – directeur de recherche à l’Institut de biologie de l’École normale supérieure – a déclaré aux rapporteurs, lors de son audition, que la taille de l’individu avait été choisie en raison de sa forte héritabilité, ce qui aurait permis de démontrer que les GWAS fonctionnaient. Or, on a constaté que seulement 5 % des 80 % d’hérédité pouvait être expliqués par des variations des séquences de l’ADN. C’est pourquoi M. Colot a indiqué que l’épigénétique pourrait être l’une des composantes de l’hérédité manquante.
D’autres chercheurs ont formulé une appréciation plus nuancée des GWAS. Certes, ils ont également émis des critiques à leur encontre, faisant notamment observer que des gènes répliqués dans la majorité des études n’ont pas permis d’identifier les origines génétiques causales liées aux pathologies examinées.
Pour autant, ils estiment que l’identification des gènes liés aux pathologies complexes déboucherait sur d’importantes perspectives. D’une part, ces nouvelles connaissances révèlent des mécanismes moléculaires, dont le rôle dans l’étiologie de ces maladies n’était pas établi, ce qui, dès lors, autoriserait l’exploration de nouvelles thérapies. D’autre part, les GWAS mettraient clairement en évidence la forte hétérogénéité de la majorité des entités nosologiques explorées. À terme, selon ces mêmes chercheurs, la définition de sous-groupes génétiquement et, donc, physiopathologiquement plus homogènes, devrait permettre une prise en charge thérapeutique différenciée et mieux ciblée, ainsi que la définition de facteurs pronostiques et prédictifs plus précis (26).
b. Le développement continu des thérapeutiques
Dans l’étude des rapporteurs précitée, ils avaient analysé la contribution de la thérapie génique et de la thérapie cellulaire au développement de la médecine de précision, objectif auquel, nous le verrons ultérieurement, concourt également l’épigénétique.
Ils renvoient à cette analyse (27), non sans avoir émis quelques observations.
• S’agissant de la thérapie génique, celle-ci consiste à insérer dans les cellules du malade une version normale d’un gène qui ne fonctionne pas et cause la maladie.
Citant les propos de la Pr Marina Cavazzana-Calvo (28), les rapporteurs ont indiqué que la thérapie génique restait une source d’espoir grandissante pour toutes les maladies génétiques, monogéniques et autosomiques récessives.
La découverte du CRISPR-Cas9 – outil qui, selon un avis largement partagé, révolutionnerait la génétique – est susceptible d’accroître de tels espoirs et de contribuer aussi à de nouveaux progrès de la thérapie génique (29).
En s’inspirant d’un mécanisme de défense bactérien, des biologistes – dont la chercheuse française, Emmanuelle Charpentier, directrice du Department of regulation in infection biology à l’Institut Max Planck – ont mis au point un outil pour modifier l’ADN de n’importe quelle cellule. Ainsi, chez les bactéries, chaque séquence CRISPR correspond à un fragment d’ADN bactérien entourant un fragment d’ADN invasif (viral ou plasmidique). Lorsqu’une séquence CRISPR est transcrite en ARN, celui-ci se lie à une enzyme endonucléase, la Cas9. L’ARN, qui contient une séquence transcrite d’ADN invasif, jour alors le rôle de guide. Si une séquence d’ADN invasif est apparentée à l’ARN guide, Cas9 le coupe. Dans l’outil développé par Emmanuelle Charpentier, l’ADN invasif est remplacé par un fragment d’ADN que l’on veut cibler. Toutefois, le mécanisme permettant l’accès à l’un des deux brins de l’ADN viral n’est pas encore élucidé. En attendant, le système s’avère néanmoins très efficace pour détecter facilement une séquence d’ADN donnée en vue de la découper avec précision.
Quoi qu’il en soit, le CRISPR-Cas9 est considéré comme un outil très performant du génie génétique, puisqu’on pourrait l’utiliser pour supprimer un gène et aussi découvrir sa fonction. De même, un gène néfaste ou déficient pourrait-il être éliminé. Il suffirait de fabriquer en laboratoire un « ARN guide » correspondant au gène que l’on souhaite cibler, puis de l’arrimer à une enzyme Cas9. Cette dernière découperait alors le gène. C’est précisément ce que Mme Emmanuelle Charpentier réussit à faire in vitro en 2012, en s’alliant avec sa consœur Jennifer Doudna, de l’université de Berkeley.
Plusieurs expériences intervenues au cours de ces trois dernières années illustrent l’efficacité de CRISPR-Cas9.
Ainsi, en janvier 2013, quatre équipes ont annoncé avoir réussi à détruire des gènes cibles dans des cellules humaines. Les applications vont alors se multiplier très rapidement pour parvenir à modifier des gènes d’organismes variés : bactéries, levures, riz, mouches nématodes, poissons-zèbres, rongeurs, etc.
En 2014, deux autres résultats ont été annoncés. Le premier concerne des primates. En février 2014, une équipe de l’université médicale de Nanjing, en Chine, a injecté cinq ARN guides conçus pour cibler simultanément cinq zones réparties sur trois gènes particuliers, ainsi que le matériel génétique nécessaire à la synthèse de Cas9. L’équipe a observé que chez huit embryons ainsi traités, CRISPR-Cas9 avait réussi à agir sur trois gènes cibles. Les chercheurs ont ensuite recommencé l’opération sur quatre-vingt-six autres embryons qu’ils ont transférés dans vingt-neuf femelles porteuses. Lorsque l’étude a été publiée, une seule femelle était arrivée à terme. Elle avait donné naissance à des jumeaux, chez lesquels CRISPR-Cas9 avait aussi agi simultanément sur deux des trois gènes.
Les chercheurs n’ont détecté aucune mutation sur le reste du génome, ce qui permettrait d’envisager l’utilisation de CRISPR-Cas9 pour corriger des cellules humaines malades en laboratoire, avant de les réimplanter aux patients.
Mais c’est surtout à la fin du mois de mars 2014 qu’une équipe de l’Institut de technologie du Massachussetts a concrétisé le potentiel médical de CRISPR-Cas9. Ces biologistes l’ont utilisé sur la souris pour corriger une maladie génétique incurable du foie, liée à une mauvaise dégradation de la tyrosine, un acide aminé, la tyrosinémie A des souris malades adultes. L’équipe a injecté trois ARN guides ciblant trois séquences d’ADN liées à la mutation, le gène de Cas9 et le gène sain.
Comme on le verra ultérieurement, CRISPR-Cas9 peut aussi être utilisé en épigénétique. Malgré le succès que le CRISPR-Cas9 pourrait connaître dans le domaine de la thérapie génique, les rapporteurs ont pu constater que les jugements sur l’efficacité de cette dernière semblaient partagés.
Certains, célébrant son vingt-cinquième anniversaire, font valoir que la plupart des essais de thérapie génique ont fait preuve, jusqu’ici, d’un haut niveau de sécurité et que cette thérapie est en voie de trouver sa place dans l’arsenal thérapeutique.
En revanche, d’autres, comme M. Vincent Colot et le Pr Andràs Paldi, ont fait part de leurs réserves.
En ce qui concerne M. Vincent Colot, il a estimé que, dans le cas du cancer, la thérapie génique lui paraissait jouer un rôle limité puisqu’il faudrait déceler le cancer pratiquement au stade initial et traiter la cellule dans laquelle la mutation a lieu. Or, il juge impossible de cibler toutes les cellules par la thérapie génique.
L’avantage des « bébés-bulles » (30) est que la thérapie était réalisée sur des cellules souches par définition peu nombreuses. Au demeurant, dans le cas des « bébés-bulles », le gène a été intégré près d’un gène oncogène, ce qui a enclenché son activation et provoqué des cancers.
Pour sa part, le Pr Andràs Paldi a considéré que la difficulté de la thérapie génique à apporter les réponses promises tient au dysfonctionnement du « tout génétique ». L’apport d’un gène thérapeutique ne corrige pas nécessairement l’organisme. Il peut corriger les conséquences d’une maladie. Mais l’organisme reste, la plupart du temps, malade. Ainsi, une nouvelle situation apparaît, qui s’adapte à l’arrivée de ce gène a posteriori.
Or, cet ajout a posteriori n’équivaut pas à la présence initiale d’un gène, ce qui peut d’ailleurs poser de nouveaux problèmes. C’est pourquoi, selon le Pr Andràs Paldi, les essais cliniques de thérapie génique ont largement échoué, les véritables succès ne représentant qu’un pourcentage peu élevé.
• Pour ce qui concerne, en second lieu, la thérapie cellulaire, les rapporteurs ont évoqué, dans leur étude précitée sur la médecine de précision, les potentialités qu’elle recelait. En effet, l’une d’entre elles a trait aux travaux effectués en 2006-2007 par le Pr Shinya Yamanaka sur les cellules souches pluripotentes induites (cellules IPS), qui ont déjà été évoquées précédemment.
Dans sa leçon inaugurale au Collège de France du 3 décembre 2012, Mme Edith Heard, professeure titulaire de la chaire épigénétique et mémoire cellulaire et membre du conseil scientifique de l’OPECST, relève que cette reprogrammation forcée de cellules différenciées en cellules souches pluripotentes ouvre un fantastique potentiel thérapeutique – celui de la médecine régénérative. Pour autant, Mme Heard observe que cette reprogrammation reste peu efficace car elle requiert de très nombreuses divisions cellulaires pour s’établir, le processus allant ainsi rarement jusqu’à son terme.
Quoi qu’il en soit, Mme Heard souligne que les travaux du Pr Yamanaka posent l’importante question de savoir comment le processus de différenciation cellulaire peut s’inverser, ce qui est l’une des interrogations majeures en épigénétique, en raison du fait que l’une des caractéristiques principales des marques épigénétiques est leur réversibilité.
Les travaux du Pr Yamanaka comme ceux d’autres chercheurs confirment donc bien que l’épigénétique s’inscrit dans l’évolution de la génétique, tout en introduisant une nouvelle approche du vivant. En d’autres termes encore, comme le fait remarque M. Timothy Spector, professeur d’épidémiologie génétique au King’s College de Londres, « L’âge du gène est loin d’avoir pris fin, il a simplement progressé dans l’âge de l’épigénétique » (31).
II. L’APPROCHE NOUVELLE DU VIVANT PAR L’ÉPIGÉNÉTIQUE
La notion d’épigénétique vise « tout ce qui relie le génotype au phénotype ». La définition moléculaire actuelle proposée par le biologiste britannique Robin Holliday désigne « l’étude des modifications transmissibles et réversibles de l’expression des gènes ne s’accompagnant pas de changements des séquences nucléotidiques ».
Le point commun de ces deux définitions est de tenter de répondre aux limites de la génétique, dont nous avons fait état précédemment, en particulier en ce qui concerne les importantes problématiques de la régulation des gènes et de la différenciation cellulaire, à savoir comment, à partir d’un génome unique, expliquer la diversité des phénotypes cellulaires, d’une part et, d’autre part, pourquoi une partie des gènes s’exprime pour produire des caractéristiques propres à un type cellulaire.
Ainsi l’épigénétique complète-t-elle la génétique sur ces points cruciaux. L’apport de l’épigénétique ne se limite toutefois pas à la recherche fondamentale, mais concerne également le domaine médical.
En effet, l’une des caractéristiques essentielles de l’épigénétique réside dans l’étroitesse des liens entre recherche fondamentale et applications cliniques.
Car, l’épigénétique est un champ privilégié de la recherche translationnelle, comme l’illustre le renouvellement de l’étiologie de plusieurs maladies, auquel elle contribue.
A. L’APPORT D’INFORMATIONS SUPPLÉMENTAIRES SUR LA RÉGULATION DE L’EXPRESSION DES GÈNES
Les processus biochimiques qui permettent la modulation de l’expression des gènes n’entraînant pas la modification de la séquence d’ADN – autrement dit, ce que l’on appelle les marques épigénétiques – sont de nature diverse.
Ces marques épigénétiques ont pour caractéristique de constituer une interface entre les gènes et l’environnement, ce qui leur permet, selon la définition précédemment rappelée par Robin Holliday, d’être réversibles et transmissibles.
1. La diversité des marques épigénétiques impliquées
L’ensemble des marques épigénétiques – activatrices et inhibitrices – d’une cellule constitue son épigénome, qui la différencie des autres cellules de l’organisme avec lesquelles elle partage pourtant le même patrimoine génétique.
Tout en étant un facteur de complexité de la régulation des gènes, ces marques épigénétiques jouent un rôle essentiel dans le développement et la prolifération cellulaires.
a. L’épigénome : un ensemble complexe de mécanismes
Cette complexité tient à ce que, à l’inverse de l’information génétique qui est codée dans la séquence d’ADN, l’information épigénétique peut être stockée sous diverses formes : méthylation de l’ADN, modification des histones et ARN non codants (ANRnc). Ces différents mécanismes relèvent de ce que certains chercheurs (32) appellent le code épigénétique.
La méthylation de l’ADN, qui est la modification épigénétique la plus connue, consiste en l’ajout d’un groupement – méthyle (CH3) – sur l’un des résidus cytosine de l’ADN.
En 2009, une autre forme de méthylation de l’ADN – appelée
5-hydroxyméthylcytosine (5hmc) – a été découverte dans le processus de déméthylation et la régulation génique.
L’essentiel des sites de méthylation de l’ADN se situent sur les cytosines qui précèdent une guanine, dans ce que l’on appelle les îlots CpG (le « p » signifiant phosphate).
La méthylation de l’ADN est effectuée par des enzymes spécialisées, les méthyltransférases.
Les trois familles d’ADN méthyltransférases (DNMT) sont :
- DNMT 1 : elle assure le maintien des profils de méthylation au cours des divisions cellulaires ;
- DNMT2 : sa séquence et sa structure sont similaires à celles des DNA méthyltransférases. DNMT2 a une faible activité de méthylation. Des études ont montré que DNMT2 avait également une activité de méthylation de l’ARN ;
- DNMT3 est responsable de la méthylation de novo en ajoutant des groupements méthyles sur les deux brins d’ADN. DNMT3a est impliquée dans la méthylation des promoteurs de l’expression des gènes et DNMT3b dans la méthylation des séquences entourant les centromères (33).
L’importance des méthyltransférases est attestée par le fait que l’invalidation de leur gène est systématiquement létale, le plus souvent avant la naissance. Bien qu’une déméthylation active de l’ADN puisse survenir en certaines circonstances, les déméthylations qui en sont responsables restent à identifier.
Chez l’homme, 70 % à 80 % des doublets CpG sont méthylés. L’essentiel de cette méthylation se concentre dans les régions associées à l’hétérochromatine, lesquelles rassemblent en majorité des séquences non codantes, mais également des gènes dont la nature dépend des types cellulaires.
On considère classiquement que les régions du génome caractérisées par un faible taux de méthylation correspondent aux régions présentant une forte activité transcriptionnelle ; à l’inverse, les régions caractérisées par un fort taux de méthylation correspondent aux régions transcriptionnellement inactives.
Les modalités du rôle répressif de la méthylation dans l’expression des gènes font toujours l’objet de débats. La méthylation pourrait agir directement en empêchant la fixation des facteurs de transcription au niveau du promoteur des gènes, ou plus indirectement en recrutant des protéines capables de condenser la chromatine donc de perturber l’accès de ces facteurs à l’ADN. Certaines protéines capables de se lier spécifiquement à l’ADN méthylé, telles que les protéines à domaine MBD (méthyl-CpG binding domain), peuvent jouer ce rôle d’intermédiaire.
Les études les plus récentes, réalisées à l’échelle du génome entier et avec une résolution de plus en plus fine, montrent toutefois que la corrélation entre l’état de méthylation des promoteurs et l’activité transcriptionnelle ne correspond pas toujours à celle qui est attendue. Par ailleurs, l’état de méthylation des régions situées aux marges des îlots CpG, et pas seulement en leur sein, semble également jouer un rôle important dans le niveau d’activité des gènes.
Selon une étude récente (34), toutes ces données montrent que beaucoup de progrès restent à accomplir pour comprendre pleinement le rôle de la méthylation de l’ADN et son impact sur l’activité des gènes, car la vision que nous en avons est certainement trop schématique.
Même si les informations actuellement disponibles sont encore très fragmentaires, il est désormais bien établi que le profil de méthylation du génome est très plastique. Il varie à la fois dans l’espace, selon les types cellulaires, et dans le temps, selon leur état de différenciation. Les travaux réalisés chez la souris montrent que le génome de l’embryon subit une déméthylation presque totale juste après la fécondation, avant d’être intensément reméthylé au moment de l’implantation. Par la suite, chaque type cellulaire acquiert un profil de méthylation qui lui est propre.
Les techniques utilisées pour l’analyse de la méthylation à l’échelle génomique progressent très rapidement et devraient prochainement permettre de préciser l’ampleur et les conséquences fonctionnelles de ces changements.
La méthylation joue certainement un rôle important dans la différenciation cellulaire mais celui-ci doit malgré tout être nuancé, car le blocage de la méthylation n’empêche pas nécessairement l’extinction des gènes à laquelle elle est corrélée. La méthylation ne serait donc pas un facteur déclencheur de la répression génique. Elle serait plutôt un processus qui la stabilise, après son établissement par d’autres mécanismes, comme certaines modifications associées à la chromatine (35), et qui permet ensuite de la perpétuer au cours des divisions cellulaires.
ii. Les modifications d’histones
L’ADN est une longue macromolécule composée de nucléotides. Chez l’homme sa longueur est de deux mètres. Il s’enroule dans le noyau de la cellule d’un diamètre d’environ 5 micromètres et y est compacté autour de protéines appelées histones. Celles-ci sont réparties en cinq groupes (36), principalement en fonction de leur teneur en lysine et en arginine (37). Chaque groupe contient plusieurs sous-groupes, qui sont eux-mêmes composés de plusieurs types d’histones.
L’association des histones et de l’ADN embobiné dans le noyau forme la chromatine, ce que les recherches en génétique moléculaire ont longtemps ignoré, considérant que l’ADN était nu dans la cellule.
L’existence de la chromatine induit une condensation de l’ADN, celle-ci s’avérant toutefois différente selon les régions considérées. Ainsi, à l’échelle du noyau, la chromatine revêt-elle deux aspects aisément reconnaissables : la chromatine condensée, appelée hétérochromatine, et la chromatine décondensée, qui est appelée euchromatine.
L’hétérochromatine est caractérisée par une accessibilité réduite des facteurs de transcription à l’ADN. L’ADN y est alors principalement silencieux et faiblement transcrit.
À l’inverse, l’euchromatine est la partie de la chromatine dans laquelle l’ADN est accessible et peut être potentiellement transcrit.
Les principales protéines de la chromatine – les histones H2A, H2B, H3 et H4 – ont toutes la particularité de subir différentes modifications post-traductionnelles. Celles-ci vont influencer l’état de compaction de la chromatine et, donc, modifier les niveaux d’expression des gènes.
Ces modifications post-traductionnelles ont lieu sur différents résidus bien définis, majoritairement situés à leur extrémité amino-terminale (38).
Parmi les modifications des histones – dont le nombre est estimé à plus de soixante-dix à l’heure actuelle – les plus importantes sont : l’acétylation, la méthylation, la phosphorylation et l’ubiquitylation.
→ L’acétylation des histones, qui porte exclusivement sur les lysines, se concentre essentiellement dans les régions transcriptionnellement actives du génome. En neutralisant les charges positives, l’acétylation affaiblit les interactions entre ces histones et l’ADN, lequel est chargé négativement.
De nombreux facteurs de transcription sont connus pour être capables de recruter les enzymes responsables de l’acétylation des histones appelées acétyltransférases (HAT). Celles-ci provoquent un relâchement local de la chromatine qui favorise ensuite la mise en place de la machinerie d’initiation de la transcription.À l’inverse, certains répresseurs agissent par l’intermédiaire d’enzymes de désacétylation (HDAC). L’acétylation et la méthylation des histones ont des effets directs sur une série de processus nucléaires incluant la transcription des gènes, la réparation de l’ADN, la réplication et l’organisation des chromosomes.
→ La méthylation des histones porte à la fois sur les arginines et les lysines mais, contrairement à l’acétylation, elle ne modifie pas leur charge globale. La méthylation des histones constitue le plus souvent une marque de répression de la chromatine, avec des effets très importants sur l’expression des gènes, sur la réplication ainsi que sur la réparation de l’ADN.
En effet, l’influence de la méthylation des histones sur la transcription repose essentiellement sur la capacité des résidus méthylés à interagir avec des protéines possédant un domaine particulier – ou chromo-domaine – qui soient ensuite capables de moduler la transcription ou l’état de condensation de la chromatine.
→ La phosphorylation consiste dans la substitution d’un groupement hydroxyle (39) par un groupement phosphate. Elle est réalisée sur les résidus sérine, théonine et tyrosine (40) La phosphorylation joue un rôle dans l’activation transcriptionnelle, dans la condensation des chromosomes mitotiques et la réparation de l’ADN.
→ L’ubiquitylation est une modification post-traductionnelle impliquant une série de réactions enzymatiques pour aboutir in fine à la fixation covalente (41) d’une ou de plusieurs protéines d’ubiquitine (42) sur une ou plusieurs lysines acceptrices de la protéine substrat. L’ubiquitylation exercerait aussi une fonction dans la formation de l’hétérochromatine et la régulation de la transcription.
Les histones peuvent subir de nombreuses modifications, chaque modification pouvant influencer les autres. À cet égard, plusieurs travaux soulignent les relations bilatérales existant entre la méthylation de l’ADN et les modifications des histones. En effet, une chromatine active est associée à l’hypo méthylation de l’ADN et à des marques d’histones actives, tandis qu’une chromatine inactive contient un ADN hyperméthylé et des modifications d’histones sous-tendant un état transcriptionnel inactif.
La découverte de toutes ces corrélations a conduit à l’hypothèse de l’existence du code histone. Selon cette hypothèse, chaque type de modification des histones représenterait une information reconnaissable par les protéines effectrices, capables ensuite de produire des effets spécifiques sur l’état de la chromatine.
iii. Les ARN non codants (ARNnc)
Les ARNnc régulateurs contrôlent l’expression des gènes, l’établissement des domaines chromatiniens et la stabilité du génome. Ils peuvent être classés en deux catégories, en fonction de leur taille. Les petits ARN interférents (siRNA) contrôlent l’expression des gènes et la ségrégation des chromosomes.
Les longs ARNnC, même s’ils ne codent pas pour les protéines et si l’expression d’un grand nombre d’entre eux est limité à un comportement cellulaire ou à un tissu spécifique, ils ont des rôles essentiels dans la régulation épigénétique de l’expression des gènes, autant au niveau transcriptionnel que post-transcriptionnel. En outre, ils ont un rôle-clef dans le développement et la différenciation cellulaires.
b. Le jeu des mécanismes épigénétiques dans le développement et la différenciation cellulaires
Le jeu de ces mécanismes revêt deux aspects :
- d’un côté, les mécanismes épigénétiques n’initient pas de façon automatique le changement d’état d’un gène, c’est-à-dire s’il est exprimé ou réprimé ;
- de l’autre, ils permettent l’établissement et le maintien de l’identité cellulaire.
i. Les mécanismes épigénétiques n’initient pas de façon automatique le changement d’état d’un gène
Dans des circonstances normales, le système épigénétique ne peut initier de façon automatique un changement d’état d’un gène, mais enregistre et marque un changement déjà imposé par d’autres événements. Dans ce sens, les modifications épigénétiques ne sont pas proactives, selon les termes de certains chercheurs (43), mais agissent en réponse à une décision transcriptionnelle et cellulaire déjà engagée. Il s’agit de divers stimuli, le plus souvent sous forme de signaux extracellulaires, tels qu’une hormone ou encore un changement de température.
Cette perception de l’environnement extérieur est traduite au sein de la cellule par des voies de signalisation intracellulaires, qui aboutissent dans le noyau à l’activation ou à la répression de gènes cibles, par la liaison des facteurs de transcription.
Ces derniers ont ainsi pour rôle d’orchestrer un programme d’expression génique propre à chaque type cellulaire. Le passage d’une étape à l’autre dans le processus de différenciation s’effectue :
- soit par des cascades régulatrices : schématiquement, un gène A active un gène B qui active un gène C ;
- soit en réponse à des molécules de signalisation secrétées ou présentes à la surface des cellules.
Ces signaux extracellulaires peuvent alors être transmis au noyau pour, in fine, organiser l’activité des facteurs de transcription ; les facteurs de transcription sont des protéines qui relèvent de deux catégories :
- les facteurs généraux de transcription, qui désignent des protéines nécessaires à la transcription correcte de gènes très divers chez des organismes différents ;
- les facteurs spécifiques de transcription qui s’unissent à divers sites de gènes particuliers. Ces facteurs de transcription peuvent fonctionner comme activateurs ou inhibiteurs.
Cette réponse transcriptionnelle est ensuite consolidée par des modifications épigénétiques. Celles-ci vont assurer la stabilité de la décision cellulaire en l’absence du signal inducteur d’origine, mais également la perpétuation de cette identité aux cellules filles issues de la cellule d’origine qui a été confrontée au signal inducteur.
ii. Comment les mécanismes épigénétiques contribuent-ils au développement et à la différenciation cellulaires ?
M. Raphaël Margueron, chef d’équipe de l’unité génétique et biologie du développement de l’Institut Curie a parfaitement résumé les tâches incombant aux mécanismes épigénétiques : « Son challenge (celui de l’épigénétique), c’est de maintenir une certaine stabilité au cours de la vie, afin qu’une cellule cardiaque reste une cellule cardiaque. Mais dans le même temps, l’épigénétique doit permettre, au moment du développement, une flexibilité importante pour que chaque cellule trouve sa place et sa fonction spécifique » (44).
Dans l’accomplissement de ces tâches, on constate que, là encore, les mécanismes épigénétiques agissent en réseau.
Outre sa participation à la différenciation cellulaire, la méthylation de l’ADN intervient dans certaines étapes plus précises du développement comme l’inactivation du chromosome X et l’établissement de l’empreinte parentale.
- Lors de la différenciation, les cellules évoluent du stade de totipotence (45) en passant par des étapes de pluripotence (46) pour aboutir à un état bien différencié. Au cours de cette progression, elles acquièrent les propriétés spécifiques reflétant un profil d’expression précis. Cela nécessite des modifications de la répartition de la méthylation de l’ADN qui, par la suite, seront transmises aux cellules filles garantissant la pérennité de l’état différencié.
- En ce qui concerne l’inactivation du chromosome X et l’empreinte parentale, ces processus illustrent la façon dont les mécanismes épigénétiques permettent de différencier deux séquences identiques au sein d’un même noyau.
1/ L’inactivation du chromosome chez les mammifères femelles :
Dans sa leçon inaugurale au Collège de France du 13 décembre 2012, Mme Edith Heard, titulaire de la chaire épigénétique et mémoire cellulaire et membre du conseil scientifique de l’OPECST, a vu, dans l’inactivation du chromosome X, un paradigme pour l’étude des mécanismes épigénétiques.
En effet, le mécanisme de méthylation de l’ADN n’intervient pas dans la mise en place de l’inactivation du chromosome X mais au stade de son maintien.
À la différence des cellules de mâles mammifères, celles des femelles possèdent deux chromosomes X. Or, l’un des deux doit être éteint pour la raison exposée par la Pr Édith Heard : « Si ces deux X continuent à s’exprimer au cours du développement, l’embryon meurt très vite, car une double dose de protéines du X est létale. Pour que le dosage soit le même pour chaque sexe, il faut qu’un des X se taise chez les femelles » (47).
Cette inactivation est contrôlée par un locus complexe – appelé centre d’inactivation du X – qui détermine le chromosome inactivé. L’inactivation est effectuée par un gène identifié en 1991 appelé Xist. On a pu établir que ce gène s’exprime soit sur l’Xp (le chromosome paternel), soit sur l’Xm (le chromosome maternel) de façon apparemment aléatoire, dans les premiers moments de la vie embryonnaire au sein de la masse cellulaire interne de l’embryon (48). Le gène Xist gouverne la synthèse d’un ARN-Xist, lequel interdit l’accès de la machinerie transcriptionnelle au chromosome X qu’il recouvre.
Le chromosome compagnon Xm ou Xp n’exprime pas cet ARN-Xist inhibiteur et devient, par lui-même, l’X actif de la cellule.
Le gène Xist n’intervient toutefois que temporairement dans l’inactivation de l’X. Rapidement, son expression cesse sur le chromosome inactivé n’alimentant pas la production d’ARN recouvreur. Son action est alors relayée par les modifications épigénétiques qui se produisent sur l’X inactivé. Ainsi, ces modifications épigénétiques ne touchent pas à la séquence ADN, mais ajoutent un groupement méthyle aux cytosynes ou des groupements méthyle/acétyle aux histones auxquels il est lié.
Ces modifications épigénétiques sont transmises au fil des divisions cellulaires et concernent également les chromosomes autosomes (49). Elles s’additionnent au cours de la vie d’un individu, ce qui explique, en partie, par exemple, que de vrais jumeaux finissent par moins se ressembler au fur et à mesure qu’ils vieillissent.
En outre, certains dérèglements de l’inactivation de l’X sont associés à des pathologies telles que des cancers du sein, comme l’a indiqué Mme Edith Heard lors de sa leçon inaugurale au Collège de France.
2/ L’empreinte parentale :
Chez l’homme, il existe deux versions de chaque gène : l’une est transmise par la mère, l’autre par le père. Mais pour une poignée d’entre eux – dont le nombre est estimé à cent –, une seule des copies est utilisée, car la méthylation de l’ADN a éteint l’autre version de manière indélébile, soit dans le spermatozoïde du père, soit dans l’ovule de la mère. Cette mémoire épigénétique est transmise à la descendance au moment de la fécondation et elle est maintenue tout au long de la vie.
La méthylation présente plusieurs caractéristiques importantes qui rendent parfaitement compte de propriétés de l’empreinte parentale :
- elle affecte spécifiquement celui des deux allèles qui est réprimé, soit d’origine paternelle, soit d’origine maternelle ;
- elle peut être transmise à la faveur des cycles de réplication de l’ADN ;
- elle est régulièrement effacée puis remise en place à chaque génération.
• Les modifications d’histones
Les modifications d’histones sont impliquées dans l’inactivation du chromosome X et l’empreinte parentale.
Selon une étude (50), des modifications du profil de méthylation et d’acétylation des histones – entre autres – sont incluses dans la cascade de changements chromatiniens intervenant au niveau de Xp (chromosome paternel) à la suite de l’inactivation du chromosome X chez la souris. On note notamment des phénomènes d’hypo-acétylation et d’hypométhylation. À ce propos, Mme Edith Heard a indiqué, dans sa leçon inaugurale précitée, que l’inactivation, chez la souris, était très précoce et soumise à l’empreinte parentale, puisqu’elle concerne exclusivement le chromosome X d’origine paternelle.
En second lieu, soulignant que, postérieurement à la réactivation de l’X paternel, s’ensuit immédiatement l’inactivation aléatoire de l’un ou l’autre des deux chromosomes X, Mme Edith Heard, considère que ce processus dynamique donne un premier aperçu des événements de reprogrammation concernant tout le génome aux stades précoces de l’embryogénèse, ces derniers étant, selon Mme Heard, l’équivalent des cellules souches embryonnaires ou des cellules souches induites pluripotentes. Aux yeux de Mme Heard, de tels résultats, ont révélé également pour la première fois, la plasticité des processus épigénétiques au cours du développement.
Les marques d’histones associées à l’empreinte parentale, bien que moins documentées que les marques de méthylation de l’ADN, sont toutefois également importantes.
La distribution de ces marques – étudiées essentiellement chez la souris – est relativement complexe. Ainsi, les marques dites permissives (acétylation des histones H3 et ou méthylation de la lysine 4 de l’histone H3) sont, elles, majoritaires sur l’allèle paternel non méthylé.
On a pu constater précédemment l’importance du rôle joué par l’ARN-Xist dans la mise en place de l’inactivation du chromosome X. À cet égard, les auteures d’une étude (51) soulignent, en se référant à plusieurs travaux, que l’ARN-Xist est non seulement nécessaire mais même suffisant à la mise en place de l’inactivation.
Jouant ainsi un rôle dans le développement et la différenciation cellulaires, les marques épigénétiques sont aussi considérées comme une interface entre des gènes et l’environnement.
2. L’épigénétique, interface entre les gènes et l’environnement
Waddington avait déjà souligné le rôle essentiel de l’environnement en considérant que les interactions des gènes avec l’environnement donnaient naissance au phénotype.
Pour autant, la notion d’environnement demeure imprécise, comme l’a fait observer le Pr Jean-Claude Ameisen (52): « Un mot sur l’environnement : le fait d’utiliser ce mot au singulier donne l’impression que la frontière entre l’intérieur et l’extérieur est un élément évident. Or, cela dépend très largement de ce qui intéresse l’observateur. L’environnement d’un gène est ainsi constitué par les autres gènes, l’ADN, les protéines qui les entourent dans le noyau. L’environnement d’un noyau est le cytoplasme de la cellule et les mitochondries qu’elle contient. Celui d’une cellule est composé des dizaines de milliers de milliards de cellules qui composent notre corps. À l’intérieur de cet environnement, se trouvent les centaines de milliers de milliards de bactéries qui constituent le microbiote et ont une influence sur notre santé et le développement de maladies. Il existe aussi l’environnement extérieur : non vivant, vivant, humain. C’est l’ensemble de ces différentes composantes des environnements que l’épigénétique explore, puisqu’elle considère l’effet de l’histoire singulière de l’individu et de ses environnements sur la façon d’utiliser les gènes ».
Sous ces réserves, certains chercheurs tels que le Pr Michael Skinner, professeur à l’école des sciences biologiques de l’État de Washington, ont tenté d’établir une liste des facteurs environnementaux, laquelle peut notamment inclure les agents environnementaux ou le stress (53). Le Pr Skinner, ajoutant toutefois que « Tout facteur extérieur pouvant moduler le développement normal et l’épigénome peut être considéré comme un dérèglement environnemental qui impacte l’activité du génome sans altérer la séquence de l’ADN. »
Quoiqu’il en soit, les facteurs environnementaux influent sur les marques épigénétiques à travers leurs deux traits fondamentaux : la réversibilité et la transmissibilité.
a. La réversibilité des marques épigénétiques
Les mécanismes épigénétiques sont à la fois stables et instables, sur une échelle de temps courte. Car, pour chaque enzyme qui met en place une marque épigénétique, il existe une enzyme qui caractérise la réaction opposée, comme c’est le cas au cours du développement embryonnaire : certains gènes sont inactifs à un moment donné, puis ils sont activés et éventuellement inactivés de nouveau.
Cette notion de réversibilité est ce qui caractérise le plus intrinsèquement une modification épigénétique. Une telle propriété ouvre de grands espoirs de thérapie pour une restauration ciblée de profils de méthylation anormaux, notamment dans le cas du cancer, qui sera exposé ci-après. Mais il s’agit surtout d’une notion essentielle du développement. Cette flexibilité permet, en effet, le retour d’un état différencié à un état pluripotent et d’accomplir un cycle de vie, c’est-à-dire ce qui est appelé la reprogrammation épigénétique.
Toutefois, Mme Claudine Junien, membre correspondant de l’Académie de médecine, professeure de génétique et directrice de l’UMR INRA-CNRS Biologie et reproduction du développement, note que la réversibilité des modifications épigénétiques n’est pas toujours la règle. Mme Claudine Junien cite ainsi des travaux récents sur le diabète induit par une sous-nutrition gestationnelle, selon lesquels les marques épigénétiques peuvent devenir permanentes et irréversibles. Par exemple, chez le rat, un retard de croissance intra-utérin déclenche des modifications épigénétiques des histones (désacétylation). Ce processus épigénétique se propage dans le temps. Il apparait néanmoins encore réversible chez le rat âgé de deux mois, tandis que chez le rat adulte, l’extension de la désacétylation entraîne la méthylation de l’ADN qui verrouille définitivement la modification épigénétique (54).
Pour autant, Mme Claudine Junien et un autre auteur soulignent que la grande révolution, intervenue au cours des dernières années est la découverte que ces marques épigénétiques peuvent être, à tout instant, perturbées par l’environnement et qu’elles peuvent avoir des conséquences lointaines pour la santé, de la naissance à l’âge adulte (55).
Allant dans le même sens que Mme Claudine Junien, d’autres auteurs indiquent que, du fait de leur réversibilité, les marques épigénétiques peuvent être modifiées par les facteurs environnementaux, lesquels contribuent au développement de phénotypes anormaux ou à des réponses physiologiques normales à certains stimuli environnementaux (56).
Ainsi, ces auteurs étudient-ils le rôle que peut jouer l’alimentation dans ces différentes situations. Ils relèvent, par exemple, qu’une nutrition déficiente en méthyl peut causer le cancer du foie ainsi qu’une hypométhylation et une expression accrue des oncogènes.
De même, encore, font-ils observer que l’alimentation peut modifier la stabilité de l’expression des gènes en se fondant sur la couleur du pelage des souris. En effet, parmi les nombreux gènes qui contribuent à cette couleur, l’un d’entre eux se nomme Agouti. Il existe plusieurs versions de ce gène Agouti, caractérisées par des couleurs de pelages différentes, du fait de la modification du niveau et du type de pigment de la fourrure.
La version du gène agouti la plus étudiée est connue sous le nom de « agouti viable yellow » ou Avy.
Si le gène Avy présente peu ou pas de méthylation, il est alors actif dans toutes les cellules, et les souris sont jaunes. Ces souris jaunes présentent une susceptibilité à l’apparition de problèmes de santé, comme l’obésité, le diabète ou le cancer. Mais si Avy est hyperméthylé, son expression s’éteint dans tout le corps. Cela implique que la souris présente une couleur brune et n’a aucun problème de santé, même si elle possède exactement le même gène agouti que les souris jaunes.
Entre ces deux extrêmes, Avy peut être méthylé à différents degrés, ce qui affecte le niveau d’activité du gène. Il en résulte un dégradé de souris tachetées, chez lesquelles l’activité d’Avy diffère même d’une cellule à une autre. Une même portée génétiquement identique varie en couleur selon ce spectre, en raison de variations épigénétiques établies dans l’utérus. De plus, indépendamment de la couleur du pelage, cela met en évidence les effets du régime alimentaire sur la méthylation.
Si le régime alimentaire peut affecter les marques épigénétiques, il intervient également dans la transmission des marques épigénétiques.
b. La transmission des marques épigénétiques
À chaque génération, les marques épigénétiques s’effacent et se remettent en place lors de la différenciation des gonades (57) et après la fécondation. Pour autant, cet effacement n’est pas absolu, une minorité de marques épigénétiques permettant d’expliquer la transmission non pas génétique mais épigénétique par la lignée germinale.
Il en est ainsi des profils de méthylation normaux ou pathologiques, qui sont transmis au travers des divisions cellulaires et même des générations.
On peut, en effet, distinguer deux modes de transmission non génétiques : somatique ou germinal. Ainsi, le stress et le régime alimentaire de la mère pourront-ils avoir différents types d’effets sur les cellules somatiques de l’embryon, du fœtus ou sur ses cellules germinales.
Si l’effet est uniquement somatique, le phénotype ne s’observe qu’à la première génération et varie à la deuxième génération.
En revanche, pour affirmer qu’il s’agit bien d’un effet transgénérationnel passant par la lignée germinale, il faut un effet sur trois générations au moins.
Ces effets transgénérationnels ont été observés jusqu’à la quatrième génération, notamment à la faveur d’expériences sur les rongeurs. Les exemples avérés sont toutefois peu nombreux.
Les modalités de ces effets transgénérationnels varient selon les espèces.
Chez les plantes, un cas bien connu d’épimutation (58) héréditaire est celui du variant pélorique de la linaire commune (ou « gueule de loup »), à l’origine décrit par Carl Von Linné au XVIIIe siècle sur une île au large de Stockholm et qui existe toujours dans la flore naturelle de cette région. Le défaut moléculaire est aujourd’hui connu et consiste en un gain de méthylation dans le gène Lcyc impliqué dans le contrôle de la symétrie florale. Aucune modification de la séquence d’ADN n’existe en l’occurrence.
Cette épimutation est donc extrêmement stable et a été transmise à un très grand nombre de générations de plantes.
M. Vincent Colot, se référant à ses travaux, a cité un autre exemple intéressant de transmission héréditaire de caractères complexes chez la plante. Dans une plante modèle – l’arabidopsis –, son équipe, associée à d’autres groupes de chercheurs, a apporté la preuve qu’il était possible de générer une variation épigénétique qui soit transmise de façon stable au travers de multiples générations, selon les lois de Mendel. M. Vincent Colot a fait observer que les variabilités étaient ici inscrites non pas dans la séquence d’ADN mais dans l’organisation de la chromatine.
Chez les animaux, des études font apparaître des effets transgénérationnels chez les mammifères, d’une part, et, d’autre part, chez la paramécie.
S’agissant des mammifères, un exemple de transmission transgénérationnelle a été décrit à travers le cas précédemment cité des souris porteuses du gène Agouti. Des chercheurs australiens ont remarqué que les femelles dont le pelage est de couleur jaune et atteintes d’obésité, donnaient naissance à plus de souriceaux jaunes devenant obèses à l’âge adulte que les femelles foncées. Par conséquent, la corrélation entre le phénotype de la mère et celui de sa descendance suggère que celui de la mère est transmis à ses petits.
Il en est ainsi non pas en raison d’une mutation génétique mais, comme on l’a vu précédemment, de l’état de méthylation génétique d’une petite séquence présente à proximité du gène responsable de la couleur. De fait, à l’état méthylé le gène ajouté étant réprimé, la couleur du pelage de la souris est brune, ce qui signifie qu’elle n’est pas obèse. À l’inverse, à l’état déméthylé, le gène sera actif et le pelage jaunira, indiquant alors un état d’obésité.
Certains autres travaux récents portant également sur les souris font état d’un mécanisme de transmission transgénérationnelle par l’odorat. Ainsi lorsqu’on conditionne une souris en associant une odeur à un choc électrique, cette souris devient plus sensible à l’odeur. Cette adaptation est associée à des modifications épigénétiques du récepteur à cette odeur. Or, on observe que les descendants de cette souris ont aussi cette sensibilité exacerbée à l’odeur, alors qu’ils n’ont pas été soumis aux chocs électriques.
Pour ce qui est de l’homme, des points de vue très différents ont été exposés.
Certains déclarent que, jusqu’à présent, il n’existe aucun cas prouvé chez l’homme de transmission de caractères acquis à la descendance. Car même si une anomalie de méthylation de l’ADN apparaissait comme héréditaire au sein d’une famille, encore faudrait-il séquencer le génome entier de l’individu et de ses apparentés pour prouver que cette épimutation revêt un caractère autonome et qu’il ne s’agit pas d’une mutation génétique qui a cette méthylation anormale pour effet (59).
En revanche, d’autres auteurs citent deux études qui tendraient à démontrer le rôle de l’hérédité épigénétique dans l’évolution des caractères et l’effet de l’environnement sur ce type d’hérédité.
La première étude, réalisée par des chercheurs suédois, concerne une recherche comparative sur l’incidence du diabète dans une population rurale isolée au nord de la Suède entre 1890 et 1935. Les chercheurs ont suivi trois générations successives, nées en 1890, 1905 et 1920, qui ont vécu dans leur enfance des périodes de bonnes et de mauvaises récoltes correspondant probablement à des périodes de nutrition riche ou pauvre en sucres lents. Ils ont observé que les bonnes récoltes survenues pendant la période pré-pubertaire des hommes correspondaient à un risque de développement d’un diabète de type 2 quatre fois plus élevé chez leurs petits-enfants. En revanche, une mauvaise récolte pendant la période pré-pubertaire des grands-parents n’avait pas d’incidence sur leurs petits-enfants. Bien qu’il s’agisse d’études statistiques ne détectant que des corrélations et que nous n’ayons pas la preuve formelle de l’implication des mécanismes épigénétiques, le Pr Andràs Paldi estime toutefois difficile d’écarter un lien de causalité entre la nutrition et la transmission épigénétique (60).
À propos de cette étude sur le cas suédois, une récente recherche fait observer que des échantillons biologiques n’étaient pas disponibles (au moins, exceptée la cohorte de 1935). Or, ces chercheurs estiment que la collecte de sang, ou d’échantillons de tissus est fréquemment considérée comme la prochaine étape pour compléter notre savoir sur les mécanismes transgénérationnels chez les humains. Car la découverte de mécanismes épigénétiques ou d’autres mécanismes dans les cellules peut en réalité faire avancer notre compréhension des relations étiologiques. Pour autant, les auteurs de cette étude considèrent que cela ne signifie pas que des études sur une grande population dépourvues d’informations sur le sang ou le tissu soient inutiles. Au contraire, les hypothèses épigénétiques qui prédisent qu’une exposition spécifique d’une génération peut déboucher sur des résultats spécifiques concernant la (ou les) génération(s) suivante(s) pourraient et devraient être testées dans des études populationnelles à large échelle, qui fournissent des informations sur ces expositions et ces résultats (61).
Le second exemple nous rapprocherait, selon le Pr Paldi, un peu plus d’une démonstration de l’effet transgénérationnel. Pendant la Seconde guerre mondiale, durant l’hiver 1944-1945, une famine a frappé les Pays-Bas. Parmi les habitants durement touchés, il y avait des femmes enceintes qui ont donné naissance à des enfants de petit poids (un phénomène connu et facilement compréhensible puisque le fœtus est nourri par l’organisme maternel). Mais quand, parmi ces enfants, les filles ont grandi et sont devenues mères à leur tour, elles ont également donné naissance à des bébés de petite taille, bien qu’elles n’aient elles-mêmes jamais subi de famine, en particulier au cours de leur grossesse. Récemment, une équipe de chercheurs américaine a réussi à démontrer que ce phénomène était également fondé sur des mécanismes épigénétiques.
Cette étude a ainsi suggéré que la déficience en protéines dans l’alimentation de la mère a contribué à la perte de méthylation de l’ADN du gène imprimé IGF2 (Insulin like growth factor 2).
Or, certains autres chercheurs estiment non seulement qu’il est difficile de démêler la cause et l’effet mais, en outre, ils font observer que la perte de méthylation à un âge avancé peut être la conséquence de certains changements physiologiques inconnus jusqu’à présent.
Malheureusement, ils constatent qu’il n’y a pas, dans cette étude, de document sur le profil de méthylation de l’ADN antérieurement au développement.
Enfin, ils considèrent qu’une étude de cohorte aurait été meilleure, puisque les épidémiologistes collectent maintenant des biospécimens de jumeaux monozygotes à la naissance (62).
Pour autant, l’étude sur la famine hollandaise n’en serait pas moins utile, ce que tendent à souligner deux observations. Selon la première, « les famines ont existé de tout temps, mais elles n’entraînent pas nécessairement plus tard une obésité, des troubles cardiovasculaires dans un environnement pléthorique chez les sujets qui avaient été touchés au cours de leur développement » (63).
D’après un deuxième chercheur, « cette étude a apporté un soutien décisif et des connaissances fondamentales au champ en expansion des origines développementales de la santé et des maladies », l’acronyme anglais de ce champ étant DOHaD.
Ce champ est, en effet, une composante de la nouvelle approche de l’étiologie de plusieurs maladies qu’a initiée l’épigénétique.
B. LE RENOUVELLEMENT DE L’ÉTIOLOGIE DE PLUSIEURS MALADIES
Si les mécanismes épigénétiques jouent un rôle décisif dans le processus du développement de la vie de l’homme – notamment – les altérations dont ces mécanismes peuvent être l’objet, sont susceptibles de causer des pathologies.
L’étiologie de plusieurs d’entre elles a pu être renouvelée grâce, d’une part, à la mise en évidence du jeu des mécanismes épigénétiques, et, d’autre part, à celle de l’influence de l’environnement et du développement précoce, ces derniers facteurs ayant été analysés par l’épigénétique environnementale et la DOHaD (origines développementales de la santé et des maladies).
1. L’identification du rôle des mécanismes épigénétiques
D’un côté, la recherche a montré que, du fait de l’action des mécanismes épigénétiques, des maladies génétiques devaient désormais être considérées comme génétiques et épigénétiques.
De l’autre côté, la recherche a forgé la notion de maladies épigénétiques, dont le développement s’explique par des facteurs épigénétiques.
Jusqu’à une période relativement récente, on considérait que la cancérogenèse n’était due qu’à des modifications de la séquence d’ADN, selon un processus que rappelle l’encadré ci-après. Il est maintenant admis et démontré que les mécanismes épigénétiques y jouent un rôle aussi important que les mécanismes génétiques.
Les mutations génétiques induisant des cancers Trois catégories de gènes sont impliquées dans le développement des cancers : les oncogènes, les gènes « suppresseurs de tumeurs » et les gènes de « réparation de l’ADN ». Certains gènes impliqués dans la division cellulaire ont pour fonction d’accélérer la prolifération cellulaire. Il suffit qu’un des deux allèles de ces gènes soit modifié pour que le gène devienne hyperactif et augmente la division cellulaire. Ces gènes sont appelés « oncogènes ». Ils ont un rôle majeur dans la croissance des tumeurs. En temps normal, les gènes « suppresseurs de tumeurs » freinent la division cellulaire. S’ils subissent des mutations au niveau des deux allèles, ils peuvent perdre leur efficacité. Cela mène alors à la multiplication incontrôlée des cellules. La dernière catégorie de gènes impliquée dans le développement des cancers est celle des gènes de « réparation de l’ADN ». Ceux-ci permettent la détection et la réparation des erreurs de réplication de l’ADN. S’ils subissent une mutation entraînant leur inactivation, ils ne jouent plus leur rôle de gardien du génome, ce qui entraînera une plus grande probabilité d’activer des oncogènes ou d’inactiver des gènes suppresseurs de tumeurs. Dans une cellule tumorale, où la prolifération est incontrôlée, il y a donc activation des oncogènes, d’une part, et inactivation des gènes suppresseurs et des gènes de réparation, d’autre part. |
Source : François Radvanyi, responsable de l’équipe Oncologie moléculaire à l’Institut Curie.
En effet, comme l’a rappelé M. François Radvanyi (64), il existe ainsi dans le cancer des modifications épigénétiques identifiées à différentes étapes de la progression tumorale, et ce, parfois bien avant que des mutations génétiques ne soient observées. Ces altérations peuvent être locales ou régionales. Par comparaison avec les mécanismes génétiques, ces altérations sont susceptibles de toucher un seul gène isolé ou une région entière.
Ces altérations participent à la progression tumorale. Elles modifient l’expression des gènes et peuvent ainsi causer des inhibitions de gènes préservant des tumeurs ou au contraire des activations d’oncogènes. Elles contribuent, par ailleurs, à la variabilité phénotypique observée dans les cancers, ce qui peut être très important pour la résistance aux traitements. Elles jouent également un rôle dans l’apparition de mutations et l’instabilité génomique. Enfin, ces mutations épigénétiques étant potentiellement réversibles, il est donc envisageable d’agir sur elles par le biais de traitements.
De nombreuses modifications épigénétiques ont été identifiées dans les cancers. Tous les acteurs épigénétiques ont été identifiés et peuvent être altérés : méthylation de l’ADN, modification des histones, positionnement des nucléosomes, ARN et organisation tridimensionnelle du génome.
S’agissant ainsi de la dérégulation affectant la méthylation de l’ADN, les cellules cancéreuses peuvent présenter une hypométhylation de leur ADN ou une hyperméthylation de certains promoteurs de gènes.
Le tableau ci-dessous indique les conséquences qui s’y attachent.
Hypométhylation de l’ADN |
Conséquences |
Hypométhylation globale de l’ADN |
Réactivation de séquences génomiques endoparasitaires et des séquences répétées. Instabilité génomiques et chromosomique |
Hypométhylation du corps du gène |
Activation des sites incorrects d’initiation de la transcription. |
Perte de méthylation de promoteurs |
Activation de gènes oncogènes et pro-métastatiques |
Hyperméthylation de l’ADN |
Conséquences |
Méthylation des promoteurs (ilots CpG) |
Répression des gènes suppresseurs de tumeurs. Répression des régulateurs de gènes suppresseurs de tumeurs. Inactivation des gènes suppresseurs de métastases. |
Perte de l’empreinte parentale |
Dérégulation des gènes soumis à l’empreinte |
Source : Kevin Cheeslan, Jonathan B. Weitzman et Souhila Medjkerne, L’épigénome au cœur de la cancérogenèse, Biofutur, novembre 2014.
En ce qui concerne la dérégulation du code histone, on a fini par remarquer à son sujet qu’elle est l’une des facettes des cancers, tant en ce qui concerne l’initiation de la pathologie que la progression des tumeurs (65). Ainsi, les premières études ont-elles mis en évidence des modifications post-traductionnelles globales dans divers cancers qui ont débouché essentiellement sur des changements d’acétylation ou de méthylation.
Pour ce qui est des ARN non codants, Mme Annick Harel-Bellan, directrice du laboratoire du CEA « Aspects épigénétiques de la prolifération de la différentiation cellulaires », a déclaré aux rapporteurs que les recherches commencent à identifier les ARN non codants surexprimés ou désexprimés dans le cancer. Quant à son laboratoire, elle a fait observer que son activité, centrée sur le rôle des petits ARN dans l’équilibre entre prolifération et différentiation cellulaire, était en relation avec le cancer puisque la première étape d’un cancer – la cancérisation étant un phénomène multi-étapes – correspond à une dérégulation de cet équilibre entre prolifération et différenciation. C’est pourquoi le laboratoire de Mme Harel-Bellan s’attache à étudier le rôle des petits ARN dans le contrôle de cet équilibre et à identifier lesquels sont exprimés, lesquels orientent vers la différenciation, ou vers la prolifération, etc.
Enfin, on signalera les travaux de l’équipe de M. Giacomo Cavalli, directeur de recherche au CNRS à l’Institut de génétique humaine de Montpellier, qui visent à montrer comment l’activité de deux groupes de protéines – Polycomb et Trithorax – peut induire l’apparition de cellules cancéreuses. Ces protéines sont des facteurs de régulation de la structure des différentes régions chromosomiques.
L’équipe de M. Cavalli a ainsi montré que – au-delà de leur rôle dépendant de l’organisation spatiale du génome, les protéines Polycomb étaient impliquées dans la formation des cancers, via la régulation de l’expression de gènes suppresseurs de tumeurs et d’oncogènes.
Lors de son intervention à l’audition publique de l’OPECST du 16 juin 2015, M. François Radvanyi a souligné les interactions qui pouvaient exister entre l’épigénome et le génome dans l’oncogénèse. En effet, l’épigénome influence le génome.
L’hypométhylation de l’ADN est ainsi associée à une instabilité génétique. Il en va de même pour l’inactivation des gènes de réparation de l’ADN, la méthylation de MLH-1 (66) pouvant, par exemple, entraîner une instabilité des microsatellites (67). Enfin, le profil de l’épigénome peut influencer le profil des mutations qui apparaissent.
Mais à l’inverse, le génome influence également l’épigénome. Cela a été mis en évidence ces dernières années grâce aux travaux sur le séquençage systématique des tumeurs, qui a montré que des mutations somatiques pouvaient toucher en fait tous les mécanismes épigénétiques : la méthylation de l’ADN, les modifications des histones, les histones elles-mêmes, le positionnement des nucléosomes, les ARN et l’organisation tridimensionnelle du génome. Des mutations ont, par exemple, été identifiées récemment dans des sites de CTCF (68), c’est-à-dire en-dehors de la séquence codante.
Les variations individuelles de l’ADN influencent également l’épigénome de la tumeur. L’épigénome et les génomes de la tumeur du patient doivent donc être étudiés conjointement.
À cet égard, M. François Radvanyi a précisément plaidé en faveur d’une approche globale de l’étude des cancers (69). Il a, en effet, fait observer que, auparavant, le cancer était étudié de façon isolée et focalisée sur l’examen des cellules tumorales. Or, on s’est aperçu qu’il était aussi important d’étudier le microenvironnement, c’est-à-dire les cellules normales de la tumeur qui participent à la progression tumorale. L’épigénome du microenvironnement est également un élément à considérer, la tumeur devant être étudiée dans le contexte du patient et de l’environnement. Pour autant, M. Radvanyi a indiqué que ces études associant notamment biologie moléculaire et épidémiologie étaient extrêmement coûteuses et devaient être menées sur un grand nombre de patients.
C’est en raison des limites inhérentes aux études d’association pangénomiques que la recherche sur les maladies métaboliques s’est orientée vers la prise en compte des mécanismes épigénétiques.
Ainsi a-t-on fait remarquer que les GWAS (70) n’avaient pu parvenir, que de façon limitée à des prédictions des diabètes de type 2, si l’on compare leur capacité prédictive avec celle des facteurs classiques de risque, tels que la surcharge pondérale ou la réduction de l’activité physique (71).
De même, en ce qui concerne l’obésité, l’estimation du rôle de l’hérédité dans les variations de la susceptibilité individuelle au développement de l’obésité et des problèmes de santé métabolique s’étage entre 40 % et 70 %, tandis que la centaine de variants génétiques les plus fréquemment associés au risque d’obésité identifiés par les études GWAS ne rendent compte que d’un pourcentage peu élevé de variation dans l’obésité. Il en résulte qu’une grande partie de l’hérédité demeure inexpliquée (72).
Pour cet ensemble de raisons, les chercheurs ont recours aux modèles animaux et aux études sur l’homme, grâce auxquels ils ont pu identifier le rôle des mécanismes épigénétiques.
Les modèles animaux ont apporté une contribution décisive à la compréhension du rôle joué par l’épigénétique dans les causes du développement de l’obésité et du diabète de type 2. En effet, une particularité importante des études animales est qu’elles permettent de mesurer les changements épigénétiques dans les tissus – cibles – y compris le foie et l’hypothalamus, ce qui est beaucoup plus difficile pour les êtres humains.
En outre, dans les modèles animaux, il est possible d’étudier de nombreuses générations de petits et ainsi d’établir une distinction entre la transmission transgénérationnelle et intergénérationnelle du risque d’obésité lié au régime nutritionnel des parents, opération qui ne peut être aisément effectuée chez les êtres humains.
Les études animales ont mis en évidence le fait que les changements épigénétiques intervenus chez les petits étaient associés au régime nutritionnel de la mère au cours de la gestation. C’est ainsi que la sur et la sous-alimention de la mère au cours de la grossesse ont été associées à un dépôt accru de graisse chez les petits de la plupart des espèces de mammifères étudiées à ce jour.
La nutrition de la mère durant la grossesse peut non seulement avoir des effets directs sur le fœtus mais également impacter directement le développement des ovocytes des fœtus femelles et les cellules germinales primordiales mâles, ce qui pourrait affecter les petits et les petits de ceux-ci.
Les effets épigénétiques constatés chez les petits, associés au régime nutritionnel de la mère gestante sont la méthylation de l’ADN, des modifications post-traductionnelles des histones et l’expression des gènes de plusieurs gènes-cibles.
Pour autant, des études récentes ont montré que le niveau de nutrition du père peut aussi entraîner un dépôt de graisse chez le petit et des marques épigénétiques.
Ainsi une étude effectuée sur la souris a indiqué que le pré-diabète du père conduisait à une susceptibilité accrue du petit au diabète, associée à des changements dans l’expression du gène pancréatique et dans la méthylation de l’ADN liée au signalement de l’insuline.
Pour ce qui est des études sur l’homme, en rapide expansion, elles ont pour la plupart porté sur l’identification des différences dans la méthylation de l’ADN entre des sites spécifiques qui sont associés à des phénotypes métaboliques.
C’est pourquoi de nombreuses recherches récentes se sont focalisées sur l’explication de l’association entre l’obésité et les maladies métaboliques, d’une part et, d’autre part, sur la méthylation de l’ADN dans tout le génome. De fait, la plus grande étude d’association épigénétique (EWAS) publiée à ce jour, qui a compris 5 465 personnes, a identifié trente-sept sites de méthylation dans le sang. Ceux-ci ont été associés à l’indice de masse corporelle, incluant des sites dans CPT1A 73), ABCG1 (74), et SREBF1 (75).
D’autres études ont fait ressortir une interaction entre génotype et épigénome. Elles ont ainsi identifié des chevauchements entre obésité, loci de risque de diabète de type 2 et les régions à méthylation différenciée. La méthylation d’un certain nombre de ces régions a été modulée par une alimentation très grasse chez la souris et par une perte de poids chez l’homme. Pour certains, ces résultats identifient un lien remarquable entre la susceptibilité aux maladies et leur association à des régions du génome qui subissent des modifications épigénétiques en réponse à des défis nutritionnels.
Ces résultats suggèrent que la méthylation de l’ADN peut être un médiateur des effets génétiques, bien qu’il soit également important de considérer selon les auteurs d’une étude récente (76) que les processus génétiques et épigénétiques peuvent agir de façon indépendante sur les mêmes gènes.
Les maladies auto-immunes résultent d’un dysfonctionnement du système immunitaire, qui s’attaque aux constituants normaux de l’organisme ou « auto-antigènes ». C’est, par exemple, le cas du diabète de type 1, de la sclérose en plaques ou encore de la polyarthrite rhumatoïde.
Les maladies auto-immunes touchent environ 5 % de la population mondiale, en particulier les femmes des pays développés. Selon l’auteur d’une étude, cette distribution s’explique par les différences existant dans l’arrière-plan génétique et les agents environnementaux (77).
Comme d’autres maladies complexes, les maladies auto-immunes sont le fruit de la combinaison de la susceptibilité génétique et de facteurs environnementaux.
La susceptibilité génétique joue un rôle majeur dans le développement de l’auto-immunité. Ainsi, des polymorphismes de plus de deux cents loci ont-ils été identifiés comme contribuant aux désordres immunitaires, beaucoup d’entre eux étant communs à différentes maladies auto-immunes.
Pour autant, la génétique n’explique pas totalement les profils auto-immuns. En effet, les études d’association pangénomiques ont montré que les polymorphismes génétiques ne rendaient compte que de 20 % de la variation phénotypique.
En outre, des études effectuées sur les jumeaux monozygotes indiquent des taux modérés de concordance des désordres immunitaires. Par exemple, il existe
– dans le cas du psoriasis – une concordance élevée entre les jumeaux. Au contraire, pour ce qui est notamment du diabète de type 1, le taux de concordance est bas – environ de 10 % – du fait de l’influence plus forte de l’environnement.
À cet égard, de nombreux facteurs environnementaux – incluant l’exposition à la fumée de tabac, aux agents infectieux, au rayonnement ultraviolet, aux composés chimiques – sont associés de façon significative au développement des désordres immunitaires.
La majorité de ces facteurs environnementaux peut induire des changements épigénétiques. C’est pourquoi, l’épigénétique est une source de mécanismes moléculaires qui peut expliquer les effets de l’environnement sur le développement des désordres immunitaires.
Dans plusieurs de ces désordres, le contenu de la dérégulation globale de la méthylation de l’ADN est affecté dans de nombreux types cellulaires. Ce phénomène a été le mieux étudié dans le lupus systématique érythémateux, la sclérose systémique progressive ou le psoriasis.
Le contenu global des changements de la méthylation de l’ADN peut avoir différents effets incluant, notamment, l’altération de l’expression des gènes, ou la modification de la signature de l’empreinte.
Des études ont également relevé l’hypométhylation de nombreux gènes promoteurs dans certains désordres immunitaires, tels que le lupus, l’arthrite rhumatoïde, la sclérose en plaques et le psoriasis.
Mais il existe aussi des cas d’hyperméthylation des gènes promoteurs dans d’autres désordres.
En ce qui concerne la dérégulation de la modification des histones, bien que son rôle dans l’auto-immunité ait été admis, peu d’exemples ont été identifiés. La majorité des cas de dérégulation ont été décrits sur la base des patients atteints de lupus systémique.
Pour ce qui est du rôle des microARN, des études ont pu observer des expressions anormales de micro ARN dans le déclenchement de pathologies, telles que les maladies auto-immunes rhumatismales.
S’agissant de l’influence des facteurs environnementaux, plusieurs études suggèrent qu’ils exercent une influence variable sur les profils épigénétiques associés aux désordres immunitaires. Bien qu’il existe une preuve de ces liens, il est difficile d’établir un lien direct entre un facteur environnemental particulier et le développement de la maladie. En réalité, il est presque impossible d’identifier tous les facteurs environnementaux auxquels les individus sont exposés à un moment donné.
Les facteurs environnementaux les plus largement admis, causant des maladies auto-immunes à travers les mécanismes épigénétiques, sont les médicaments, les polluants, les virus et d’autres pathogènes, les hormones sexuelles, les rayonnements, les métaux lourds et le stress selon un auteur (78).
C’est ainsi que, environ 10 % des cas de lupus systémiques sont causés par des médicaments. Plus de cent médicaments seraient connus pour causer des maladies s’apparentant au lupus au terme d’une exposition à long terme.
Parmi les agents polluants, des études ont indiqué que le solvant industriel trichloroéthylène (TCE) était connu pour aggraver l’auto-immunité chez la souris et influencer le profil de méthylation de l’ADN.
S’agissant des pathogènes, une étude a souligné le rôle du cytomégalovirus humain (HCMV). Ce virus infecte une part très importante de la population dans le monde. Une corrélation positive a été établie entre l’infection due au HCMV et le développement de plusieurs pathologies auto-immunes, telles que l’arthrite rhumatoïde, le psoriasis et la maladie de Crohn.
iv. Maladies neurodégénératives (MND)
Les MND affectent essentiellement les personnes âgées.
La plus connue est certainement la maladie d’Alzheimer. Il en existe des formes héréditaires, génétiques, qui se développent principalement chez les patients entre 40 et 55 ans.
Ces maladies précoces et familiales représentent seulement 2 % des pathologies. Les 98 % restants sont des formes tardives et sporadiques, qui se développent beaucoup plus tardivement dans la vie et dont l’incidence augmente en raison, notamment, de l’amélioration de la longévité. En France, 900 000 personnes sont actuellement atteintes de la maladie d’Alzheimer. On estime qu’elles seront 1,3 million en 2020.
Toutes ces maladies présentent ce double caractère (précoce, familial et tardif sporadique), à l’exception de la maladie de Huntington, qui est génétique autosomale dominante, ce qui signifie que la moitié de la descendance sera porteuse et atteinte. On compte aujourd’hui en France 6 000 malades de Huntington et 12 000 porteurs du gène défectueux qui n’ont pas encore développé la maladie.
Comme l’a souligné Mme Anne-Laurence Boutiller (79), il s’agit d’un vrai phénomène sociétal, puisqu’il n’existe à ce jour aucun traitement curatif de ces maladies.
Ces maladies sont des neurodégénérescences, qui se caractérisent par une perte sélective de groupe de neurones, dans des régions différentes. Ces dysfonctionnements sont irréversibles.
Dans le cas de la maladie d’Alzheimer, une dégénérescence de l’hippocampe, qui est un centre important de la mémoire et des structures corticales associées, vont causer les déficits mnésiques bien connus pour cette pathologie.
La maladie de Huntington se caractérise par une dégénérescence du striatum et des structures corticales associées, qui provoque des déficits moteurs, mnésiques et émotionnels.
La maladie de Parkinson révèle une dégénérescence des neurones dopaminergiques, de la substance noire et des structures corticales associées, qui se traduit, entre autres, par des mouvements typiques des malades de Parkinson.
Enfin, la sclérose latérale amyotrophique se caractérise par une dégénérescence des neurones moteurs corticaux et des neurones de la moelle épinière, qui conduit à une paralysie des jambes, des bras, puis à une atteinte des muscles de la parole, de la déglutition et progressivement de tous les muscles.
Il existe des mécanismes communs à ces neurodégénérescences, inhérents à la mort neuronale et à la neuro-inflammation, qui se développe fortement dans ces pathologies.
On observe aussi le jeu des protéinopathies, mécanismes spécifiques de la maladie, qui vont peut-être pouvoir expliquer pourquoi, dans telle ou telle pathologie, une région est atteinte et pas une autre.
Il s’agit de protéines corrompues qui pourraient donc être à l’origine des maladies neurodégénératives. On retrouve ainsi des agrégats protéiques dans toutes ces pathologies. Il est intéressant de noter que l’on observe des interactions aberrantes avec des facteurs de transcription et des protéines de modification de la chromatine, qui ont été retrouvées séquestrées dans ces agrégats et ne pouvaient donc plus avoir une fonction nucléaire ou cytoplasmique normale.
Il en résulte des dérégulations transcriptionnelles et épigénétiques, dont il reste encore à démontrer s’il s’agit de causes ou de conséquences. Tenant des propos nuancés, Mme Boutiller a indiqué qu’une modification d’une enzyme épigénétique va causer telle ou telle pathologie, sans exclure qu’elle puisse aussi être une conséquence de cette pathologie.
Concernant le système nerveux central, cela renverrait plutôt à des pathologies neurodéveloppementales, de type maladie de Rett ou de Rubinstein-Taybi. On peut imaginer aussi un rôle causal des méthylations ou des déméthylations de gènes de la maladie d’Alzheimer, par exemple sur l’APP (80), qui pourraient provoquer à long terme des clivages différents de l’APP favorisant l’agrégation des fragments de clivage de la protéine amyloïde et ainsi mener aux dépôts amyloïdes retrouvés dans la pathologie.
Pour les maladies neurodégénératives, l’idée que les dérégulations épigénétiques puissent être une conséquence de la pathologie est considérée comme intéressante par Mme Boutiller. Les patients atteints, par exemple, de la maladie d’Alzheimer ont souvent, une fois diagnostiqués, encore de nombreuses années à vivre. Si un dysfonctionnement épigénétique est une conséquence de la pathologie, alors la question de la réversibilité est essentielle, afin d’être en mesure de reculer de quelques années l’âge de dépendance des patients.
Quoi qu’il en soit, Mme Boutiller a déclaré que l’hypothèse générale est qu’un déséquilibre épigénétique serait une caractéristique importante des maladies neurodégénératives. Parmi les résultats obtenus dans le cadre des recherches actuelles menées dans ces différentes pathologies, Mme Boutiller a attiré particulièrement l’attention sur la CBP (la Creb-binding protein), mise en évidence dans les agrégats retrouvés dans la maladie de Huntington dès les années 2000. CBP, cet acétyltransférase qui acétyle la chromatine, n’est plus capable de le faire, ou de façon moindre, dans les modèles animaux et sans doute chez les patients. Cela a constitué la base des premiers essais précliniques effectués avec les inhibiteurs d’histone désacétylase.
Des méthylations de l’ADN et certains microARN sont, par ailleurs, dérégulés dans ces pathologies.
Pour autant, la nature des mécanismes et leur rôle précis sont encore peu caractérisés, ce qui exige d’accroître les connaissances fondamentales.
Une étude de 2010 (81) indique que des états pathologiques ont une origine épigénétique. Plusieurs maladies et syndromes présentent, selon les auteurs, une méthylation anormale ou des sites de gènes imprimés conduisant à diverses pathologies : syndromes de Sylver-Russel, de Beckwith-Weidmann, d’Angelman et de Prader-Willi, dont le tableau suivant rappelle l’étiologie.
Pathologie |
Gène affecté |
Phénotype |
Syndrome ICF (immunodéficience combinée) |
Mutation du gène DNMT3B - Hypométhylation |
Instabilité chromosomique, immunodéficience |
Syndrome de Rett |
Mutation du gène - MeCP2 |
Syndrome neurodégénératif - retard mental |
Syndrome ATR-X (Alpha-thalassémie déficience intellectuelle liée à l’AX) |
Mutation du gène ATRX - Hypométhylation des séquences hautement répétées |
Retard mental - Dysmorphie faciale - Thalassémie α |
Syndrome de Wiedmann-Beckwith |
Dérégulation d’un ou plusieurs gènes (IGF2, H19, LITI) soumis à l’empreinte de la région chromosomique 11P15 |
Macrosomie fœtale Viscéromégalie sélective, anomalie de développement, troubles métaboliques, risque tumoral |
Syndrome d’Angelman |
Dérégulation d’un ou plusieurs gènes soumis à l’empreinte de la région chromosomique 15q11-13 (maternel) |
Retard mental |
Syndrome de Prader-Willi |
Dérégulation d’un ou plusieurs gènes soumis à l’empreinte de la région chromosomique 15q11-13 (paternel) |
Retard mental, obésité |
Syndrome de Rubinstein-Taybi |
Dérégulation de l’acétylation des histones |
Retard mental |
Différents types de cancer |
Dérégulation de la méthylation d’ADN |
Différents types de tumeurs |
Source : Jaqueline Mandelbaum, Risque épigénétique et assistance médicale à la procréation, Vol. 8,3, mai-juin 2006.
Les mêmes auteurs indiquent que le syndrome de l’X fragile, caractérisé par une méthylation anormale du chromosome X, est également une maladie épigénétique.
Enfin, ces chercheurs estiment que plusieurs troubles cérébraux tels que l’autisme, la schizophrénie et le syndrome de Rett (82) paraissent également présenter d’importantes composantes épigénétiques.
On observera que d’autres études ont établi une liste plus large de pathologies que celles figurant dans le tableau, comme la leucémie ou le syndrome de Coffin-Lowry, qui est un trouble neurologique caractérisé par un retard psychomoteur et notamment de croissance (83).
En second lieu, il apparaît que la qualification des pathologies ne fait pas l’objet d’un consensus entre les chercheurs, car des pathologies telles que le syndrome ICF sont considérées, par les uns, comme ayant une origine épigénétique alors que d’autres y voient une maladie génétique (84).
En définitive, ce désaccord tendrait plutôt à légitimer une étiologie combinant génétique et épigénétique – ce qui est le cas, comme on l’a vu précédemment des maladies complexes – conformément, au demeurant à ce que plaide, entre autres, Marcus Pembrey (85).
C’est également à une synergie qu’invitent l’épigénétique environnementale et la DOHaD (origines développementales de la santé et des maladies), qui ont contribué à enrichir l’étiologie des pathologies et comme cela sera exposé ultérieurement, à réformer l’approche des politiques publiques de santé.
2. L’apport de l’épigénétique environnementale et des origines développementales de la santé et des maladies (DOHaD)
Ces deux approches apportent un autre éclairage sur l’étiologie des pathologies examinées précédemment en soulignant le rôle des facteurs environnementaux ou l’hypothèse d’une origine fœtale des maladies de l’adulte.
a. L’épigénétique environnementale
L’étude précitée de 2010 (86), rappelle les deux considérations sur lesquelles repose l’épigénétique environnementale.
La première réside dans le lien existant entre exposition aux facteurs environnementaux et pathologies : « il existe un grand nombre de produits toxiques qui se sont avérés être des promoteurs de maladies. C’est pourquoi les facteurs environnementaux sont décisifs dans l’étiologie des maladies ». À cet égard, les auteurs relèvent que la génétique seule ne peut plus expliquer, depuis plusieurs décennies, toutes les fréquences des maladies.
Selon la seconde considération, les expositions peuvent entraîner des effets à très long terme : « Ce sont les mécanismes épigénétiques dont on présume qu’ils sont au moins en partie impliqués qui expliquent comment l’exposition à un âge précoce aux perturbateurs endocriniens peut causer une maladie à l’âge adulte longtemps après que l’agent a disparu ».
Mais c’est de façon générale que, aux yeux des chercheurs en épigénétique environnementale, les expositions à l’environnement peuvent produire de tels effets.
Ainsi, rendant compte des travaux d’un colloque international, Michael Skinner, professeur à la School of Biological Sciences de l’université de l’État de Washington, relève-t-il : « Les organisateurs du colloque Keystone (lequel a réuni des spécialistes de l’épigénétique environnementale) ont cherché à fournir la preuve que les expositions à l’environnement au cours du développement précoce peuvent comporter le risque de développer des pathologies telles que l’asthme, l’autisme, le cancer, les maladies cardio-vasculaires, le diabète, l’obésité et la schizophrénie, plus tard, en modifiant l’épigénome » (87).
Pour autant, comme cela sera rappelé ultérieurement, bien que le nombre d’études se soit accru de façon exponentielle, la littérature à laquelle les rapporteurs ont eu accès, ainsi que les propos tenus par les chercheurs lors de l’audition publique du 16 juin 2015, montrent que la connaissance exacte des modes d’action de ces facteurs environnementaux comporte encore de nombreuses inconnues.
De nombreux types de cancers sont impliqués. Les facteurs environnementaux susceptibles de contribuer à leur développement sont également très divers.
On se limitera ici à trois exemples d’exposition concernant respectivement la fumée de tabac, les métaux lourds et les particules émises par le diesel.
o La fumée de tabac
Beaucoup d’études sur la carcinogenèse du poumon liée à la fumée de tabac se sont focalisées sur les hydrocarbures aromatiques polycycliques (PAH selon l’acronyme anglais), la plupart sur le benzo[a]pyrène, qui est le plus carcinogénétique. Bien que, à l’heure actuelle, le mécanisme ne soit pas élucidé, les cibles épigénétiques des PAH provenant de la fumée de tabac peuvent causer des dommages à l’ADN à travers les sites Cpg méthylés.
Plusieurs études ont associé fumée de tabac et modifications de la méthylation de l’ADN, ce qui est un facteur de risque de cancer et de maladies chroniques à l’âge adulte en cas d’exposition prénatale à la fumée.
Enfin, une récente étude suggère que les modifications du profil de certaines histones, qui peuvent être considérées comme les biomarqueurs des maladies chroniques induites par la fumée de tabac, jouent un rôle épigénétique important dans la pathogénèse des maladies chroniques du poumon induites par la fumée, telles que le cancer du poumon.
o Les métaux lourds
Des modifications de l’expression des microARN ont été identifiées lors de l’exposition au cadmium, à l’arsenic et au mercure dans les cellules cancéreuses de mammifères.
En ce qui concerne, par exemple, l’exposition au cadmium, elle peut décroître la méthylation de l’ADN dans les proto-oncogènes et promouvoir l’expression des oncogènes pouvant résulter de la prolifération des cellules.
o Les particules émises par le diesel
Une étude a indiqué que, dans les cellules épithéliales bronchiques de l’homme, les particules provenant des gaz d’échappement du diesel avaient causé l’expression aberrante de microARN dans environ 63 % des microARN étudiés. De tels changements dus à une exposition chronique aux particules de gaz d’échappement du diesel peuvent potentiellement causer des maladies respiratoires ou le cancer.
On a fait observer que, bien que les effets directs des facteurs nutritionnels sur les changements épigénétiques soient peu connus, il y a des exemples dans lesquels le lien est mieux compris (88).
Ainsi, plusieurs études ont-elles montré que la consommation d’alcool est associée à différents changements épigénétiques dans les cancers. Par exemple, d’après une importante étude épidémiologique entreprise aux Pays-Bas sur la nutrition et le cancer, l’analyse de la méthylation de l’ADN a montré que la prévalence du promoteur de l’hyperméthylation de nombreux gènes était plus élevée chez les patients atteints du cancer colorectal et ayant consommé beaucoup d’alcool et peu de folate que chez les patients également atteints du cancer colorectal mais ayant consommé beaucoup de folate et peu d’alcool.
De même, des études suggèrent-elles que la consommation d’éthanol change le métabolite de SAM (89) en le réduisant, ce qui, par la suite, conduit à l’hypométhylation globale de l’ADN, à la cirrhose du foie et à un risque accru du cancer des cellules hépatiques (HCC pour l’acronyme anglais). En outre, l’alimentation déficiente en donneur de méthyle fournie à des rongeurs a provoqué une hypométhylation ainsi que l’activation d’oncogènes contribuant au développement du HCC (acronyme anglais pour hepatocellular carcinom - hépatocarcinome, qui est un cancer primitif du foie).
L’exposition à des pathogènes infectieux – en particulier les bactéries et les virus – provoque une inflammation et un stress oxydant (90), qui pourrait, à son tour, causer des phénomènes épigénétiques dans les cellules et les organes-hôtes.
C’est ainsi que l’infection bactérienne causée par l’Hélicobacter pylori constitue un facteur de risque important du cancer gastrique. En outre, cette infection a été associée à l’hyperméthylation d’îlots CpG spécifiques dans la mycose gastrique, ce qui est conforme aux marques aberrantes de méthylation de l’ADN, que l’on constate dans le cancer gastrique.
De même, un lien a-t-il été établi entre le virus de l’hépatite B et le carcinome hépatocellulaire, une étude ayant indiqué que la majorité des modifications spécifiques apparaissait à un stade précoce. C’est ainsi que des modifications épigénétiques ont été identifiées dans la carcinogenèse de la protéine X (91) causée par le virus de l’hépatite B, incluant l’hyperméthylation de l’ADN ou encore l’hyperméthylation de multiples îlots CpG.
Les recherches ont visé à étudier l’impact épigénétique des environnements prénatal et postnatal sur le développement du diabète et de l’obésité.
Les études se sont fondées sur des populations humaines ayant connu des variations naturelles dans leur régime alimentaire, pour étudier l’impact du régime nutritionnel de la mère avant et durant la grossesse sur la méthylation de l’ADN chez les enfants.
Ainsi, des chercheurs ont-ils fait appel à la cohorte des descendants adultes des personnes ayant subi la famine survenue aux Pays-Bas durant l’hiver de l’année 1944, afin d’étudier les effets de l’exposition prénatale à une période de sévère sous-nutrition de la mère sur la méthylation de l’ADN des gènes impliqués dans la croissance et le métabolisme à l’âge adulte.
Les résultats ont fait apparaître l’importance du moment de l’exposition dans son impact sur l’épigénome, les effets épigénétiques significatifs ayant été seulement identifiés chez des individus exposés à la famine au début de la gestation. Ainsi, les modifications épigénétiques sont-elles intervenues conjointement à l’augmentation de l’indice de masse corporelle (BMI).
Pour autant, cette recherche n’a pu répondre à la question de savoir si ces modifications étaient survenues lors du développement précoce ou si elles ont été la conséquence d’un BMI plus élevé.
D’autres études récentes ont indiqué que la surnutrition de la mère au cours de la phase prénatale et un environnement obésogène ou diabétogène de la mère étaient également associés à des modifications de la méthylation de l’ADN dans les gènes liés au développement embryonnaire, à la croissance et aux maladies métaboliques de sa progéniture.
En outre, bien que les données disponibles soient peu nombreuses, il y a des indications selon lesquelles l’obésité paternelle peut conduire à modifier la méthylation des gènes imprimés chez le nouveau-né ; cet effet étant considéré comme une conséquence des modifications épigénétiques survenues au cours de la spermatogenèse.
L’épigénome est établi au cours du développement embryonnaire. C’est pourquoi certaines marques épigénétiques apparues au stade embryonnaire sont très stables tout au long de la vie.
Si l’environnement prénatal joue un rôle significatif dans la configuration de l’épigénome, les études s’accordent, toutefois, sur le fait que les changements survenant dans l’épigénome arrivé à maturité sont dus à l’influence d’une série de facteurs incluant les altérations liées au vieillissement, à l’exposition aux toxines ou à l’alimentation.
Par exemple, une étude a montré que, en réponse à une alimentation très grasse, des modifications étaient intervenues dans la méthylation de nombreux gènes du muscle squelettique et du PGC1A (92) du tissu adipeux.
Des opérations destinées à réduire le poids ont également été associées à des changements dans la méthylation de l’ADN. À cet égard, des études ont indiqué que les profils de méthylation de l’ADN du tissu adipeux, des cellules mononucléaires du sang périphérique et du tissu musculaire de patients antérieurement obèses sont devenus plus similaires aux profils de personnes maigres, à la suite de la perte de poids.
De nombreuses études ont mis en évidence que l’exercice physique pouvait également influencer la méthylation de l’ADN. C’est ainsi que des chercheurs ont testé l’hypothèse selon laquelle l’exercice affectant toute l’énergie corporelle modifie intensément la méthylation de l’ADN dans le muscle squelettique. Ces chercheurs ont rapporté que la méthylation de l’ensemble du génome avait diminué dans les biopsies musculaires d’hommes et de femmes sédentaires et saines, à la suite d’un exercice intense.
Plus récemment, une autre étude a testé les effets de six mois d’exercice sur les profils de méthylation du tissu adipeux d’individus sains. Il est apparu que l’exercice avait altéré la méthylation globale de l’ADN et affecté les niveaux de méthylation de l’ADN de 17 595 sites CpG de 7 663 gènes. En outre, dans trente-neuf gènes candidats de l’obésité et du diabète de type 2, des écarts de méthylation ont été observés sur le tissu adipeux des patients soumis à cet exercice.
Enfin, des études ont indiqué que l’exposition à des polluants chimiques pouvait avoir des effets obésogènes. Il en est ainsi du TBT (Tributylin) et du TBBPA (Tetrabromobisphénol A), qui peuvent moduler les étapes décisives de l’adipogenèse in vitro et in vivo, en prédisposant les cellules souches mésenchymateuses à devenir des adipocytes, c’est-à-dire des cellules de stockage de graisse, par le truchement de l’empreinte épigénétique.
Par exemple, une étude animale a montré que les effets de l’exposition au TBT sur la taille du dépôt de graisse et sur la reprogrammation des cellules souches pourraient se produire jusqu’à la génération F3 suivant l’exposition de la souris (FO) en gestation.
Les auteures d’une étude (93) font observer que l’on a suggéré l’existence de liens entre nutrition et auto-immunité. Toutefois, alors que de tels liens ont été établis par des études animales utilisant des régimes alimentaires arbitrairement choisis, les données humaines tirées d’essais cliniques randomisés ne sont pas conclusives à l’heure actuelle.
Pour autant, des recherches ont émis l’hypothèse que l’obésité puisse prédisposer à l’auto-immunité. Par exemple, l’obésité et le diabète maternels ou l’obésité de l’adolescence peuvent prédisposer ultérieurement à la sclérose multiple.
En outre, des niveaux élevés de leptine sont associés à un nombre décroissant de cellule T régulatrices (94) chez les patients atteints de sclérose multiple.
• Expositions à l’environnement
Évoquant le rôle du rayon ultraviolet (RUV), les auteurs de l’étude précédemment citée indiquent que le RUV est connu pour induire de multiples modifications épigénétiques ; nombre d’entre elles sont immunosuppressives, incluant l’hyperméthylation de plusieurs gènes promoteurs, la phosphorylation et l’acétylation de certaines histones.
S’agissant de l’exposition aux métaux lourds, il est apparu que des contaminants très répandus dans l’environnement – tels que le nickel, le cadmium, le plomb, le mercure et l’arsenic – pouvaient avoir des effets toxiques à travers des mécanismes épigénétiques, comme des changements globaux de la méthylation de l’ADN, des modifications des histones et des changements de niveau des mARN.
Une étude (95) indique que plus d’une centaine de médicaments sont connus pour causer des maladies analogues au lupus au terme d’une longue exposition, la pathologie disparaissant lorsque l’exposition a cessé. La plupart de ces médicaments sont caractérisés par leur capacité à induire des modifications épigénétiques, suggérant la possibilité d’un mécanisme d’auto-immunité. Les médicaments induisant la plupart des syndromes d’auto-immunité sont notamment, la 5-Azacytidine, la Procaïnamide et l’Hydralazin.
iv. Maladies neurodégénératives
Plusieurs facteurs ont été étudiés : le régime alimentaire, le stress oxydant et l’exposition à des métaux.
De nombreuses études ont documenté les profils aberrants de méthylation chez les sujets atteints de la maladie d’Alzheimer (MA), suggérant que l’altération de la méthylation de l’ADN peut être détectée non seulement à un stade tardif de la maladie d’Alzheimer, mais également de façon précoce au cours de la phase préclinique.
Une hypométhylation graduelle de l’ADN accompagne le vieillissement et la maladie d’Alzheimer. Dans ce contexte, on a montré que la déficience en folate peut entraîner une cascade d’altérations suscitant une hypométhylation globale et le développement de la maladie d’Alzheimer. En outre, la déficience en folate non seulement accroît les niveaux d’homocystéine (96), ce qui accroît le stress oxydant en liaison avec la sévérité et la progression de la maladie d’Alzheimer mais, également, réduit les niveaux de 5-adénosylméthionine (SAM) (97).
Outre la folate, des études épidémiologiques et expérimentales font état d’autres agents intervenant dans les mécanismes de méthylation du vieillissement et de la maladie d’Alzheimer, tels que la choline, la bétaïne et la vitamine B12.
S’agissant des effets des aliments fonctionnels (98) sur la modification des histones, des chercheurs (99) font valoir que de nombreux rapports suggèrent que les aliments fonctionnels ou les suppléments ayant des activités enzymatiques en liaison avec l’acétylation, peuvent moduler une acétylation défectueuse, laquelle, est associée au début de la phase de diminution de la mémoire ou à la pathogénèse des maladies neurodégénératives, dont la maladie d’Alzheimer.
L’exemple du sodium butyrate, composant alimentaire que l’on trouve dans des aliments tels que le beurre ou le fromage, a été identifié comme affectant les activités des protéines impliquées dans la maladie d’Alzheimer et comme améliorant la mémoire et l’apprentissage.
L’étude précitée de S. Davinelli et al. indique, pour ce qui est des mARN, que leur expression est contrôlée par de nombreux facteurs incluant la nutrition. Pour autant, peu de recherches se sont intéressées à l’impact de la nutrition sur la régulation des mARN, alors que divers composants alimentaires – tels que la folate, l’acide rétinoïque, la vitamine D, la vitamine E, le sélénium, l’oméga 3, les acides gras, le butyrate et les phyto-chimiques – peuvent modifier l’expression des mARN et leurs cibles dans plusieurs types de cancers.
Des découvertes récentes impliquant les polyphénols (100) et la maladie d’Alzheimer ont montré qu’une alimentation complétée par la Quercétine, l’Hespéridine, la Catéchine et la Curcumine, module l’expression hépatique dans le gène de l’APOE (apolipoprotéine E) (101) d’une souris déficiente.
Le terme de stress oxydant désigne l’état d’un neurone dont les défenses anti-oxydantes ne font plus face aux oxydants intra ou extracellulaires. Le stress oxydant est impliqué dans les mécanismes de mort cellulaire lors des maladies neurodégénératives.
Il correspond à une agression des cellules par des radicaux libres appelés également « espèces réactives de l’oxygène » (ERO), ces radicaux libres étant produits en permanence par l’organisme à partir d’oxygène dans la cellule, notamment au niveau de la mitochondrie, dans la chaîne respiratoire. Les ERO sont des substances réactives et très toxiques.
Le stress oxydant est causé par un déséquilibre entre les radicaux libres pro-oxydants et les antioxydants.
Le stress oxydant est à l’origine de certaines modifications épigénétiques. Il peut ainsi influencer la méthylation de l’ADN, le peptide bêta-amyloïde (102) pouvant jouer un rôle dans ce processus.
Le stress oxydant agit également à travers les ERO, dont l’accumulation détériore la fonction des cellules du poumon, les modifications d’histones, les protéines non histones, ainsi que la fonction des enzymes remodelant la chromatine.
Grâce aux travaux reposant sur la DOHaD (acronyme anglais pour origines développementales de la santé et des maladies), évoqués ci-après, plusieurs études humaines ont montré que l’exposition à des métaux – à un stade précoce de développement – pouvait être un facteur de risque potentiel des maladies neurodégénératives.
Il en est ainsi de l’exposition au plomb, qui peut causer des déficits cognitifs et comportementaux chez les enfants.
De même, des études de cas-témoins ont-elles indiqué que l’exposition chronique des travailleurs au plomb ou à d’autres métaux – comme le manganèse – était associée à la maladie de Parkinson.
Les effets d’une forte teneur en aluminium dans l’eau potable ont, pour leur part, fait l’objet de résultats contradictoires. Certaines études y ont vu un facteur de risque de la maladie d’Alzheimer. En revanche, d’autres études n’ont pu établir une telle relation. On a expliqué ces résultats contrastés par la sélection inappropriée des cas et des témoins.
Quant aux études animales, des études effectuées sur des rongeurs ont montré que l’exposition au plomb au cours du développement cérébral prédéterminait l’expression et la régulation du gène du précurseur du peptide amyloïde (APP en anglais), qui est impliqué dans pathophysiologie de la maladie d’Alzheimer.
Des expériences sur les primates ont également indiqué que l’expression de l’APP ainsi que sa régulation transcriptionnelle étaient élevées chez les singes âgés, qui avaient été exposés au plomb lorsqu’ils étaient petits.
Toutes ces études tant humaines qu’animales, illustrent donc que l’origine des maladies, comme le propose la DOHaD, peut-être de nature développementale.
b. La DOHaD (origines développementales de la santé et des maladies)
L’hypothèse de l’origine développementale de la santé et des maladies est apparue dans les années 1980 et postule que l’environnement au cours de la période de développement peut conduire un individu à contracter des pathologies chroniques à l’âge adulte. Cela a été popularisé sous le nom d’« hypothèse de Barker » et confirmé expérimentalement par l’étude de modèles animaux.
David Barker, un épidémiologiste britannique et ses collègues ont cherché à confirmer les résultats auxquels étaient parvenus d’autres épidémiologistes britanniques, indiquant que les régions du Royaume-Uni dans lesquelles on observait une mortalité néonatale et infantile élevée dans les années 1920 étaient aussi celles dans lesquelles on constatait un taux de mortalité d’origine cardiovasculaire dans les années 1970.
Se fondant sur une échelle géographique plus restreinte – celle d’une ville et d’un comté – David Barker a reconstitué plusieurs cohortes concernant les naissances survenues dans la première moitié du XXe siècle. Ces cohortes ont démontré une relation inverse entre le poids de naissance et la mortalité mais aussi diverses maladies chroniques (cardiovasculaires, bronchopneumopathie chronique, diabète de type 2, etc.), de même que la présence de facteurs de risque de ces maladies à l’âge adulte chez les hommes comme chez les femmes.
Pour interpréter ces résultats, l’hypothèse d’une origine fœtale des maladies de l’adulte a été avancée.
Lors de l’audition publique de l’OPECST du 16 juin 2015, Mme Anne Gabory, chargée de recherche à l’Inra – unité « Biologie du développement et reproduction » – a exposé les raisons pour lesquelles les mécanismes épigénétiques étaient impliqués dans ces pathologies.
En effet, dans les phases de développement précoce, il y a une reprogrammation majeure de l’épigénome, avec différentes fenêtres temporelles critiques. Ainsi, au cours de la gamétogenèse, on constate une apposition, dans l’épigénome, d’une identité gamétique d’ovocyte ou de spermatozoïde. Pendant le développement précoce se mettent, en outre, en place les premiers lignages cellulaires, de façon concomitante, avec un effaçage de l’identité gamétique.
La croissance fœtale, la relation materno-fœtale et les échanges transplacentaires sont ensuite importants pour le développement. L’organogenèse se déroule parallèlement à l’apposition d’une identité des différents types cellulaires, qui se fait avec l’acquisition d’une mémoire de cette identité, gardée ensuite sur le long terme.
Au cours de la période post-natale, l’environnement change de façon brusque avec, notamment, des transitions alimentaires. Les soins parentaux sont alors extrêmement importants. Cette période est également marquée par un développement cognitif considérable.
Si l’environnement paternel ou maternel peut modifier l’effaçage ou l’apposition des marques épigénétiques à ce stade, il sera alors possible de garder une mémoire (notion implicite dans la définition de l’épigénétique) de cet environnement précoce, influencer le fonctionnement des organes à long terme donc conditionner la pathologie.
Des études épidémiologiques montrent le lien entre l’environnement et ces pathologies chroniques. L’environnement implique, en effet, l’ensemble des paramètres extérieurs à l’individu en devenir. Mme Anne Gabory a indiqué que, dans son champ de compétence, ces paramètres sont plus particulièrement le stress et l’adversité précoce, la nutrition et le métabolisme, du côté maternel, paternel et dans l’environnement post-natal précoce.
Indiquant que ces données sont issues des travaux du groupe IBISS (103) et de la cohorte française EDEN (104), créée pour étudier l’environnement de l’enfant au cours de la grossesse et de la période post-natale, Mme Anne Gabory a fait valoir que ces études épidémiologiques permettaient de montrer des corrélations mais ne révélaient pas de liens de causalité. Les preuves selon lesquelles les mécanismes épigénétiques étaient impliqués dans ces pathologies ont été apportées par les modèles animaux.
Il est ainsi apparu que la nutrition pouvait influencer l’épigénome, avec de la signalisation par des récepteurs membranaires ou nucléaires, dans lesquels les métabolites de l’alimentation peuvent être des ligands et induire des cascades de signalisation, au sein desquelles les enzymes de la machinerie épigénétique vont être impliquées.
Les métabolites de l’alimentation peuvent, par ailleurs, avoir une action sur le fonctionnement des enzymes épigénétiques, comme le montrent par exemple, le sulforaphane présent dans le brocoli, l’allyle mercaptan contenu dans l’ail ou encore la génistéine que l’on trouve dans le soja.
Le métabolisme et l’épigénétique sont tout à fait interconnectés, ainsi que l’illustre le métabolisme énergétique. Plusieurs de ces réactions comportent des molécules donneuses de groupements chimiques pour l’apposition des marques épigénétiques sur notre génome.
Mme Anne Gabory a souligné que les travaux de David Barker avaient été longtemps méconnus parce que, d’une part, lorsqu’ils ont été publiés au début des années 1990, les espoirs étaient placés dans la génétique et le séquençage du génome humain et que, d’autre part, l’hypothèse de Barker a été fondée sur des corrélations et non sur des liens de causalité à une époque où la compréhension des bases moléculaires d’un phénomène était essentielle à sa reconnaissance en tant que thèse scientifique.
Pour autant, l’essor concomitant de la DOHaD et de l’épigénétique, que l’on constate aujourd’hui, tient au fait qu’il est désormais admis que l’environnement peut agir sur l’épigénome et que, si c’est le cas lors des phases précoces du développement, alors cela peut conditionner l’organisme.
Une autre problématique que les spécialistes de la DOHaD ont tenu à soulever porte sur le dimorphisme sexuel.
Celui-ci a trait aux importantes différences existant entre les sexes en termes d’apparition ou de fréquences de certaines maladies complexes, selon la définition donnée par Mme Claudine Junien (105).
Ces différences liées au sexe existent également en termes de programmation au cours du développement, comme le révèlent les études réalisées dans différentes espèces animales.
Ces différences tiennent au fait que les fœtus et les placentas mâles et femelles ne réagissent pas nécessairement de la même façon à des stimuli environnementaux, lors de phases précises du développement. Les conséquences à long terme diffèrent également.
Le dimorphisme sexuel repose aussi sur des différences épigénétiques qui affectent l’expression différentielle d’une proportion importante de gènes (10 % à 30 %) dans tous les tissus en liaison avec les chromosomes sexuels, les hormones et les influences socio-culturelles.
Ces différences, très précoces pour certaines, bien avant la différenciation des gonades, sont encore mal explorées dans l’espèce humaine. Elles devraient cependant faire l’objet d’une attention plus soutenue tant les stratégies thérapeutiques ou préventives qui valent pour un sexe ne sont pas nécessairement adaptées à l’autre sexe.
DEUXIÈME PARTIE :
L’ÉPIGÉNÉTIQUE : UN CHAMP ÉMERGENT DONT L’ESSOR EST CONFRONTÉ À D’IMPORTANTS DÉFIS
Comme d’autres champs émergents à l’essor rapide – tels que la biologie de synthèse (106) – l’épigénétique se voit attribuer les qualités les plus éminentes.
Pour les uns, « l’épigénétique est la nouvelle discipline qui est en train de révolutionner la biologie » (107). D’autres y voient « la science du changement » (108).
D’autres encore, considèrent que nous vivrions à « l’ère de l’épigénétique » (109)
Il est de fait que l’épigénétique connaît, depuis plus d’une vingtaine d’années, un essor incontestable qu’illustrent son enracinement rapide dans les institutions académiques et le développement des thérapies épigénétiques.
Toutefois, ainsi que les rapporteurs ont pu l’observer tout au long de leurs travaux, ce champ émergent – que certains de leurs interlocuteurs ont qualifié d’expérimental – suscite d’importants débats quant à son statut scientifique ou encore quant à la portée réelle des innovations scientifiques et médicales qui en sont le fruit.
I. L’ENRACINEMENT RAPIDE DE L’ÉPIGÉNÉTIQUE DANS LES INSTITUTIONS ACADÉMIQUES
À l’évidence, le renouvellement constant des connaissances sur l’épigénome a contribué à l’essor de l’épigénétique dans les institutions académiques.
Cet essor est d’autant plus remarquable qu’il touche non seulement la recherche fondamentale mais aussi les applications cliniques. À cet égard, les thérapies épigénétiques peuvent être considérées comme une parfaite illustration de la recherche translationnelle puisque, pour le cancer, comme pour de nombreuses pathologies, la recherche fondamentale a ouvert la voie à des avancées thérapeutiques.
A. LES PROGRÈS DES CONNAISSANCES SUR L’ÉPIGÉNOME
Cinq facteurs intimement liés les uns aux autres sont à l’origine de ces progrès :
- le perfectionnement des outils d’analyse,
- l’exploration de nombreux domaines de recherche,
- l’expansion de l’épigénétique dans les filières d’enseignement et les centres de recherche,
- le rythme soutenu des colloques,
- l’accroissement exponentiel des publications.
1. Le perfectionnement des outils d’analyse
Le recours à des technologies de pointe ainsi que le développement des analyses de cellule unique (single cell) a permis l’élaboration de cartographies détaillées de l’épigénome, ce qui a contribué aux avancées de la recherche fondamentale et des applications cliniques.
a. Le recours à des technologies de pointe
Ces technologies ont amélioré très sensiblement l’analyse des différents mécanismes épigénétiques.
i. Mesure de la méthylation de l’ADN
Une avancée majeure de l’analyse de la méthylation de l’ADN est intervenue avec le développement du séquençage de la méthylation au bisulfite. Cette méthode constitue le protocole de référence pour détecter la méthylation de l’ADN, en permettant l’identification de la 5-méthylcytosine (110).
Cette technique consiste dans le traitement de l’ADN au bisulfite de sodium, en vue de convertir la cytosine non méthylée en uracile (111).
Cette méthode d’analyse de la méthylation de l’ADN a débouché sur d’autres techniques, telle que la methylation specific PCR (MSP) (112). Cette dernière permet la mesure des profils de méthylation dans les îlots CpG. Un de ses avantages réside dans le fait qu’elle n’exige ni clonage, ni méthylation des enzymes de restriction. En outre, elle peut être mise en œuvre sur de petites quantités d’ADN.
Le pyroséquençage est une autre technique qui permet d’obtenir rapidement un profil de méthylation pour tous les doublets de CG d’une région donnée. Son principal avantage est sa rapidité, qui autorise l’analyse de grandes séries d’individus et d’envisager de réaliser une cartographie des sites normalement méthylés et déméthylés dans le génome humain.
En revanche, cette technique comporte des limites tenant à ce que, d’une part, la taille des fragments analysables ne dépasse pas, en moyenne, cinquante à soixante nucléotides à chaque séquence. D’autre part, cette technique ne fournit aucune information quant à la répartition de la méthylation entre les deux allèles.
ii. Technique visant à inhiber la méthylation de l’ADN et à mesurer l’activité de méthylation de l’ADN
L’inhibition de la méthylation de l’ADN dans les cellules somatiques permet souvent de déterminer le rôle de la méthylation de l’ADN dans l’expression des gènes ou dans d’autres processus, tels que la différenciation cellulaire.
L’approche la plus communément utilisée de l’inhibition de l’ADN réside dans l’emploi d’agents pharmacologiques et d’inhibiteurs qui ne soient pas des nucléosides.
Une autre méthode d’analyse de la méthylation de l’ADN inclut la mesure de l’activité enzymatique des DNMTS (ADN méthyltransférases). La mesure de cette activité comporte de nombreux usages, tels que la mesure des changements de l’activité enzymatique des DNMTS au cours de divers processus biologiques, comme la différenciation cellulaire ou la tumorigenèse.
iii. Méthode d’analyse du méthylome
Le méthylome désigne l’ensemble des modifications de l’état de méthylation du génome.
Une des méthodes largement utilisées est l’immunoprécipitation de l’ADN méthylé. Cette méthode est fondée sur l’utilisation d’anticorps spécifiques pour la
5-méthylcytosine et permet la quantification de fragments d’ADN méthylés enrichis.
L’ADN de l’échantillon est fragmenté par ultrasons. Ensuite, les anticorps y sont ajoutés. Une fois ceux-ci fixés sur les méthylcytosines, on récupère les fragments méthylés grâce à un aimant, débarrassant ainsi l’échantillon des fragments peu ou pas méthylés : l’échantillon a donc été enrichi en séquences méthylées et peut alors être analysé par une technique de séquençage.
Pour parvenir à une meilleure reproductibilité, l’usage d’un robot est recommandé pour réaliser le MEDIP (Methylated DNA immuno precipitation). Le Centre national de génotypage (CNG) de l’Institut de génomique du CEA à Évry ainsi que la plateforme de Toulouse possèdent ce type d’équipement, afin d’optimiser cette étape avant le séquençage
Source : France Génomique.
Il existe deux autres approches d’analyse du méthylome : la Methylated-CpG Island Recovery Assay (MIRA - analyse de la récupération des îlots CpG méthylés) et la Luminometric Methylation Assay (LUMA - analyse de la méthylation luminométrique). MIRA offre l’avantage de ne pas dépendre de la conversion de l’ADN par le bisulfite et, à la différence de MEDIP, MIRA n’exige pas une reconnaissance spécifique de l’anticorps.
MIRA est une technique suffisamment sensible pour détecter la méthylation à basse densité du nucléotide d’un CpG méthylé. MIRA peut également être utilisé en combinaison avec divers microarrays pour analyser les changements du méthylome.
Quant à la technologie LUMA, elle permet des études précises de la méthylation de l’ADN dans un grand nombre d’échantillons, selon une procédure brève et qui peut être adaptée à de très nombreuses espèces.
Une limitation potentielle de cette méthode, tient à ce qu’elle mesure seulement la méthylation des CpG dans les séquences de reconnaissance des enzymes de restriction. Ce faisant, LUMA ne fournit pas d’information sur la méthylation en dehors de ces séquences ni sur la méthylation d’autres nucléotides.
iv. Protocoles basés sur l’immunoprécipitation de la chromatine (CHIP - Chromatine immunoprecipitation)
Les analyses par CHIP sont largement utilisées dans différents cas, tels que celui des interactions entre ADN et protéines et celui des modifications post-translationnelles des histones.
Les analyses par CHIP présentent l’inconvénient de nécessiter fréquemment un grand nombre de cellules pour parvenir à une mesure fiable. De récentes avancées ont permis de surmonter cet obstacle, grâce à un protocole micro-CHIP, lequel utilise seulement un millier de cellules, au lieu des
106-107 cellules, auxquelles ont recours les analyses par CHIP traditionnelles.
Cette évolution devrait considérablement accroître l’utilité des mesures basées sur la CHIP ainsi que ses applications pratiques.
La technique de la CHIP a été l’objet de deux modifications très utiles. Il s’agit de la Q-PCR (quantitative PCR) en combinaison avec la CMIP (CpG methylation specific immunoprecipitation) et le séquençage à haut débit – CHIP-Seq.
Q-PCR est une technique très sensible et reproductible. Elle peut être combinée avec la CHIP pour analyser la présence d’histones acétylées dans différentes régions d’un locus cible.
CHIP-Seq est une technique relativement nouvelle, qui présente l’avantage de permettre l’analyse des interactions de deux protéines, ou davantage, ou celles de différentes modifications d’histones dans un site particulier du génome.
v. Combinaison de la CHIP et de l’analyse de la méthylation de l’ADN
La combinaison de la CHIP conventionnelle et du séquençage de méthylation au bisulfite débouche sur une nouvelle technique appelée CHIP-BMS. Elle permet d’étudier les processus d’interaction entre les modifications d’histones et la méthylation de l’ADN, ainsi que le facteur de transcription et la méthylation des sites de reconnaissance. Elle peut également fournir de précieuses informations sur les multiples interactions entre facteurs génétiques et facteurs épigénétiques.
D’après l’auteur d’une étude (113), il semble également possible de combiner CHIP-BMS et CHIP-Seq, afin de fournir des résultats plus significatifs des nombreux facteurs épigénétiques et génétiques qui peuvent contribuer à la régulation transcriptionnelle.
vi. Analyse in vivo de l’interaction entre ARN et protéine
La technique de l’immunoprécipitation de l’ARN (RIP) a été mise au point pour analyser les interactions directes et indirectes entre des protéines spécifiques et l’ARN in vivo. Cette technique est proche des analyses par CHIP.
Pouvant donner lieu à diverses applications, cette méthode peut ainsi contribuer à expliquer le rôle croissant joué par l’ARN dans les processus épigénétiques.
Grâce à ces différentes technologies, il a été possible de mieux décrire la régulation épigénomique, et ce, à travers des cartographies de l’épigénome et les méthodes dites de single cell (cellule unique).
b. La diversité des approches de la régulation épigénomique
Cartographie de l’épigénome et méthode de single cell diffèrent par leur échelle notamment, ces dernières étudiant, entre autres, les petites populations de cellules alors que les cartographies procèdent à des analyses de masse.
Pour autant, comme le montre l’exemple du projet Blueprint, les deux techniques peuvent être utilisées simultanément.
i. Les cartographies de l’épigénome
Comme le rappelle le tableau ci-dessous, ces projets de cartographie sont élaborés par des consortia, réunissant plusieurs équipes de chercheurs réparties dans plusieurs pays.
Projet lancé postérieurement à l’Human Genome Project | |||||
Projet |
Début |
Fin |
Nom complet |
Sujet |
Institut |
HGP |
1990 |
2003 |
Human Genome Project |
N/A |
International, 6 countries |
GWAS |
2003 |
- |
Genome-wide association study |
N/A |
International |
Encode |
2003 |
- |
Encyclopedia of DNA Elements |
DNA methylation and histone modification of cell line |
NIH |
TCGA |
2006 |
- |
The cancer Genome Atlas |
Epigenomes of 20 cancer tissues |
NIH |
AHEAD |
2007 |
2008 |
Alliance for Human Epigenetics and Disease |
N/A, proposal |
International |
ICGC |
2008 |
- |
International Cancer Genome Consortium |
Epigenomes of 50 cancer tissues/cell lines |
International, 15 countries, including TCGA |
Roadmap Epigenomics |
2008 |
- |
NIH Reference Mapping Project |
Epigenomes of |
NIH |
IHEC |
2010 |
- |
International Human Epigenome Consortium |
1 000 Epigenomes of |
International, 7 countries including Roadmap |
NA : Not acquired (non disponible).
Source : Joe Bun Bae : Perspective of international human epigenome consortium genomics and informatics, 2013.
Se référant à trois projets – la Roadmap Epigenome Project, ENCODE et l’International Human Epigenome Consortium (IHEC), les auteurs d’une récente étude considèrent que du fait des travaux entrepris par ces projets – en particulier les très volumineuses données publiées par ces équipes – le nombre des cartographies de l’épigénome a augmenté de façon exponentielle, passant d’une poignée au début de 2007 à plusieurs milliers à la date d’aujourd’hui (114).
Si ces données statistiques sont exactes la progression dont elles font état ne serait pas surprenante. Car, compte-tenu de l’importance des ambitions affichées par ces projets, ces derniers ne manqueraient pas de susciter d’autres études.
Seuls deux de ces projets sont évoqués ici :
- le Roadmap Epigenomics Program ;
- le projet Blueprint.
• Le Roadmap Epigenomics Program
La cartographie de l’épigénome a débuté avec le projet ENCODE (115) évoqué précédemment, qui a été lancé en 2003.
Le projet vise à découvrir et à étudier tous les éléments épigénomiques qui sont les agents chimiques même attachés à la séquence de l’ADN et contrôlant la fonction de nos gènes.
Malheureusement, l’application clinique du projet a été limitée, en raison du fait que la plupart des résultats sont fondés sur un petit nombre de types cellulaires.
C’est cette lacune que le Roadmap Epigenomics Project, lancé en 2008 par le National Institutes of Health (NIH), a souhaité combler.
En effet, l’un des objectifs qui a été assigné à ce projet est de fournir des cartographies épigénomiques de plus d’une centaine de populations cellulaires. À cette fin, les cellules souches embryonnaires humaines seront soumises à l’exploration approfondie de la méthylation de l’ADN de six modifications d’histones majeures, de l’accessibilité de la chromatine et des ARN.
À travers cette analyse étendue et approfondie, le consortium en charge du projet a espéré, d’une part, appréhender de façon optimale la diversité cellulaire et les tissus significatifs pour l’étude des maladies humaines. D’autre part, le consortium serait en mesure d’explorer un large éventail de traits épigénomiques.
Un autre objectif majeur poursuivi par le projet est de permettre à la communauté scientifique d’accéder facilement à une masse critique de données épigénomiques. Celles-ci comprendraient différents niveaux d’information allant de données brutes séquencées et de profils épigénomiques au niveau d’une cellule individualisée d’un type cellulaire à des cartographies intégrées de l’épigénome représentant un ensemble de différents profils épigénomiques au niveau d’un type cellulaire donné.
Les résultats publiés par des chercheurs du consortium dans la revue Nature, au mois de février 2015, ont trait à trois séries de données :
- l’analyse intégrée de cent onze épigénomes de référence,
- l’exploration de la régulation génétique dans des types cellulaires spécifiques,
- les applications des analyses épigénomiques à la recherche sur les maladies humaines.
1. L’analyse intégrée de cent onze épigénomes de référence
Les chercheurs ont produit 2 805 données à l’échelle du génome, englobant un total de 150 milliards de lecture de séquençage.
C’est à l’aide d’algorithmes que les chercheurs ont pu traduire ces données dans une cartographie de référence dans chacun des cent onze types cellulaires.
Les chercheurs ont distingué quinze signatures épigénomiques différentes
– ou états de la chromatine – reflétant les régions actives, réprimées et inactives du génome dans chaque type cellulaire. Environ 5 % de chaque épigénome de référence a montré que des signatures ont été associées à une fonction régulatrice.
Les chercheurs ont ensuite étudié les conditions dans lesquelles les états de la chromatine ont varié à travers les différents types de cellules et de tissus, ce qui leur a permis de regrouper les types de cellules avec le circuit de régulation similaire. Ils ont également regroupé les régions régulatrices actives dans les mêmes types de cellule. De cette façon, ils ont pu, selon eux, révéler les éléments de base des circuits de régulation.
Les chercheurs ont comparé ces signatures épigénomiques avec des groupes de variants génétiques, qui sont associés à différents traits humains et à des maladies. Ainsi ont-ils pu produire une cartographie des tissus et des types cellulaires qui sont les plus pertinents pour chaque trait ou maladie.
À cet égard, le Pr Manolis Kellis (116) a déclaré : « Nous avons découvert que les variants génétiques sont trouvés dans les régions régulatrices connues sous le nom d’amplificateurs (enhancers), lesquelles sont activées seulement dans certains types de cellules et de tissus » (117).
Les chercheurs ont ainsi trouvé des signatures d’amplificateurs significatifs pour des variants associés à cinquante-huit différents traits. Cela a inclus la taille dans les cellules souches embryonnaires, les scléroses multiples dans les cellules immunes, le déficit d’attention dans les tissus du cerveau, la pression du sang dans les tissus du cœur, la glycémie à jeun dans les îlots pancréatiques, le cholestérol dans le tissu du foie et la maladie d’Alzheimer dans les monocytes CD14, ces derniers étant un type de globule blanc ou de leucocytes.
2. L’exploration de la régulation génétique dans des types spécifiques de cellules
L’objectif de cette exploration a été d’examiner dans quelles conditions l’épigénome influence le développement (ou la différenciation) de cellules souches dans différents types cellulaires. Dans cette perspective, une équipe a examiné les mécanismes qui régulent les décisions déterminant le destin cellulaire, en usant d’une approche que cette équipe a développée, consistant à repérer les empreintes épigénomiques à différentes étapes des cellules souches neuronales, à mesure qu’elles émergent des cellules souches embryonnaires chez l’homme.
Une seconde étude a cartographié les conditions dans lesquelles, quand et comment, les facteurs de transcription lient le génome, afin de mieux comprendre les mécanismes qui sous-tendent la différenciation des cellules souches.
3. L’application des analyses épigénomiques à la recherche sur les maladies humaines
Une étude a été menée usant d’approches génétiques et épigénétiques, en vue de créer des cartographies à l’échelle moléculaire de différents types cellulaires, qui les aident à se diriger automatiquement vers les variants génétiques impliqués dans vingt et une maladies auto-immunes, incluant la maladie de Crohn et l’arthrite rhumatoïde.
Les chercheurs ont employé un modèle mathématique – qu’ils ont développé – afin d’analyser les données tirées d’études d’association pangénomique de patients auto-immunes. Les chercheurs ont trouvé ces variations ténues de l’ADN – les SNP (single nucleotide polymorphisms) – apparues près des principaux régulateurs génétiques des réponses du système immunitaire
Ensuite, les chercheurs ont créé des cartographies à partir de données compilées par l’Epigenomics Project, afin de cartographier les mécanismes de régulation du génome humain à travers un large éventail de types cellulaires.
Lorsque les chercheurs ont comparé les SNP avec les nouvelles cartographies de cellules, ils ont localisé avec précision quels types cellulaires causent chaque désordre auto-immune et indiqué comment ces variations de l’ADN produisent des cellules immunes qui dysfonctionnent.
Étudiant l’effet de la chromatine sur les mutations cancéreuses, une équipe a examiné la distribution des mutations dans de multiples échantillons indépendants de divers types de cancers et les a comparés à des traits épigénomiques spécifiques de types cellulaires. Elle a ainsi indiqué que l’accessibilité et les modifications, ainsi que le déroulement de la réplication, expliquent jusqu’à 86 % de l’écart entre les taux de mutation des génomes cancéreux.
D’autres chercheurs ont indiqué que le type de cellule dans laquelle s’est développé un cancer, peut être déterminé avec exactitude sur la base de la distribution des mutations du génome.
Ainsi, la séquence d’ADN d’un génome cancéreux est-elle riche en informations sur l’identité et les traits épigénomiques de la cellule dans laquelle il est apparu.
Enfin, une équipe s’est attelée à l’étude des changements qui interviennent dans les premières phases de la maladie d’Alzheimer, avant que les symptômes ne commencent même à apparaître.
L’objectif des chercheurs a été de les comparer aux dernières étapes de la maladie, lorsque le trouble neurodégénératif et cognitif est évident.
À cet effet, ils ont analysé les changements qui interviennent dans les gènes et les régions régulant les gènes, à mesure que progresse la maladie d’Alzheimer, en utilisant une souris servant de modèle de cette maladie qui a été fabriqué en laboratoire.
Cette souris a été façonnée de telle sorte que le gène de la protéine p25 (118) puisse être surstimulé dans le cerveau, ce qui incite la souris à développer des symptômes très proches de la maladie d’Alzheimer tels qu’ils se développent chez l’homme.
Les chercheurs ont comparé les résultats chez la souris avec ceux qui sont connus de la maladie d’Alzheimer chez l’homme. Ils ont fait état de différences dans les niveaux de gènes de la souris semblables à celles constatées précédemment dans les cerveaux des patients atteints de la maladie d’Alzheimer.
Les chercheurs ont indiqué que les signatures épigénétiques pouvaient être conservées, car les régions régulatrices qui étaient actives ou réprimées chez la souris avaient le même profil chez l’homme.
Ils ont également indiqué que les régions à activité accrue dans le modèle de la souris remplissaient des fonctions immunes chez l’homme et que les régions à activité décroissante avaient des fonctions neuronales chez l’homme.
Les auteurs de cette étude font observer que les études antérieures du génome chez les patients atteints de la maladie d’Alzheimer avaient identifié des variants génétiques associés à la maladie, mais que les scientifiques ignoraient comment ces variants de l’ADN contribuaient à la maladie, puisque la majorité d’entre eux étaient trouvés à l’extérieur des régions codant pour les protéines.
Ces chercheurs estiment que les cartographies qu’ils ont élaborées, permettraient maintenant de placer ces variants génétiques non codants dans le contexte des régions régulatrices pertinentes de la maladie et d’interpréter leur contribution à la prédisposition à la maladie.
Lancé en octobre 2012 et devant durer jusqu’à avril 2016, le projet Blueprint rassemble quarante-et-une universités européennes, des instituts de recherche et des entreprises.
Financé à hauteur de 30 millions d’euros par l’Union européenne, ce consortium a pour objectif d’approfondir la compréhension des conditions dans lesquelles les gènes sont activés ou réprimés à l’échelle du génome, à la fois dans les cellules saines et les cellules malades.
À cette fin, il vise à produire au moins cent épigénomes de référence et à les étudier pour avancer et exploiter les connaissances sur les processus biologiques et les mécanismes qui sous-tendent la santé et les maladies. Cet objectif s’inscrit dans celui poursuivi par l’International Human Epigenome Consortium (IHEC).
L’International Human Epigenome Consortium (IHEC) L’IHEC a été mis en place en 2010. Ce projet est le fruit des initiatives de plusieurs consortia : ENCODE (2003), The Cancer Genome Atlas (TCGA, 2006), International Cancer Genome Consortium (ICGC, 2008) et National Institutes of Health Roadmap Epigenomics (2008). L’IHEC vise à cataloguer mille épigénomes humains de référence pour les sept à dix prochaines années. Ce millier d’épigénomes inclut deux cent cinquante types de cellules. Un objectif à long terme de l’IHEC est de déterminer dans quelle mesure l’épigénome a façonné les populations humaines au fil des générations en réponse à l’environnement et de produire des épigénomes humains de référence pour les états-clés de la cellule pertinents pour la santé et la maladie. Ces états-clés de la cellule sont : l’immortalité, la prolifération, la sénescence et le stress. En février 2013, sept organisations ont rejoint l’IHEC, incluant le NIH Roadmap Epigenomics, Blueprint, le Deutsches Epigenomics Program (DEEP), l’Institute for Health Research du Canada, la Japan Science and Technology Agency (IST), le KNIH de Corée du Sud et l’Italian Epigenome Program. |
Source : Jae-Bum Bae, Perspectives of international human epigenome consortium, Genomics and informatics, 21 février 2013.
Le projet Blueprint se concentre sur les types cellulaires hématopoïétiques d’individus sains et d’individus ayant contracté un cancer malin.
Blueprint vise à identifier les variants génétiques responsables du changement de l’expression des gènes et des changements épigénétiques au niveau du génome entier, en collaboration partielle avec les partenaires canadiens de l’IHEC.
Usant d’une souris comme modèle, Blueprint quantifie les variations du génotype et de l’épigénotype.
En vue d’élucider la fonction des épigénomes humains, le projet Blueprint veut intégrer explicitement la variation génétique chez l’homme, comme un paramètre qui gouverne potentiellement l’information épigénétique. Selon les chercheurs du consortium, cette intégration, dès le début, dans l’état de l’art des études d’associations pangénomiques (GWAS), permettra de formuler et de confirmer des hypothèses et des a priori pertinents concernant les maladies.
Les travaux du consortium ont donné lieu à une dizaine de publications dans les revues les plus prestigieuses. Elles ont notamment porté sur : des mutations non codantes ayant un impact fonctionnel, de nouveaux longs ARN non codants oncogéniques et sur le lien entre mutations somatiques, méthylation de l’ADN et contrôle transcriptionnel.
Ces différentes cartographies, outre qu’elles permettent d’approfondir les connaissances concernant la problématique fondamentale de la diversité des types cellulaires, offrent de nouvelles hypothèses sur l’étiologie de certaines pathologies.
Pour autant, malgré ces progrès, les cartographies de l’épigénome ne rendent qu’imparfaitement compte de l’hétérogénéité de ce dernier. En effet, elles ne permettent pas une analyse microscopique de l’épigénome, à la différence des méthodes dites de single cell (cellule unique).
ii. Les méthodes d’analyse de cellule unique (single cell)
Selon des chercheurs (119), c’est au niveau de la cellule unique que l’on peut, de la façon la plus utile, faire une recherche sur la régulation épigénétique en général, là où les différences intracellulaires peuvent être observées, ce qui permet une compréhension plus affinée qu’une analyse macroscopique.
En effet, les technologies de séquençage à haut débit ont certes révolutionné le champ de l’épigénétique grâce à la cartographie à l’échelle du génome de la méthylation de l’ADN, des modifications d’histones, de l’accessibilité de la chromatine et de la conformation du chromosome. Mais à l’origine, ces méthodes exigeaient, en termes de données à traiter, des échantillons contenant des centaines de milliers ou des millions de cellules.
Le changement intervenu depuis quelques années réside dans le fait que de nombreux traits épigénétiques peuvent maintenant être analysés au niveau d’une cellule unique.
Les approches épigénomiques de la cellule unique utilisent le traitement chimique de l’ADN au bisulfite, l’immunoprécipitation pour étudier la méthylation de la cytosine et les autres modifications de l’ADN, les modifications d’histones, l’accessibilité de l’ADN et la conformation de la chromatine.
Parmi les innovations introduites dans ces approches, figurent les systèmes de microfluidique, qui permettent de photographier les cellules capturées dans ces systèmes, de telle sorte que la morphologie des cellules et la présence des doublets puissent être évaluées après coup. Toutefois, le débit actuel de ces dispositifs est lent, traitant seulement quatre-vingt-seize cellules à la fois.
Quoiqu’il en soit, des chercheurs n’en soulignent pas moins les avancées issues des méthodes de single cell.
Ainsi, ces méthodes facilitent-elles l’approche de petites et/ou complexes populations de cellules de différentes façons. Tout d’abord, elles peuvent être utilisées pour accéder à l’épigénome de populations de cellules qui sont trop petites pour être analysées.
Ensuite, elles peuvent être utilisées pour caractériser des populations de cellules hétérogènes, en classant des cellules uniques dans des types connus ou en identifiant de nouvelles sous-populations (120) avec des épigénomes distincts.
Il s’agit, en effet, de groupes de cellules qui, tout en étant caractérisées et pouvant être isolées, sont toutefois trop petites pour permettre une analyse à grande échelle ou qui exigent une collection de nombreux échantillons.
Dans ce contexte, les approches de cellules uniques permettent, selon certains chercheurs, d’affiner la compréhension de la régulation épigénétique. Par exemple, les auteurs d’une étude précitée (121) font observer que les voies selon lesquelles les modifications d’histones sont inchangées dans la réplication de l’ADN sont inconnues.
Mais on pourrait imaginer que, grâce aux approches single cell, les cellules mère et fille puissent être séquencées afin de révéler la distribution des marques épigénétiques entre les deux cellules.
Outre cet apport, les auteurs de cette même étude estiment que les approches de single cell permettront de comprendre le processus du développement.
Ainsi, le profil de la transcription d’une single cell a-t-il révélé, d’après des recherches, l’existence d’une sous-population dans des contextes de développement différent. Mais en combinant cette information avec les expériences retraçant le lignage cellulaire (122), on peut déchiffrer la hiérarchie cellulaire sous-tendant des tissus complexes et fournir une information inédite sur les mécanismes moléculaires gouvernant les processus de différenciation.
C’est également dans le domaine clinique que les méthodes de single cell pourront avoir des applications en contribuant, par exemple, à l’analyse de la complexité du cancer.
En effet, les technologies de séquençage de single cell révèleront l’hétérogénéité de la tumeur, ce qui aura de nombreuses applications pour la gestion clinique, à mesure que les différents types cellulaires seront susceptibles de jouer des rôles distincts dans l’initiation de la maladie, la métastase et la résistance au médicament.
À cet égard, le séquençage selon la méthode de single cell de l’ADN fait apparaître une évolution clonale dans de nombreux types de cancer et a identifié des mutations fondatrices et subclonales (123), qui ont des implications dans la progression du cancer.
Ce perfectionnement des outils d’analyse fait apparaître les voies selon lesquelles l’exploration de nombreux domaines de recherche contribue à l’essor de l’épigénétique.
2. L’exploration de nombreux domaines de recherche
Selon un processus analogue à celui que l’on peut constater dans d’autres disciplines, ces domaines se situent au sein même de l’épigénétique et dans les liens que cette dernière a tissés avec les sciences de la vie, les sciences dures et les sciences sociales.
a. Une évolution se déroulant au sein de l’épigénétique
Cette évolution a revêtu deux aspects. Le premier a trait à une identification toujours plus précise du rôle des mécanismes épigénétiques.
Le second aspect est lié au développement des études en matière d’épigénétique environnementale.
i. Une identification toujours plus précise du rôle des mécanismes épigénétiques
Dans sa leçon inaugurale au Collège de France déjà citée, Mme Edith Heard a brossé un historique très détaillé des différents travaux qui ont permis d’approfondir constamment les connaissances sur le rôle de plusieurs mécanismes épigénétiques.
S’agissant de la méthylation de l’ADN, Mme Heard a rappelé que des travaux publiés dans les années 1970 avaient proposé que ce soit sur cette marque épigénétique que reposent l’inactivation du chromosome X et sa transmission stable au travers des divisions cellulaires.
D’autres chercheurs auront découvert, par la suite, que cette méthylation est de nouveau fidèlement apposée après réplication de l’ADN, à l’aide des ADN méthyltransférases, dits de « maintenance ».
Évoquant des expériences de transplantation nucléaire dans les ovocytes de souris dans les années 1980, Mme Edith Heard a indiqué que la méthylation de l’ADN influençait également le processus de l’empreinte parentale.
En effet, ces expériences, dont l’objectif était d’obtenir des embryons porteurs de deux génomes d’origine maternelle, des gynogénotes, ou de deux génomes d’origine paternelle, des androgénotes, ont permis d’établir que les génomes d’origine maternelle et paternelle sont l’objet d’une méthylation différentielle. Établie dans la lignée germinale des parents, cette méthylation est transmise à leur progéniture qui la maintient.
Quant à la genèse des travaux que Mme Edith Heard a menés sur l’inactivation du chromosome X, elle met parfaitement en relief les conditions dans lesquelles ce processus, identifié génétiquement dans les années 1960, est devenu, selon les propres termes de Mme Heard, un paradigme pour l’étude des mécanismes épigénétiques.
Évoquant notamment les travaux entrepris au sein du Cold Spring Harbor Laboratory de New-York, Mme Heard a indiqué que ces travaux avaient découvert l’importance de la liaison entre la chromatine et de petites molécules d’ARN, un processus nommé « interférence ARN », dans la formation et la stabilité de l’hétérochromatine.
Quant à la proposition, en 2000, d’un code des histones, analogue au code génétique, Mme Heard a fait remarquer que, d’après ces recherches, des combinaisons d’histones modifiées forment des signaux qui recrutent des facteurs spécifiques, lesquels, en se liant à la chromatine, modulent l’activité des gènes et d’autres fonctions du génome.
En outre, ces histones modifiées pourraient constituer des « marques épigénétiques » transmettant des changements de caractères héritables, ce qui est, selon Mme Heard, une hypothèse toujours en débat à l’heure actuelle.
À cet égard, Mme Heard a indiqué que les travaux qu’elle a menés au Cold Spring Harbor Laboratory en collaboration avec le biochimiste américain David Allis (124), ont permis de voir que les chromosomes X actifs et inactifs se distinguaient par plusieurs modifications d’histones.
Mais c’est surtout en poursuivant, à l’Institut Curie, l’exploration du processus d’activation du chromosome X que Mme Edith Heard a apporté d’importantes contributions en montrant que les deux centres d’inactivation sont situés à proximité de l’enveloppe nucléaire, ce qui allait à l’encontre de l’hypothèse émise d’une localisation différentielle.
De même, en collaboration avec des chercheurs américains, a-t-elle indiqué que le centre d’inactivation était organisé en une succession d’interactions, contiguës les unes aux autres, chacune couvrant plusieurs centaines de milliers de nucléotides. Pour Mme Heard, de façon plus générale, cette étude montre que l’organisation des chromosomes en une succession de domaines d’interaction pourrait sous-tendre une part importante de la régulation des gènes.
Pour ce qui est des différentes étapes de l’inactivation du chromosome X dans les embryons précoces, Mme Heard relève, en particulier, que, chez la souris, l’inactivation est très précoce et soumise à l’empreinte parentale, puisqu’elle concerne exclusivement le chromosome X d’origine paternelle et que, une fois établie dans l’embryon, l’inactivation est remarquablement stable à l’échelle du chromosome. Toutefois, certains cancers du sein sont associés à une instabilité de l’inactivation du chromosome X.
Ce sont enfin les ARN non codants (ARN nc) qui ont été également l’objet de nouvelles études.
Ainsi, les travaux menés par M. Antonin Morillon (125) et son équipe sur la levure S cerevisiae, leur ont-ils permis d’être les premiers à décrire, chez la levure, la régulation épigénétique exercée par les grands ARN nc dans le contrôle des transposons (126) et de l’expression des gènes.
Les stratégies expérimentales du laboratoire de M. Antonin Morillon sur S.cerevisiae ont porté sur les gènes uniques, sur lesquels ont été réalisées des analyses in vivo en routine au niveau de la chromatine ou de l’ARN et, ensuite, des études des phénotypes d’une combinaison de mutants impliqués dans la dégradation des ARN ou la régulation de la chromatine.
Ces expériences ont permis, d’une part, de mettre en évidence l’existence d’un ARN nc qui agit en trans (127) et qui contrôle le transposon Ty 4 dans la levure.
D’autre part, M. Morillon a démontré que la transcription cryptique intervient dans la mise en place des modifications post-traductionnelles HRS des histones, lesquelles contrôlent les gènes inductibles, c’est-à-dire des gènes qui s’expriment uniquement en présence d’un métabolite spécifique, l’inducteur.
S’agissant des travaux futurs de M. Morillon, ils porteront sur :
- la poursuite de l’étude par son laboratoire du transcriptome caché dans différentes espèces de levure,
- l’analyse exhaustive du transcriptome non codant humain, un intérêt particulier étant accordé aux ARN antisens (128) qui sont peu caractérisés jusqu’à présent,
- le rôle joué par les ARN nc dans le vieillissement et la transformation cellulaire.
Une autre avancée dans le domaine des études sur les ARN nc est illustrée par les travaux de chercheurs chinois, dont les résultats indiquent que les miARN (micro ARN) dans le noyau modulent l’activation des gènes, en interagissant avec les éléments activateurs (enhancers), à travers les modifications épigénétiques.
Par le criblage d’une banque de données de miARN, ces chercheurs ont identifié un sous-ensemble de miARN qui fonctionnent comme des régulateurs activateurs et qui continuent de déclencher l’activation des gènes que cette équipe de chercheurs a qualifiés de namiRNAs (nuclear activating miRNA). Se focalisant sur la miR-24-1, ils ont constaté que ce mARN déclenchait de façon non conventionnelle la transcription des gènes en ciblant les activateurs.
Enfin, avec le 5-hydrométhylcytosine (5-hmc), les chercheurs ont mis en évidence ce que certains qualifient de sixième base de l’ADN, en référence à la
5-méthylcytosine, considérée comme la cinquième base par certains auteurs.
La 5-hmc est la forme hydroxylée de la méthylcytosine. Elle a été découverte en premier dans l’ADN du bactériophage en 1952. Durant plusieurs décennies, l’étude sur l’hydroxyméthylcytosine se concentrait sur son effet protecteur pour l’ADN du phage.
Ce n’est que très récemment qu’a été étudié son rôle dans le développement du cerveau humain et de la souris, ainsi que dans les cellules souches embryonnaires où l’hydroxyméthylcytosine est très présente, pouvant être générée par oxydation de la 5-méthylcytosine. Cette réaction est catalysée par une enzyme appelée Tet, dont le rôle est majeur dans le développement de l’embryon et du cerveau, ainsi que dans l’apparition de certains cancers.
ii. Le développement des études en matière d’épigénétique environnementale
Bien que le nombre de publications sur l’épigénétique soit passé de moins de 150 en 1990 à 1 300 en 2011, le nombre de publications qui ont été consacrées à l’analyse du rôle de l’environnement n’a pas augmenté dans les mêmes proportions, passant de 12 citations en 1990 à 567 en 2011 (129).
Pour autant, ces études n’en n’illustrent pas moins l’importance de leur apport au renouvellement de l’analyse du jeu de facteurs environnementaux sur l’épigénome. Car, ces études ont catalysé la constitution de domaines émergents, tels que l’exposomique, l’épigénétique comportementale et la nutrigénomique, exerçant ainsi un remarquable effet d’entraînement en termes d’interdisciplinarité. Mais, en outre, comme cela sera exposé plus loin, l’exposomique a été appelée à jouer un rôle dans certains aspects des politiques publiques de santé.
Ce terme, qui est déjà considéré comme celui désignant une nouvelle discipline qui prendrait place à côté d’autres omiques comme la génomique ou la protéomique, est d’abord le fruit des travaux de Christopher Wild (130).
Le concept d’exposome, défini par Christopher Wild dans une publication de 2005 qui fait aujourd’hui référence, trouve son origine dans la nécessité pour les chercheurs de concevoir, parallèlement à la notion du génome, et forgé sur la même analyse conceptuelle, un outil méthodologique pour l’évaluation des expositions environnementales, ce que M. Wild a indiqué dans les termes suivants :
« Le déséquilibre existant dans la précision de la mesure des gènes et de l’environnement a pour principale conséquence d’empêcher la santé publique de tirer pleinement bénéfice de l’investissement de la recherche sur le génome humain (...). Il est véritablement urgent de mettre au point des méthodes de mesure de l’exposition environnementale d’un individu donné qui soient aussi précises que celles que nous avons développées pour le génome. Il y a pour moi nécessité à développer un « exposome » pour répondre au génome. Ce concept d’exposome peut aider à attirer l’attention sur la nécessité de développements méthodologiques dans l’évaluation des expositions auxquelles l’homme est confronté.
Dans sa forme la plus achevée, l’exposome englobe toutes les expositions à l’environnement au cours de la vie (y compris les facteurs liés au mode de vie), dès la période prénatale. Élaborer des outils de mesure fiables pour un historique aussi complet des expositions humaines est extrêmement difficile. Contrairement au génome, l’exposome est une entité très variable et dynamique qui évolue tout au long de la durée de la vie de l’individu » (131).
Dans une étude ultérieure, Christopher Wild précise d’emblée que le concept d’exposome a été développé pour appeler l’attention sur le besoin crucial d’une mesure plus complète de l’exposition à l’environnement dans les études épidémiologiques. C’est pourquoi dit-il : « L’environnement est défini, dans ce contexte, dans son sens large de ce qui est non génétique » (132).
Pour cette raison, l’exposome complète le génome en fournissant une description globale de l’histoire de l’exposition tout au long de la vie.
Précisant le contenu de la notion d’exposome, Christopher Wild distingue trois domaines :
- l’environnement interne du corps : il inclut des processus tels que le métabolisme, les hormones, la morphologie du corps, l’activité physique, le ventre, la microflore, le stress oxydant, le vieillissement, etc. ;
- les agents externes : ils correspondent à la radiation, aux agents infectieux, aux contaminants chimiques et aux polluants, à la nourriture, au style de vie (par exemple consommation du tabac et de l’alcool), aux conditions de travail, aux interventions médicales, etc. ;
- l’environnement général externe : il comporte les influences sociales et psychologiques s’exerçant sur l’individu. Il s’agit, par exemple, du capital social, du niveau d’éducation, du débit financier, du stress psychologique et mental, de l’environnement rural/urbain et du climat (133).
Christopher Wild souligne la nécessité de bien distinguer ces différentes composantes et leurs conséquences biologiques et la question plus pratique de la méthodologie appliquée à la mesure de l’exposome.
Il estime, en effet, qu’une approche nuancée est requise, en faisant appel à une série d’instruments en vue de saisir pleinement la portée des trois composantes de l’exposome décrites précédemment.
Dans cette perspective, Christopher Wild résume sa proposition dans le tableau ci-dessous.
Quelques exemples d’approches et d’outils destinés à mesurer l’exposome | |
Approches |
Instruments |
Biomarqueurs (origines) |
|
Général |
Génomiques, transcriptomiques, protéomiques métaboliques, épigénomiques |
Cible |
Aductomique, lipidomique, immunomique |
Technologies de capteurs |
Polluants, activité physique, stress oxydant, rythme circadien, localisation (GPS). |
Imagerie (y compris le téléphone mobile, la vidéo) |
Nourriture, environnement, interactions sociales |
Ordinateurs portables |
Comportement et expériences (analyse écologiques, stress, nourriture, activité physique) |
Mesures conventionnelles améliorées (combinées avec les mesures de l’environnement) |
Matrices emplois, exposition, rappel diététiques (par ex. EPIC-Soft) (European computer program for 24 hours dietary protocols - programme européen pour le rappel diététique de 24 heures. |
Source : Christopher Wild, The exposome: from concept to utility. |
Tout en plaidant pour l’utilisation de méthodes conventionnelles des technologies innovantes et des biomarqueurs exposés dans le tableau ci-dessus, Christopher Wild insiste sur l’importance du moment choisi pour la mesure de l’exposition. À cet égard, estimant qu’il y a un nombre accru de preuves, il privilégie le développement précoce et les expositions in utero ou celles ayant lieu au cours de l’adolescence y compris des facteurs tels que le poids de naissance, la nourriture, le stress maternel, qui jouent un rôle important dans le risque ultérieur de maladie chromique.
S’interrogeant sur l’utilité de la mesure de l’exposome, Christopher Wild indique que « l’objet premier de l’exposome devrait être l’identification des facteurs de risque dans les études épidémiologiques. Le but en est de généraliser les observations tirées d’un groupe d’individus et de les appliquer à une population, pour servir de base aux décisions prises en matière de santé publique ».
Sur ce point, il sera montré que le législateur français en a tiré les conséquences en reprenant cette notion d’exposome dans la loi du 26 janvier 2016 de modernisation de notre système de santé.
En second lieu, Christopher Wild souligne que, outre une meilleure analyse de l’exposition, l’exposome permet d’élucider le lien entre les mécanismes de l’exposition et une maladie, cette approche étant, à ses yeux, la plus excitante dans le domaine de la recherche sur le cancer.
Il n’est pas indifférent de noter que pour le Pr Randy Jirtle (134), c’est une autre notion de la santé environnementale, apparue en 2009, l’« Empreintome » (imprintome) qui peut nous aider également à comprendre le lien entre l’environnement et les maladies. Il définit ainsi cette notion : « éléments de régulation situés dans le génome humaine de l’empreinte agissant sur la séquence CIS », celle-ci étant une séquence d’ADN capable de moduler l’expression d’un gène présent (en général) sur le même chromosome.
Le Pr Jirtle fait valoir que, l’empreinte génomique étant une conséquence directe de la régulation épigénétique, l’empreintome devrait être considérée comme une partie de l’épigénome, plutôt que du génome ou du transcriptome.
En tout état de cause, il estime que l’empreintome est crucial pour le développement et la croissance, car notre compréhension de nombreuses maladies humaines complexes s’améliore de façon significative, à mesure que l’implication des gènes imprimés et la régulation de l’empreinte sont de mieux en mieux établies (135).
• L’épigénétique comportementale
Lors d’un colloque organisé en 2010 par l’Académie des sciences de New-York sur l’épigénétique comportementale, celle-ci a été définie en ces termes : « L’épigénétique comportementale a été décrite comme l’application des principes de l’épigénétique à l’étude des mécanismes psychologiques, génétiques, environnementaux et développementaux à l’homme et aux animaux. Les recherches se concentrent typiquement sur les modifications chimiques, l’expression des gènes et les processus biologiques qui sous-tendent le comportement normal et anormal » (136).
D’aucuns estiment que ce sont les travaux des chercheurs canadiens Moshe Szyf (137) et Michael Meaney (138) qui ont permis à ce domaine émergent de se développer très rapidement.
Leurs travaux suggèrent ainsi que l’épigénétique pourrait expliquer comment les expériences de la vie précoce sont susceptibles de laisser une marque indélébile sur le cerveau et d’influencer la santé physique dans la vie future, leurs effets pouvant même s’étendre aux générations suivantes.
S’agissant des recherches de Michael Meaney, celui-ci avait indiqué que le type de soins maternels que le rat a reçus lorsqu’il était raton, est une mesure de la façon dont son cerveau répond au stress tout au long de sa vie. De fait, les rats qui ont été élevés par des mères attentives sont, lorsqu’ils deviennent adultes, en mesure de mieux affronter le stress que ceux qui ont été élevés par des mères négligentes. Au demeurant, lorsque ces derniers rats sont confinés dans un tube en plexiglas, par exemple, ils montrent un surcroît de corticostérone, une hormone qui est produite en grandes quantités par les glandes surrénales en période de stress.
C’est une étude codirigée par Michael Meaney et Moshe Szyf, publiée en 2004 dans « Nature Neurosciences » (139) qui, de l’avis général, a marqué le début de l’essor de l’épigénétique comportementale.
Cette étude rapporte que le fait, pour une ratte, de lécher et de faire la toilette de ses petits de façon accrue et d’allaiter en faisant le gros dos a modifié l’épigénome de sa portée dans le récepteur glucocorticoïde, un gène promoteur dans l’hippocampe.
Les petits des mères bénéficiant de tels soins ont montré une méthylation de l’ADN différente de celle de ratons moins bien soignés.
Ces différences, apparues au cours de la première semaine de la vie ont persisté au cours de la vie adulte et ont été associées à l’altération de l’acétylation des histones et au facteur de transcription NGFI-A qui lie le promoteur du récepteur glucocorticoïde.
L’insertion d’un inhibiteur d’histone désacétylase a effacé les différences entre les groupes de rats en ce qui concerne l’acétylation des histones, la méthylation de l’ADN, le facteur de transcription NGFI-A et les réponses de l’hypothalamo-pituito-surrénalien (140) au stress. Un tel contexte suggère, selon les auteurs, une relation causale dans les états épigénomiques à savoir l’expression du récepteur glucocorticoïde et l’effet des soins maternels sur les réponses au stress chez les ratons. Ainsi, les auteurs ont-ils estimé avoir montré que l’état épigénomique d’un gène pouvait être établi à travers une programmation du comportement et qu’il pouvait être potentiellement réversible.
L’étude de 2004 a ouvert la voie à plusieurs autres recherches (141) notamment celle publiée en 2009 par Michael Meaney et son équipe. Dans cette étude, les auteurs avaient procédé à l’examen post mortem de vingt-quatre personnes qui avaient commis un suicide, douze d’entre elles avaient subi des actes de maltraitance dans leur enfance. S’appuyant sur les travaux réalisés sur les rats en 2004, les chercheurs ont émis l’hypothèse qu’ils ont estimé avoir confirmée, que les personnes qui avaient été maltraitées pourraient avoir un gène du récepteur glucocorticoïde plus méthylé que celles qui n’avaient pas été maltraitées.
Si, pour certains, les travaux de Moshe Szyf et Michael Meaney ont introduit une révolution, ils ont toutefois suscité scepticisme ou critiques. C’est ainsi qu’une équipe de chercheurs canadiens avait entrepris, en 2009, une étude sur l’expression des gènes de personnes élevées dans différents milieux socio-économiques. Leur travail avait porté principalement sur les globules blancs. Ces chercheurs avaient alors indiqué qu’ils espéreraient trouver une méthylation accrue du gène du récepteur glucocorticoïde, telle que l’avait étudiée Michael Meaney, à partir de l’hypothèse qu’un environnement socio-économique défavorable pourrait être approximativement analogue à l’environnement des ratons mal soignés dans leur enfance décrits par Michael Meaney.
Or, ces chercheurs ont déclaré n’avoir rien constaté en ce qui concerne la méthylation du gène récepteur glucocorticoïde.
Il se pourrait, selon ces chercheurs, que le sang et le cerveau ne subissent pas nécessairement les mêmes modifications épigénétiques en réponse à une expérience donnée.
De même, des chercheurs avaient-ils estimé que n’était pas reproductible, une expérience effectuée par Moshe Szyf selon laquelle une protéine appelée MBD2 pourrait être rapidement effacée des groupements méthyl de l’ADN. C’est ainsi qu’un chercheur britannique avait montré, en 2001, que les souris ne disposant pas du gène MBD2 avaient des profils normaux de méthylation, suggérant qu’il n’a pas le rôle d’une déméthylase. Ce même chercheur a considéré que le chaînon manquant crucial (dans les travaux de Moshe Szyf) résidait dans la démonstration purement biochimique de l’existence d’une activité enzymatique.
Or, aux yeux des critiques des travaux de Moshe Szyf et de Michael Meaney, c’est précisément sur ce dernier point que se situe le défi à relever car, comme cela a été observé (142), même si les chercheurs parviennent à montrer comment les marques de méthylation sont effacées d’un gène, il leur incombe toutefois d’établir que le mécanisme par lequel une expérience telle que le soin maternel pourrait causer ce changement. À cet égard, Michael Meaney a proposé que, le fait pour une ratte de lécher, accroît les niveaux de la sérotonine (143).
Mais aucune expérience n’a apporté la preuve qui expliquerait comment un tel processus fonctionnerait.
Il a été mentionné précédemment que les chercheurs s’étaient intéressés aux effets épigénétiques de la nutrition, notamment à travers le rôle de certains aliments, tels que les folates, les souris agouti ou encore la famine survenue aux Pays-Bas.
Cette dernière continue certes de susciter d’autres études. Mais si, aujourd’hui, la nutrition est un domaine de plus en plus exploré, c’est non seulement à cause de son rôle dans les maladies complexes mais aussi parce qu’elle peut être un outil au service des politiques publiques de santé, notamment en matière de prévention.
De fait, c’est une nouvelle discipline – appelée nutrigénomique – qui a vu le jour. Celle-ci concerne les interactions entre la nourriture et les gènes. Elle comprend la nutrigénétique, l’épigénétique et la transcriptomique.
L’avenir prometteur de la nutrigénomique tient à ce qu’elle participe du concept émergent de « Gut health » (« santé intestinale »). Terme de plus en plus employé dans la littérature médicale, il couvre, selon une étude récente, de multiples aspects du tractus gastro-intestinal tels que : l’absence de maladies gastro-intestinales, un microbiote normal et stable et un système immunitaire efficace. Trois éléments qui sont en mesure de déterminer un état de bien-être (144).
Parmi ces éléments, le microbiote intestinal est appelé à jouer un rôle important.
Le microbiote
Le microbiote est l’ensemble des micro-organismes – bactéries, virus, parasites, champignons non pathogènes, dits commensaux qui vivent dans un environnement spécifique. Dans l’organisme, il existe différents microbiotes, au niveau de la peau, de la bouche, du vagin… Le microbiote intestinal est le plus important d’entre eux, comptant un nombre qui est deux à dix fois plus élevé que le nombre de cellules qui constituent notre corps, pour un poids de deux kilos !
Le microbiote intestinal est principalement localisé dans l’intestin grêle et le côlon – l’acidité gastrique rendant la paroi de l’estomac quasi stérile. Il est réparti entre la lumière du tube digestif et le biofilm protecteur que forme le mucus intestinal sur sa paroi intérieure (l’épithélium intestinal).
Grâce aux techniques de séquençage à haut débit du matériel génétique, le rôle du microbiote intestinal est de mieux en mieux connu. On sait désormais qu’il joue un rôle dans les fonctions digestive, métabolique, immunitaire et neurologique.
Le microbiote d’un individu se constitue dès sa naissance, au contact de la flore vaginale après un accouchement par voie basse ou au contact des micro-organismes de l’environnement pour ceux nés par césarienne.
À l’instar de l’empreinte digitale, le microbiote intestinal est propre à chaque individu : il est unique sur le plan quantitatif. Parmi les cent soixante espèces de bactéries que comporte en moyenne le microbiote d’un individu sain, une moitié est communément retrouvée d’un individu à l’autre. Il existerait d’ailleurs un socle commun de quinze à vingt espèces en charge des fonctions essentielles du microbiote.
Bien que cela soit discuté, il semble que l’on puisse distinguer des groupes homogènes de population, selon la nature des espèces qui prédominent dans leur microbiote : on distingue trois groupes – ou entérotypes – principaux : bacteroides, prevotella et clostridiales.
Sous l’influence de la diversification alimentaire, de la génétique, du niveau d’hygiène, des traitements médicaux reçus et de l’environnement, la composition du microbiote intestinal va évoluer qualitativement et quantitativement pendant les premières années de la vie. Ensuite, la composition qualitative et quantitative du microbiote reste assez stable. La fluctuation des hormones sexuelles – testostérone et estrogènes – pourra malgré tout avoir un impact sur sa composition. Des traitements médicaux, des modifications de l’hygiène de la vie ou divers événements peuvent aussi modifier le microbiote, de façon plus ou moins durable. Un traitement antibiotique en réduit la qualité et la quantité.
Le microbiote intestinal assure son propre métabolisme en puisant dans nos aliments (notamment parmi les fibres alimentaires). Dans le même temps, ses micro-organismes jouent un rôle direct dans la digestion :
- ils assurent la fermentation des substrats et des résidus alimentaires non digestibles ;
- ils facilitent l’assimilation des nutriments grâce à un ensemble d’enzymes dont l’organisme n’est pas pourvu ;
- ils assurent l’hydrolyse de l’amidon, de la cellulose, des polysaccarides…
- ils participent à la synthèse de certaines vitamines (vitamine K, B12, B8) ;
- ils régulent plusieurs voies métaboliques : absorption des acides gras, du calcium, du magnésium.
Des animaux élevés sans microbiotes (dits axéniques) ont ainsi des besoins énergétiques de 20 % à 30 % fois supérieurs à ceux d’un animal normal.
Source : Extrait du dossier de l’Inserm, Microbioté et santé, février 2016.
Les nutritions maternelle et néonatale ont un impact majeur sur l’épigénome de l’enfant car la nourriture consommée module la composition du microbiote intestinal et les métabolistes qu’il produit.
Le tractus gastro-intestinal du fœtus est pratiquement stérile, sa colonisation débutant à la naissance à partir du microbiote maternel et de l’environnement. C’est à l’âge de deux ans que la population bactérienne de l’intestin est établie et reste relativement stérile tout au long de la vie, bien que les maladies, les interventions chirurgicales et les facteurs épigénétiques de modulation, tels que la nutrition, puissent influencer le microbiote intestinal.
S’agissant de la nutrition, les études mettent l’accent notamment sur les aspects bénéfiques pour la santé d’une nutrition riche en fibres, qui a pour effet de réduire le risque de diabète de type 2, de cancer du côlon, de l’obésité, de l’accident cardio-vasculaire cérébral et des maladies cardiovasculaires.
En outre, les chercheurs indiquent avoir examiné les effets bénéfiques d’une nutrition riche en fibres sur la mémoire et la cognition. Dans ces recherches, la nourriture et/ou les microbiotes sont manipulés en vue d’accroître la fonction cérébrale. Par exemple, les enfants ayant une nourriture riche en fibres font apparaître un meilleur contrôle cognitif (par exemple, à travers la réalisation de tâches multiples et le maintien de l’attention) que les enfants dont la nourriture est plus pauvre en fibres (145).
Associées au microbiote, les fibres produisent par un processus de fermentation, les chaînes d’acides gras, comme le butyrate.
Or, ce dernier suscite un intérêt croissant en raison de son rôle crucial dans le contexte de la « gut health » (« santé intestinale » évoquée précédemment).
Une récente étude a ainsi résumé les différents aspects du rôle joué par le butyrate. Il est capable de moduler la microfibre intestinale à travers la lumière intestinale. Il peut être également utile dans la prévention et le traitement de différents désordres chroniques, tels que le cancer, le syndrome métabolique, les maladies cardiovasculaires, les désordres héréditaires et les maladies neurodégénératrives. En outre, le butyrate pourrait contribuer – en raison du développement des stratégies de médecine régénérative – à promouvoir le remodelage épigénétique et l’expression des gènes associés à la pluripotence (146).
Outre l’influence de la nutrition sur le microbiote et la production du butyrate, les recherches se sont intéressées à ce qu’on a appelé la nutrition épigénétique et la restriction calorique. La nutrition épigénétique repose sur les composés bioactifs médicinaux et chimiques, tels que le sulforaphane, le curcumin, le gallate d’épigallocatéchine (147), censés contribuer à l’allongement de la vie humaine. La restriction calorique, bien que poursuivant le même objectif d’allongement de la durée de vie que la nutrition épigénétique, vise à réduire légèrement l’ingestion quotidienne de calories tout en permettant de bénéficier des nutriments essentiels.
La nourriture épigénétique comme la restriction calorique agissent comme des altérations épigénétiques, afin de ralentir le processus de vieillissement à travers des modifications d’histones, la méthylation de l’ADN et la modulation de l’expression des microARN. Elles ont également été considérées comme d’importants mécanismes qui modulent et ralentissent potentiellement la progression des maladies liées au vieillissement, aux maladies cardiovasculaires, au cancer, à l’obésité, et à la maladie d’Alzheimer.
À travers les trois champs de l’épigénétique environnementale – auxquels il faudrait ajouter la DOHaD, dont a pu voir le considérable apport – que l’on vient d’examiner, il apparaît que l’épigénétique est un facteur éminent d’interdisciplinarité, ce que confirme l’interaction de l’épigénétique avec d’autres disciplines scientifiques.
b. L’interaction entre l’épigénétique et d’autres disciplines scientifiques
Parmi ces disciplines, on peut distinguer les sciences de la vie, les sciences dures et les sciences sociales.
La génétique et la biologie des systèmes sont deux domaines qui offrent d’importantes potentialités de nouvelles recherches en épigénétique mais qui peuvent pourtant également revêtir de l’intérêt pour la génétique et la biologie des systèmes.
Dans la période récente, certains travaux sur l’ARN, le projet ENCODE et l’utilisation de la technologie CRISPR-Cas9 sont des exemples qui illustrent parfaitement les interactions qui peuvent exister entre génétique et épigénétique.
o Certains travaux sur l’ARN
Des chercheurs du centre de recherche contre le cancer de l’Université libre de Bruxelles, dirigé par le Pr François Fuks, ont réalisé récemment une nouvelle avancée en épigénétique en montrant l’importance du rôle de l’une des lettres de l’alphabet qui compose l’ARN : l’hydroxyméthylation (« hmC ») dont on a vu précédemment qu’elle est considérée comme la sixième base de l’ADN.
En étudiant le patrimoine génétique et épigénétique de la mouche du vinaigre, la drosophile, un organisme régulièrement utilisé dans les études de biologie moléculaire, cette équipe de chercheurs a pu montrer qu’hmC favorisait la traduction des ARN de la mouche du vinaigre en protéines. Le Pr Fuks et ses collègues ont encore pu démontrer le rôle essentiel joué par hmC au cours du développement de ces mouches. Ainsi, dans le cas où la production de hmC serait entravée, les mouches mourraient.
Ces travaux s’inscrivent dans un changement de paradigme revisitant le rôle de l’ARN – qui ne serait pas simplement un intermédiaire entre l’ADN et protéine, mais une molécule qui permettrait d’approfondir la connaissance du vivant.
En second lieu, ces recherches pourraient contribuer à une meilleure connaissance des maladies telles que le cancer ou certaines pathologies neurologiques.
o Le projet ENCODE
Le projet ENCODE repose sur une démarche transdisciplinaire recouvrant à la fois la génétique – comme vu précédemment – et l’épigénétique. Comme l’ont rappelé certains commentateurs (148), ce projet a utilisé les signatures épigénomiques pour en déduire l’existence, dans le génome humain, de centaines de milliers de régions analogues aux activateurs, qui régulent l’expression des gènes à long terme ; les mécanismes épigénétiques utilisés par ENCODE étaient en effet :
- les motifs de facteurs de transcription ;
- les caractérisations des ARN non codants ;
- les profils de méthylation de l’ADN ;
- la découverte et la caractérisation des activateurs.
Les mêmes commentateurs relèvent que, à partir du volume considérable de données ainsi recueillies, on constate que chaque type cellulaire est régulé par un sous-ensemble d’environ 200 à 40 000 activateurs, lesquels déterminent son profil particulier d’expression des gènes.
Outre qu’ENCODE permet une meilleure caractérisation des activateurs, il s’avère être également un instrument utile pour connaître l’étiologie de certaines pathologies. C’est ainsi que Mme Laure Escoubet (149) a déclaré aux rapporteurs, lors de leur déplacement aux États-Unis, que grâce à ENCODE, elle a compris le processus de différenciation entre cellules cancéreuses et cellules saines et que, sur cette base, Celgene développe actuellement la fabrication d’un médicament.
o CRISPR-Cas9
Plus connue comme système d’édition du gène, ainsi qu’indiqué précédemment, CRISPR-Cas9 est en passe d’être utilisé pour l’édition de l’épigénome, en faisant fonctionner les promoteurs et les activateurs spécifiques du gène.
Le jeu consiste à réduire au silence le mécanisme coupant l’ADN par CRISPR-Cas9, au lieu que ce dernier soit utilisé pour fournir une enzyme, une acétyltransférase, qui s’ajoute aux histones.
Les technologies d’édition du gène ont déjà été utilisées dans diverses recherches sur la régulation transcriptionnelle mais avec des résultats mitigés. Par exemple, certaines technologies visant au contrôle de la transcription ne remodèlent l’épigénome que de façon indirecte, de telle sorte qu’elles ne permettent pas une évaluation des marqueurs épigénétiques spécifiques.
Or, une équipe de chercheurs de l’université américaine Duke indique avoir surmonté cette difficulté, grâce à la fabrication d’une protéine de fusion d’une nucléase faiblement désactivée par CAS9 (dCas9) avec une histone acétyltransférase impliquée.
Cette équipe de chercheurs a considéré que le recrutement d’une acétyltransférase par dCas9 aurait pour effet de moduler directement la structure épigénétique.
Cette même équipe estime que sa technologie d’édition de l’épigénome permettra aux chercheurs d’explorer le rôle que jouent des promoteurs et des activateurs particuliers dans le destin cellulaire ou dans le risque de maladie. En outre, cette technologie pourrait offrir une nouvelle voie aux thérapies géniques et au guidage de la différenciation des cellules souches.
Enfin, ces conclusions soulignent que leurs résultats montrent la possibilité de tester des millions d’activateurs potentiels dans des conditions qui n’avaient jamais encore existé auparavant.
Le déplacement des rapporteurs à Montpellier, le 17 mai 2016, a permis d’avoir un autre aperçu de l’utilisation de la technologie du CRISPR. En effet, Mme Florence Cammas (150) a indiqué que, pour son équipe, CRISPR présentait un double avantage, pour ce qui est de l’objectif poursuivi d’inactiver des gènes d’intérêt dans les lignées hépatocytaires des souris (AML12), ces lignes étant des caryotypes anormaux mais stables. De fait, au lieu de devoir cibler deux allèles comme dans les cellules normales, il faut que l’équipe de Mme Cammas en cible quatre dans le cas d’AML12. Or cela lui a été possible, grâce à l’utilisation du système CRISPR, dont l’efficacité ne semble pas dépendre du nombre d’allèles à cibler.
Mme Florence Cammas précise que si elle n’avait disposé que de l’ancienne méthode de recombinaison homologue, elle ne l’aurait pas fait car son équipe aurait dû cibler les allèles les unes après les autres. En outre, cette expérience aurait duré au mieux dix-huit mois et avec des chances de succès très limitées.
Grâce à CRISPR, que son équipe a utilisé pour la première fois, elle a pu obtenir des mutants et même des doubles mutants en trois mois.
Quant au deuxième avantage, l’équipe de Mme Cammas a voulu compléter ses modèles avec des modèles cellulaires humains pour lesquels elle ne disposait pratiquement pas de matériel et qui présentent, du point de vue du caryotype, les mêmes caractéristiques que les cellules des souris. Or, grâce à CRISPR, il a suffi de concevoir un ARNg (151) spécifique de la séquence humaine pour aboutir à l’établissement des modèles mutés pour HP1 (Heterochromatin Protein 1).
La biologie des systèmes a pour objet l’étude des relations et des interactions entre les différentes parties du système biologiques (organites, cellules, systèmes physiologiques, réseaux de gènes et de protéines permettant la communication des cellules), en vue de tenter de découvrir un modèle de fonctionnement de la totalité du système.
Or, comme on l’a vu, l’épigénome est également composé d’un ensemble de réseaux, dont l’épigénétique étudie les interrelations.
Dès lors, du fait de ces points communs, le rapprochement entre biologie des systèmes et épigénétique – et même leur combinaison – ne pouvait que contribuer à l’essor de cette dernière, comme l’illustre le projet Epigenesys, dont l’acronyme signifie, de façon éclairante, « l’Épigénétique vers la biologie des systèmes » (Epigenetics towards systems biology).
Financé par l’Union européenne, ce projet, d’une durée de quatre ans (2012-2016), s’est fixé trois objectifs.
1. Éclaircir la dynamique des mécanismes de régulation épigénétique : à cette fin, le projet a conçu des modèles – réseaux de la chromatine remodelée à l’aide de protéines marquées par fluorescence et de l’étiquetage différentiel pour isotopes des acides aminés lourds ou légers.
De nouveaux mécanismes ont été découverts à l’aide d’outils inédits permettant de visualiser la dynamique de l’hétérochromatine au cours de la reproduction cellulaire. En outre, de nouveaux logiciels et de nouvelles méthodes de protéomique ont révélé des interactions entre les protéines qui pourraient modifier l’expression.
2. Lier le génotype aux phénotypes : à travers ce second objectif, il s’est agi de prévoir l’épigénome à partir de la séquence d’ADN d’origine. C’est pourquoi, des outils de calcul ont été développés, afin d’étudier les dynamiques de méthylation et de prévoir certains mécanismes régulateurs qui pourraient modifier l’expression des gènes ;
3. Comprendre comment les signaux de l’environnement, les états métaboliques et les programmes de développement forment l’épigénome à travers les voies de signalisation, qui prennent leur source à la surface de la cellule et sont transmis à l’ADN qui est organisé dans la chromatine. Au titre de ce troisième et dernier objectif, les chercheurs ont élaboré des modèles transitoires de signalisation conduisant à des changements transmissibles sur le long terme.
L’un de ces modèles a déjà apporté des éclaircissements sur les modifications épigénétiques associées à l’état de cellule souche pluripotente.
Le but du projet Epigenesys est de créer, à terme, un cadre informatique intégré de l’épigénétique.
L’élaboration d’un tel cadre ne pourra que renforcer la démarche pluridisciplinaire mise en œuvre par le projet Epigenesys.
C’est d’ailleurs la raison pour laquelle ce dernier est considéré par certaines chercheuses comme le modèle devant servir aux futurs projets touchant à l’épigénome (152).
Comme c’est le cas dans d’autres branches des sciences du vivant, les mathématiques et la chimie contribuent à l’essor de l’épigénétique.
• Les mathématiques
Dans son intervention à l’audition publique du 16 juin 2015, M. Emmanuel Barrilot (153) a exposé les raisons pour lesquelles l’apport des mathématiques, à travers la bioinformatique et la biomathématique, était décisif pour le développement de la cartographique épigénétique.
Sur la base de travaux, qu’il a codirigés, concernant les conditions dans lesquelles les souris pouvaient développer des métastases du côlon, il a indiqué que des compétences fortes en bioinformatique et biomathématique sont nécessaires pour analyser les données obtenues grâce aux séquenceurs, en vue d’une modélisation.
Celle-ci, a-t-il déclaré, « demande d’inclure toutes les dimensions moléculaires, en particulier la régulation épigénétique ». Car « avec les méthodologies à haut débit, notamment de séquençage, on sait explorer un grand nombre de niveaux, du génome, du transcriptome, de la cellule et de son organisation, des marques de la chromatine, de la méthylation de l’ADN, de la transformation des chromosomes, des facteurs de transcription, le défi étant bien sûr d’intégrer l’ensemble de ces données dans un modèle cohérent ».
Malheureusement, comme d’autres intervenants, M. Barrilot a déploré que, pour beaucoup, fait défaut l’expertise spécifique pour procéder aux contrôles de qualité et aux analyses de séquences, ce qui pose la question sur laquelle on reviendra, du manque de bioinformaticiens et de l’insuffisance de la formation des biologistes.
En second lieu, l’analyse bioinformatique et biomathématique des données est également nécessaire pour explorer l’hétérogénéité de la tumeur affectant le patient, ce qui est une cause de résistance thérapeutique.
M. Barrilot a précisé que « cela passe, par exemple, par du séquençage single cell, ce qui signifie que l’on est capable, pour un seul et même patient ou échantillon, de générer des profils multiples, qui vont expliquer l’évolution des phénotypes, aussi bien dans l’espace que dans le temps, dans la mesure où l’on effectue aussi des suivis longitudinaux et au niveau des populations ». Les volumes des données correspondants sont extrêmement conséquents, de l’ordre du téraoctet pour un patient ou un échantillon.
• La chimie
La fabrication de médicaments et l’écotoxicologie sont deux domaines dans lesquels les interrelations entre épigénétique et chimie sont étroites.
S’agissant de la contribution de l’épigénétique à la pharmacologie, M. Philippe Bertrand (154) a souligné, lors de l’audition publique de l’OPECST du 16 juin 2015, la diversité des applications de traitements épigénétiques. Ainsi, afin de resensibiliser des cellules cancéreuses résistantes aux chimiothérapies actuelles, des combinaisons de molécules sont-elles développées en inhibant plusieurs mécanismes épigénétiques ou des mécanismes complémentaires, dont l’un est d’ordre épigénétique.
Mais M. Bertrand a fait observer que, si les applications concernent aujourd’hui majoritairement le cancer, les maladies neurodégénératives et le diabète sont également des pathologies pour lesquelles les applications sont également prometteuses. De même encore, d’autres travaux ont-ils pour objet le traitement épigénétique de cellules ou de bactéries pour produire de nouveaux métabolites pouvant servir à la fabrication de nouveaux médicaments.
Au demeurant, les industriels sont parfaitement conscients de l’importance du potentiel offert par les mécanismes épigénétiques, comme le confirme l’observation suivante : « la plasticité des variations épigénétiques ouvre la voie à de multiples recherches pour les chimistes et les biochimistes, depuis la compréhension des mécanismes cellulaires impliqués, jusqu’à leur concrétisation pour des épimédicaments » (155).
En ce qui concernent les implications de l’épigénétique pour l’écotoxicologie, une récente étude (156) considère que cette discipline s’intéresse tout particulièrement aux mécanismes épigénétiques pouvant créer un découplage entre l’exposition et l’effet, car l’exposition aux produits chimiques au cours du développement précoce peut causer des maladies ultérieurement. Il en est ainsi parce que les produits chimiques qui ont un mode d’action épigénétique peuvent laisser une marque durable altérant la fonction cellulaire même lorsque le produit chimique n’agit plus.
À cet égard, les auteurs de cette étude font observer que le concept de signal épigénétique durable est très important en vue du contrôle biologique et de l’appréciation des risques sur le plan écologique.
La recherche de biomarqueurs est une autre approche épigénétique dont les spécialistes en écotoxicologie peuvent tirer profit. En effet, les marques épigénétiques apposées sur des gènes particuliers pourraient servir de biomarqueurs de l’exposition à des facteurs agressifs spécifiques. Davantage de marques générales, telle que la méthylation globale de l’ADN pourraient être des indicateurs généraux des stress accumulés par l’organisme tout au long de la vie.
Comme l’a montré l’audition publique de l’OPECST du 16 juin 2015 sur les enjeux et les perspectives scientifiques et technologiques de l’épigénétique, de nombreux intervenants ont souligné la dimension sociétale de leurs recherches, mettant l’accent sur les problèmes de santé publique qu’elles soulèvent.
Le développement des études dans le domaine de l’épigénétique environnementale ne pouvait manquer de renforcer cet intérêt des chercheurs pour les conséquences sociales de l’épigénétique à travers soit d’études ponctuelles, soit de la création d’institutions de recherche qui y sont dédiées.
Les liens entre statut socio-économiques et profil épigénétique ont ainsi donné lieu à d’importantes études ou projets de recherches. À ce titre, en 2011, des chercheurs se sont proposés d’étudier la relation entre les facteurs socio-économiques et le style de vie, d’une part et, d’autre part, le statut épigénétique, à travers la mesure du contenu de la méthylation globale de l’ADN (157) chez une cohorte de deux cent trente-neuf personnes.
Cette équipe de chercheurs était, en effet, partie du constat que les déterminants psychologiques, sociologiques et biologiques de la santé demeuraient peu compris.
Cette équipe de chercheurs a émis plusieurs observations. Une hypométhylation globale de l’ADN a été observée chez la plupart des personnes appartenant à des catégories socio-économiques défavorisées. Le statut professionnel a révélé une relation similaire, les travailleurs manuels ayant un taux de méthylation de 24 % inférieur à celui des travailleurs non-manuels. En outre, des associations ont été trouvées entre taux de méthylation globale de l’ADN et biomarqueurs des maladies cardiovasculaires et maladies inflammatoires.
Dans le même esprit que cette étude, un projet financé par l’ANR – le projet IBISS (Incorporation biologique et inégalités sociales de santé) – s’est attaché à étudier le gradient social de santé. Comme l’a rappelé le Dr Cyril Delpierre (158) lors de l’audition publique de l’OPECST du 25 novembre 2015 sur les enjeux éthiques et sociétaux de l’épigénétique, ce terme de gradient désigne le fait que la mortalité augmente au fur et à mesure que baisse le niveau d’étude, ce qui est observé notamment chez les hommes et, dans une moindre mesure, chez les femmes.
Le Dr Delpierre a déclaré que cette notion d’incorporation biologique signifie que l’expérience, de manière large, pénètre la peau et altère le développement biologique humain. Ces différents systèmes dans l’environnement se traduisent par différents états biologiques et développementaux, ce qui influe sur la santé, le bien-être, l’apprentissage mais aussi sur les comportements, particulièrement lors de périodes critiques ou sensibles de la vie, notamment précoces.
Parallèlement à ces études, il existe des initiatives de nature institutionnelle consacrées, selon des modalités diverses, à la réflexion sur les conséquences sociétales de l’épigénétique. Parmi elles figurent une initiative franco-américaine et la création du « Laboratoire d’excellence Who am I ? » et un centre de recherche de l’université de l’Orégon aux États-Unis.
L’initiative franco-américaine a débouché en octobre 2014 sur la création d’un laboratoire géré par le CNRS et l’Université de Californie à Los Angeles (UCLA), appelé EPIDADO (Epigenetics Data and Politics). Ce laboratoire, compte trois chercheurs permanents et des chercheurs placés en délégation d’une durée allant de quelques mois à deux ans et travaillant sur la question des interactions entre gènes et environnement et le Big Data.
Le centre est hébergé par l’Institute for Society and Genetics de l’UCLA.
Ainsi que l’a précisé le Pr Éric Vilain, actuel directeur de ce laboratoire, celui-ci est le fruit de son expérience de professeur invité à l’EHESS (École des hautes études en sciences sociales de Paris) au sein de laquelle, il a dispensé un enseignement sur les conséquences sociales de l’épigénétique. C’est de cet enseignement qu’est née l’idée de créer le laboratoire, dont la vocation est précisément centrée sur l’épigénétique et ses implications sociales et politiques, ce qu’illustrent le sujet d’une thèse en cours sur la question épigénétique de la race aux États-Unis et une étude sur les conséquences de l’Holocauste sur les survivants.
Pour ce qui est du « LABEX Who am I ? » dirigé par le Pr Jonathan Weitzmann, au sein de l’université de Paris-Diderot, il a pour ambition d’être un centre interdisciplinaire réunissant biologistes, physiciens et sociologues autour du thème central de l’identité.
Ce LABEX compte vingt-sept équipes et huit unités partenaires ainsi qu’un partenaire industriel, Genomic Vision.
Dans ce cadre, des recherches sont menées sur le rôle du génome et de l’épigénome dans la notion d’identité, la définition et la transmission de cette dernière, ou encore sur les conséquences pathologiques de l’environnement.
Un dernier exemple du rapprochement entre sciences sociales et épigénétique est illustré par le centre interdisciplinaire sur les sciences de l’épigénétique et la société de l’université de l’Orégon. La réflexion de ce centre est bâtie sur trois hypothèses concernant l’épigénétique :
1. Le concept de l’épigénétique constitue un profond changement de paradigme dans la compréhension par la science des interactions entre les gènes et l’environnement ;
2. Les découvertes de l’épigénétique sont susceptibles de comporter des implications pour les populations traditionnellement vulnérables, à mesure que les résultats de la recherche sont appliquées à la santé ;
3. Les découvertes de l’épigénétique auront un puissant impact sur les politiques publiques.
Compte tenu de ces hypothèses, il n’est pas indifférent de souligner – selon ce centre de recherche – la diversité des recherches menées, lesquelles portent notamment sur : l’application de la science de l’épigénétique au diagnostic du cancer, à la thérapie et à l’examen des implications juridiques et politiques des connaissances en matière d’épigénétique, à travers la préparation d’une série de livres blancs destinés à être publiés.
Cet essor de l’épigénétique en direction de très nombreuses disciplines scientifiques s’est accompagné, au plan institutionnel, par son expansion dans les filières d’enseignement et de recherche.
3. L’expansion de l’épigénétique dans les filières d’enseignement et les centres de recherche
Cette expansion s’est déroulée selon un processus, déjà observé dans le domaine émergent de la biologie de synthèse (159) ; il est marqué par une double tendance à l’interdisciplinarité et à la spécialisation sur des segments très délimités.
a. L’épigénétique, facteur d’interdisciplinarité
Cette évolution vers le décloisonnement des disciplines, d’une part au sein des sciences de la vie et, d’autre part, entre ces dernières, les sciences dures et les sciences sociales, est une tendance perceptible – il est vrai selon une ampleur toutefois variable – que ce soit en France ou dans d’autres pays.
Plusieurs interlocuteurs ont fait part de leurs reproches concernant la rigidité qui caractérise toujours, selon eux, l’organisation de l’Université et de certains organismes de recherche, ce dont les rapporteurs sont eux-mêmes très conscients.
Pour autant, ils ne sauraient passer sous silence les expériences très positives dont ils ont pris connaissance, notamment à l’occasion de leur déplacement à Montpellier, le 17 mai 2016, lesquelles témoignent, à l’évidence, de la capacité à innover de certains universitaires.
En effet, ce déplacement a permis de constater que, grâce à une densité exceptionnelle d’organes de recherche, dont le LABEX EPIGENMED, et au pôle d’interactivité EUROBIOMED, l’épigénétique a pu bénéficier de l’établissement de liens étroits avec les autres disciplines ainsi que d’un décloisonnement entre recherche fondamentale et recherche appliquée.
Cette situation est le fruit de la volonté affichée par les interlocuteurs des rapporteurs de poursuivre un objectif d’excellence internationale. C’est ainsi que M. Giacomo Cavalli, ancien directeur de l’Institut de génétique humaine (IGH) et initiateur du laboratoire EPIGENMED, a déclaré que ses étudiants et ses chercheurs provenaient de plusieurs pays – dont le Japon – précisément en raison de la très grande qualité des travaux qui y sont menés.
Il est vrai que, si EPIGENMED a été retenu dans le cadre des « projets Laboratoire d’Excellence » des investissements d’avenir et, à ce titre, doté de 12 millions d’euros, c’est en raison de son projet pluridisciplinaire allant de la génétique et de l’épigénétique à la médecine moléculaire. Dans cette même perspective, ce LABEX comprend cinq axes de recherches : génome et épigénome, cycles cellulaires et développement, infection et immunité, systèmes intégrés en neurosciences et biophysique et biologie systémique.
Le LABEX regroupe quarante-neuf équipes de recherche.
Quant à l’IGH, ses axes de recherches paraissent plus limités que ceux du LABEX portant sur la dynamique du gène et la génétique du développement. Néanmoins, M. Cavalli a indiqué que l’IGH accueillait des chercheurs provenant d’horizons divers – dont des mathématiciens.
En outre, les recherches de l’IGH sont tournées vers la compréhension, le diagnostic et le traitement des pathologies humaines, avec un intérêt particulier pour le cancer, domaine dans lequel travaille l’équipe dirigée par M. Cavalli.
Ce dernier volet de la recherche conduit d’ailleurs l’IGH à établir des collaborations avec les hôpitaux.
Le master Biologie santé de l’université de Montpellier illustre également le souci réel de promouvoir l’interdiscipluralité de la façon plus large possible, d’une part, et, d’autre part, celui de lier science fondamentale et appliquée.
Créé à la rentrée universitaire 2015-2016, ce master – qui compte vingt étudiants en M1 et M2 – fait partie du pôle Bio santé Rabelais, dont la mission principale est de créer un réseau de collaboration et d’information entre les mondes académique, hospitalier et industriel pour promouvoir l’excellence, l’interactivité, la visibilité régionale, nationale, européenne mais aussi internationale en matière de biologie-santé. Il a également pour mission d’attirer les étudiants du monde entier par une offre de formations de très haut niveau dans le domaine des sciences.
Dans cette perspective, des enseignements dispensés en M1 et en M2 sont de nature très transversale, alliant génétique, plusieurs domaines de la biologie (biologie cellulaire et biologie des systèmes) et d’autres disciplines, telles que la bactériologie et la virologie ou encore la connaissance de l’entreprise et la valorisation des brevets.
En outre, il est intéressant de relever la volonté d’ouverture des responsables de ce master, en direction des étudiants en médecine et en pharmacie à travers un module sur les bases moléculaires et métaboliques des maladies héréditaires.
Les objectifs de ce module sont de donner une formation en génétique humaine permettant à ces étudiants de comprendre les mécanismes génétiques et épigénétiques impliqués dans le fonctionnement normal et pathologique et d’avoir un aperçu des impacts sur la pratique médicale dans les domaines de la thérapie génique, la thérapie cellulaire ou la pharmacogénomique.
Outre ces exemples montpelliérains, il faut citer, au plan national, l’Institut Curie, notamment, pour sa pratique très large de l’interdisciplinarité. Non seulement il regroupe plusieurs équipes de chercheurs en épigénétique de très haut niveau, dont un LABEX (160) mais, par ailleurs en son sein, la collaboration entre l’épigénétique et les autres disciplines – génétique, sciences médicales bioinformatique et mathématiques – y est très poussée.
Enfin, ce centre de recherche dispense aussi des formations variées à un public très large, composé d’étudiants, de postdoctorants et de praticiens d’horizons très divers.
Pour se limiter au célèbre Max Planck Institut, les conditions dans lesquelles l’introduction d’un département d’épigénétique au sein de l’Institut d’immunobiologie illustrent bien l’importance des changements qui peuvent en découler en termes d’organisation de la recherche et de l’enseignement. Non seulement la création d’un département d’épigénétique a entraîné en 2010, une nouvelle dénomination de l’Institut, devenu Max Planck Institute for Immunobiology and Epigenetics mais, au-delà, en développant sa collaboration avec l’université de Fribourg, l’Institut a contribué à donner davantage d’impulsion à l’enseignement et à la recherche en épigénétique. Ainsi, au sein de l’International Max Planck Research School for Molecular and Cellular Biology, gérée par l’Institut et l’université de Fribourg, sont dispensés deux semestres d’enseignements pluridisciplinaires comprenant l’immunobiologie, l’épigénétique, la biochimie, la biologie cellulaire, la génomique fonctionnelle, la bioinformatique et la protéomique.
Ces enseignements font partie d’un programme doctoral.
La vitalité de l’enseignement et de la recherche au Canada dans le domaine de l’épigénétique tient, pour une part importante, aux diverses sources de financement dont cette dernière bénéficie. À ce stade, il convient de relever qu’il existe un organisme de financement dont l’épigénétique est l’un des destinataires, à travers le consortium canadien de recherche en épigénétique, environnement et santé.
Comme dans d’autres pays, l’enseignement et la recherche en épigénétique sont insérés dans des unités touchant aux sciences de la vie (biologie, génétique, biochimie, etc.) ou dans des centres pluridisciplinaires.
Par exemple, au sein du centre Ludmer en neuro-informatique et santé mentale, créé en 2013 au sein de la faculté de médecine de l’université Mc Gill de Montréal, l’épigénétique est l’un des champs de recherche, parmi lesquels figurent – entre autres – les mathématiques ou encore les technologies de transfert de l’informatique.
Bien que ce ne soit pas propre au Canada, il n’est pas sans intérêt de noter qu’a contribué à l’essor de l’épigénétique – notamment de l’épigénétique environnementale – la collaboration très étroite entre MM. Moshe Szyf et Michael Meaney, tous deux professeurs à l’université de Mc Gill mais dans des disciplines différentes.
L’un des traits les plus remarquables du système américain réside dans la diversité des institutions d’enseignement et de recherche en épigénétique.
Ces institutions relèvent en effet de trois catégories : les organes fédéraux, les institutions universitaires traditionnelles et les institutions privées.
1/ Les organes fédéraux :
Parmi eux, le NIEHS (National Institute of Environnemental Health Sciences) et l’Académie des sciences jouent un rôle important dans l’essor des recherches en épigénétique.
Comme on l’a vu, le NIH a coordonné de nombreux programmes de recherche internationaux, parmi lesquels figurent ENCODE et la Roadmap Epigenomics.
Créé il y a une quarantaine d’années, le NIEHS est l’un des instituts du NIH, spécialisé conformément à son intitulé, aux sciences de la santé environnementale.
Outre qu’il finance un programme d’épigénétique environnementale, il dispose d’un laboratoire d’épigénétique et de biologie des cellules souches, dont les activités sont interdisciplinaires, du fait de la diversité des thèmes traités, comme la biologie des systèmes, par exemple.
À la demande du NIEHS, l’Académie des sciences des États-Unis a constitué un comité permanent sur l’usage de la science émergente des sciences de la santé environnementale. À cette fin, l’Académie des sciences doit faciliter la communication au sein du gouvernement, de l’industrie et de la communauté scientifique sur les avancées scientifiques qui peuvent être utilisées dans l’identification, la quantification et le contrôle des impacts environnementaux sur la santé humaine.
C’est à ce titre que, en 2009, l’Académie des Sciences avait organisé un important colloque sur l’usage de la science et des technologies émergentes destiné à explorer les mécanismes épigénétiques sous-tendant le développement des maladies.
Outre le NIH et le NIEHS, l’Environnemental Protection Agency (EPA) intervient également dans le domaine de l’épigénétique, à travers des laboratoires gérés conjointement avec le NIEHS et d’autres institutions. Il en est ainsi du centre hébergé par l’université du Michigan dédié à l’étude des expositions périnatales, de l’obésité infantile et du développement de la sexualité.
Un autre centre également commun à l’EPA et au NIEHS a pour objet la recherche de la santé environnementale infantile et la prévention des maladies.
M. Ronald Hines, Associate Director de l’EPA, a indiqué aux rapporteurs que l’EPA comptait des spécialistes de sciences humaines et sociales.
Enfin, la Food and Drug Administration (FDA) est nécessairement appelée à s’intéresser également à l’épigénétique, compte tenu notamment du fait qu’elle autorise la mise sur le marché des médicaments épigénétiques.
2/ Les institutions universitaires traditionnelles :
Selon un processus observé dans d’autres pays, des laboratoires ou unités déjà existantes ont inclus l’épigénétique dans leurs activités d’enseignement ou de recherche. Par exemple, le département de génétique et l’institut sur les cellules souches de la Harvard Medical School conduisent de la recherche en épigénétique.
Il arrive aussi que, au sein d’une université, une unité spécialement consacrée à l’épigénétique ait été instituée, comme à l’université John Hopkins de Washington qui compte un centre d’épigénétique des maladies courantes.
3/ Les institutions privées :
L’enseignement et la recherche en épigénétique ne sont pas le monopole des institutions universitaires traditionnelles, ainsi que l’illustre le cas du célèbre Cold Spring Harbor Laboratory (CSHL). Créé en 1890 à New-York, le CSHL est une institution privée à but non lucratif comptant plus de six cents chercheurs travaillant dans plus de cinquante laboratoires. Le CSHL effectue des recherches en biologie cellulaire, et génomique, cancer, neurosciences, génétique végétale et biologie quantitative.
Outre ses activités de recherche, ce laboratoire assure aussi des fonctions dans l’enseignement, dans le cadre de la Wastson School of Biological Sciences, qui a été créée en son sein à la fin des années 1990. Cet établissement délivre aussi des doctorats.
Le CSHL a joué un rôle central dans le développement de la génétique et de la biologie moléculaires.
Aujourd’hui, dans le domaine de l’épigénétique, le CSHL s’est rendu célèbre par les colloques qu’il organise en collaboration avec la Chine, notamment le Cold Spring Harbor Asia Conferences.
Comme dans d’autres pays, l’enseignement et la recherche ont été intégrés dans les institutions déjà existantes.
Dans de nombreux cas, il s’agit notamment d’unités de recherches sur le cancer qui ont inclus l’épigénétique dans leurs travaux.
Mais dans d’autres configurations, des unités ou des enseignements sont dédiés à l’épigénétique portant, par exemple, sur l’épidémiologie épigénétique, la recherche bioinformatique en génomique et en épigénétique, ou encore l’épigénétique et la biologie du développement.
L’enseignement et la recherche consacrés à l’épigénétique ont été institués dans les universités (UNIGE, université de Genève et UNIL, Université de Lausanne) et les Écoles polytechniques fédérales de Lausanne (EPFL) et de Zürich (ETH). C’est dans des unités très variées que l’épigénétique est traitée : génétique et développement, maladies infectieuses, virologie et génétique, psychiatrie ou encore, comme c’est le cas à l’ETH de Zürich, dans le cadre du département des sciences et des technologies de la santé, au sein duquel Mme Isabelle Mansuy, rencontrée par les rapporteurs, est professeure de neuro-épigénétique.
b. L’épigénétique : objet de spécialisation académique
Cette spécialisation peut être le fruit de circonstances diverses.
o Cette spécialisation tient d’abord à l’extrême complexité de l’épigénome, dont chaque mécanisme est susceptible de donner lieu à de multiples études. C’est ainsi, par exemple, qu’au sein du département de biologie cellulaire et moléculaire de l’Institut Jacques Monod, deux équipes effectuent des recherches, l’une sur la dynamique épigénétique et la différenciation, et l’autre sur la régulation épigénétique et l’organisation du génome. Ce dernier laboratoire travaille sur un segment très particulier. Mme Sandra Duharcourt, responsable de cette deuxième équipe, a ainsi déclaré, lors de son audition, que très peu d’équipes européennes travaillaient sur le même modèle de paramécie à l’aide duquel son laboratoire étudie les réarrangements programmés du génome et leur régulation épigénétique par des ARN non codants.
o En second lieu, cette spécialisation est aussi liée à la faculté de l’épigénétique – évoquée précédemment – de donner naissance à de nouveaux champs de recherche. Il en est ainsi de l’épidémiologie épigénétique, de la médecine épigénétique ou encore de la chimie médicale.
De même, le développement de l’épigénétique environnementale et de la DOHaD a-t-il été à l’origine de la création de centres ad hoc comme c’est le cas de celui qui existe au sein de l’université de Southampton au Royaume-Uni (161) ou de laboratoires spécialisés dans la nutrigénomique ou la médecine nutritionnelle.
Le foisonnement des activités académiques ainsi provoqué par l’essor de l’épigénétique a eu deux prolongements notables : le rythme très soutenu des colloques et la croissance exponentielle des publications.
4. Le rythme soutenu des colloques
Si le nombre de ces colloques pour l’année 2016 varie selon les organisations, il atteint plusieurs dizaines, ce qui constitue un indicateur supplémentaire de l’essor de l’épigénétique.
Cette évolution reflète, en effet, celle intervenue dans les institutions académiques. Ainsi, ces colloques peuvent-ils être généralistes comme celui qui s’est tenu les 8-10 janvier 2016 à Palo Alto aux États-Unis sur le projet ENCODE.
Ces colloques peuvent également porter sur des points bien précis, tels que celui organisé à Chicago les 8 et 9 septembre 2016 sur les modifications de l’ARN et l’épitranscriptomique.
Il n’est pas non plus indifférent de relever que ces colloques illustrent l’internationalisation croissante de la recherche. Certes, cette évolution n’est pas propre à l’épigénétique. Mais elle mérite toutefois d’être notée car elle confirme la montée en puissance de l’Asie et le rôle important qu’elle entend jouer dans les sciences de la vie. Non seulement les chercheurs asiatiques sont de plus en plus fréquemment associés aux colloques des institutions européennes ou américaines comme le montrent les colloques organisés à Suzhou en Chine par le Cold Spring Harbor Laboratory mais, en outre, les chercheurs asiatiques organisent aussi sous leur égide des colloques, tel que le Annual Asian Epigenomics Meeting, organisé par l’Asian Epigenome Network.
Enfin, il convient de souligner une dernière caractéristique qui, si elle n’est pas propre à l’épigénétique, n’en est pas moins significative des liens qui peuvent s’établir entre le monde académique et l’industrie pharmaceutique.
En effet, de plus en plus, celui-là invite celle-ci à ses congrès et réciproquement. Un exemple frappant parmi tant d’autres est le Translational Epigenetics Congress, qui affirme être le seul lien allant de la paillasse à l’inspection de la fabrication des médicaments destinés aux patients.
5. La croissance exponentielle des publications
S’agissant de cet aspect éditorial, les chiffres peuvent également varier selon les auteurs et les périodes de référence.
Les quatre sources auxquelles les rapporteurs ont eu accès font état de statistiques sensiblement différentes.
Dans un entretien publié en 2009 par le site sciencewatch.com, le Pr Randy Jirtle indique que « le nombre d’articles consacrés à l’épigénétique l’an dernier [c’est-à-dire en 2008] était de 16 000, soit 40 fois plus que lorsque la recherche a débuté dans ce domaine ».
D’après l’étude citée précédemment par les rapporteurs, cent cinquante publications avaient eu l’épigénétique pour thème en 1990 contre treize mille en 2011, les auteurs s’étant fondés sur les publications indexées dans Pubmed (162).
Selon une nouvelle étude de ScienceWatch publiée en janvier 2013, le nombre d’articles sur l’épigénétique – aux termes de l’analyse d’un échantillon de 100 000 articles – est passé de plus de 1 000 en 1992 à 8 500 en 2011.
Enfin, un diagramme de l’EPA qui a été commenté aux rapporteurs lors de leur déplacement à Washington fait état d’une progression de quelques dizaines de publications en 1996 à près de 8 000 en 2015.
Au-delà de ces disparités statistiques, l’ampleur de ce succès éditorial incontestable illustre très clairement la vitalité de la recherche, ce que confirment, entre autres, les nombreuses revues ayant le mot épigénétique ou épigénome dans leur intitulé ainsi que le nombre croissant d’articles ou de numéros spéciaux consacrés à l’épigénétique dans les revues généralistes, telles que Nature, Science, ou Cell et Médecine/Science, etc.
Dans la même perspective, il est à noter que la création d’une nouvelle revue traduit aussi le développement d’un champ de recherche, ce qui est le cas de la DOHaD, la Cambridge University Piers imprimant le Journal of Developmental Origins of Health and Disease.
Plusieurs interlocuteurs des rapporteurs ont fait observer que cet essor de l’épigénétique ne s’est pas limité à la recherche fondamentale. En effet, l’une des caractéristiques essentielles de l’épigénétique est l’étroitesse des liens entre cette même recherche fondamentale et les applications cliniques, contribuant ainsi au foisonnement des thérapies.
B. LE FOISONNEMENT DES THÉRAPIES ÉPIGÉNÉTIQUES
Comme la thérapie génique il y a une trentaine d’années, les thérapies épigénétiques suscitent beaucoup d’espoir en raison des promesses dont elles sont créditées pour le traitement de nombreuses pathologies, même si les rapporteurs et plusieurs chercheurs qu’ils ont rencontrés ont tenu à souligner la nécessité de se départir de tout optimisme excessif.
Quoiqu’il en soit, si l’on peut parler d’un foisonnement des thérapies épigénétiques, c’est parce qu’il y a lieu de constater l’intensité de la recherche translationnelle, laquelle est source de nombreuses innovations thérapeutiques.
1. L’intensité de la recherche translationnelle
Grâce à l’étude approfondie des marques épigénétiques, les chercheurs ont pu mettre au point des méthodes permettant de mieux détecter et de prévenir les pathologies. L’oncologie a joué, en la matière, un rôle moteur du fait d’importants atouts dont elle a bénéficié, servant ainsi de modèle à la recherche sur les autres maladies complexes.
a. L’oncologie : un domaine moteur
Le rôle moteur qu’a joué l’oncologie ne se limite pas à la recherche fondamentale puisque, comme souligné plus haut, le cancer est la première pathologie dans laquelle le jeu des mécanismes épigénétiques a été mis en évidence.
C’est également dans la recherche de biomarqueurs et dans la découverte d’épimédicaments que l’oncologie a ouvert la voie à d’importants progrès et ce, grâce à l’existence d’un environnement institutionnel favorable.
i. L’existence d’un environnement institutionnel favorable
Il est important de rappeler, d’emblée, qu’en France ou aux États-Unis, par exemple, c’est la volonté des pouvoirs publics d’impulser la lutte contre le cancer qui a permis le développement de la recherche en ce domaine.
En France, le Général de Gaulle avait, en 1945, édicté une ordonnance instituant les centres régionaux de lutte contre le cancer, tandis que, en 2002, le président Jacques Chirac avait souhaité en faire le deuxième chantier de son second mandat.
Aux États-Unis, le président Nixon avait, au début des années 1970, lancé la guerre contre le cancer, dont le président Obama a rappelé le caractère prioritaire dans son discours sur l’État de l’Union du 12 janvier 2016.
De fait, dans plusieurs pays, un réseau dense de laboratoires a été mis en place, qui présente deux caractéristiques.
D’une part, ce réseau compte, en règle générale, un ou plusieurs centres, dont l’excellence est reconnue au plan mondial. D’autre part, ces centres d’excellence sont très souvent adossés à des hôpitaux, comme c’est le cas en France de l’Institut Curie ou de Gustave Roussy.
De même, aux États-Unis, l’université John Hopkins à Washington est-elle adossée au centre de cancer Kimmel.
À cet égard, les propos tenus (163)°par Mme Geneviève Almouzni, directrice du centre de recherche de l’Institut Curie et membre de l’Académie des sciences expriment parfaitement l’intensité des liens qui peuvent exister entre les travaux effectués par le centre de recherche et les applications cliniques. En effet, non seulement elle indique que l’une des découvertes de son équipe s’est avérée être d’un intérêt médical pour le diagnostic du cancer mais, en outre, Mme Almouzni souligne bien les potentialités que recèle cette collaboration entre recherche fondamentale et applications cliniques. – « Pour moi, le fait d’être à l’Institut Curie a été déterminant, il s’agit d’un environnement d’une grande richesse scientifique dans de nombreuses disciplines, qui de plus comprend un hôpital. Être proche des médecins représente une opportunité unique pour connaître leurs préoccupations. Disposer d’outils performants, diagnostiquer finement, pour classer de manière fiable le type de tumeurs en intégrant le risque du devenir et pouvoir ensuite mieux orienter la prise de décision en faveur de tel ou tel traitement sont des enjeux majeurs pour adapter les soins à chaque patient. Nos collègues médecins, hélas débordés au quotidien, n’ont guère le temps ni la formation leur permettant d’intégrer les informations du domaine fondamental à la vitesse où elles évoluent. Si nous pouvons apporter notre petite pierre et nos connaissances fondamentales, pourquoi ne pas le faire ? ».
Le contexte national a été renforcé par la mise en place de l’International Cancer Genome Consortium. Cette initiative, lancée en 2010 par les États-Unis, réunit quinze États en vue de produire des catalogues détaillés des anomalies génomiques (mutations somatiques, expression anormale des gènes, modifications épigénétiques) affectant les tumeurs, à partir de cinquante types différents de cancers et/ou de sous-types qui sont d’importance clinique et sociétale dans le monde.
Il s’agit, en outre, de permettre à l’ensemble de la communauté scientifique de disposer des données aussi rapidement que possible et, avec le minimum de restrictions, d’accélérer la recherche des causes et celle sur le contrôle du cancer.
À cette fin, le consortium facilite la communication entre ses membres et fournit un forum de coordination entre eux avec pour objectif de maximiser l’efficacité parmi les scientifiques, qui travaillent à la compréhension, au traitement et à la prévention des maladies.
Quatre-vingt-huit projets sont répartis entre les États membres du consortium, la France étant en charge des projets concernant le cancer du sein et le cancer du foie.
A été intégré au Consortium The Cancer Genome Atlas (TCGA) qui avait été institué par le NIH en 2006.
Le TCGA fournit une plateforme aux chercheurs pour chercher, charger et analyser les séries de données produites par le TGCA. Cet atlas contient les informations, la caractérisation génomique des données et une analyse à haut niveau de la séquence des génomes des tumeurs.
Au consortium et à cet atlas s’ajoutent ENCODE et la Roadmap déjà évoqués précédemment, dont le champ d’étude comprend d’autres maladies que le cancer.
Dans cet environnement institutionnel, les chercheurs ont pu utiliser des dispositifs technologiques efficaces, qui leur ont permis, dans les meilleures conditions d’exploiter à des fins cliniques le jeu des marques épigénétiques.
Enfin, ces diverses mesures prises par les autorités publiques et scientifiques ont été relayées par les actions d’associations privées très fortement structurées, comme la Ligue nationale contre le cancer ou l’American Cancer Association.
ii. L’exploitation des marques épigénétiques à des fins cliniques
Les modifications épigénétiques peuvent être utilisées pour stratifier la maladie et prédire le résultat clinique. Dans le domaine de l’oncologie, une récente étude indique que les biomarqueurs du cancer sont indispensables non seulement pour le diagnostic précoce mais aussi pour améliorer les pronostics, la prédiction de la réponse thérapeutique et l’appréciation du risque de réapparition postérieurement à l’intervention chirurgicale (164).
Ces différents domaines ont été marqués par de nombreuses améliorations intervenues au cours des dix dernières années.
C’est ainsi que, outre les mutations génétiques, les modifications épigénétiques ont de plus en plus été caractérisées dans l’ADN circulant de différents types de tumeurs.
De telles modifications peuvent être utilisées pour la détection de tumeurs provenant d’acides nucléiques présents dans l’ADN circulant. À l’heure actuelle, tous les acides nucléiques associés aux tumeurs ont été détectés dans le plasma ou le sérum des patients.
De fait, la détection des marques épigénétiques dans l’ADN circulant (165) a ouvert de nouvelles possibilités dans la détection du cancer et l’appréciation du risque. Plusieurs gènes associés au cancer ont ainsi été identifiés dans l’ADN méthylé du plasma et du sérum, ces gènes étant ceux qui sont le plus fréquemment méthylés dans l’ADN circulant. Ces gènes ont été détectés dans une série de cancers : tête et cou, œsophage, poumon, estomac, vessie, prostate et côlon.
Les modifications épigénétiques peuvent être détectées non seulement dans l’ADN du plasma et du sérum mais aussi dans d’autres fluides corporels, tels que l’urine, les expectorations et le lavement ductal des seins.
Ce recours aux marqueurs de l’ADN présente plusieurs avantages par comparaison avec des protéines. En effet, l’ADN est stable, facile à isoler des différents matériels nécessaires à la réalisation d’une opération.
De surcroît, des technologies très sensibles et particulières permettent maintenant de s’enquérir de l’état de la méthylation de sites spécifiques de l’ADN, à l’aide de petites quantités d’acides nucléiques, ces derniers ne pouvant être obtenus qu’à partir d’une collection importante de spécimens cliniques. Ces technologies incluent la méthylation par PCR (Polymerase Chain Reaction), la chromatographie en phase liquide à haute performance (166) et la détection de la méthylation par spectrométrie de masse, le pyroséquençage et la next generation sequencing.
Les techniques telles que la méthylation par PCR et la spectrométrie de masse sont en mesure de détecter la méthylation de l’ADN à partir même de petites quantités de matières telles que l’urine, la salive et d’utiliser l’ADN à partir de tissus congelés.
De fait, les chercheurs ont pu, grâce à ces techniques, évaluer l’utilité du diagnostic et du pronostic de la méthylation d’un grand nombre de gènes dans plusieurs types de tumeurs.
De façon indirecte, les marqueurs de méthylation de l’ADN ont joué un rôle prédictif dans la réponse thérapeutique.
De même encore, la méthylation de l’ADN peut être utilisée comme biomarqueur dans le pronostic d’un cancer du poumon non à petites cellules de stade 1, potentiellement guérissable, et pour lequel plusieurs gènes méthylés permettent l’identification de patients à haut risque, qui requièrent des thérapies adjuvantes spécifiques.
Enfin, les biomarqueurs de la méthylation de l’ADN peuvent prédire des réponses à la chimiothérapie.
Grâce à de nouvelles approches, d’autres biomarqueurs ont pu être identifiés.
Il en est ainsi des CIMP (CpG. island methylator phenotype). Il s’agit d’un profil d’hyperméthylation des îlots CpG apparaissant dans divers cancers. Ces derniers sont situés dans des régions promotrices des gènes, tendant à l’extinction de nombreux gènes associés au cancer affectant divers processus cellulaires vitaux. CIMP est étroitement associé à l’issue clinique, suggérant qu’il peut être un biomarqueur prédictif du cours de la maladie.
Une autre approche est fondée sur l’épidémiologie moléculaire de la pathologie (l’acronyme anglais étant MPE pour « Molecular Pathological Epidemiology »). La MPE est fondée sur le principe de la maladie unique, selon lequel le processus de chaque maladie résulte d’un profil unique d’exposomes, de transcriptomes, de protéomes, de métabolomes, de microbiomes et d’interactomes, qui est en relation avec le macroenvironnement et le microenvironnement (167).
Le paradigme du MPE dans le cancer représente une science interdisciplinaire intégrant la science de la pathologie moléculaire (profils génétiques de la lignée germinale et profils génomiques des cellules somatiques) et l’épidémiologie (données sur les facteurs de risque). Les profils épigénétiques de la tumeur (cellules somatiques) ont été ajoutés récemment au paradigme.
L’épidémiologie épigénétique du cancer inclut ainsi l’étude des variations des traits épigénétiques, le risque et la progression de la maladie, en usant de données populationnelles à grande échelle.
De fait, l’approche holistique de la MPE permet d’établir un lien entre les facteurs étiologiques potentiels et des pathologies moléculaires spécifiques et d’acquérir ainsi de nouveaux aperçus pathogéniques sur la causalité.
Les auteurs de l’étude précitée indiquent que les biomarqueurs détectés à l’aide des outils de la biologie moléculaire permettent une caractérisation moléculaire des signatures du cancer. En outre, ils fournissent une information importante pour le traitement personnalisé. Les biomarqueurs moléculaires fondés sur un profil moléculaire de la tumeur peuvent être utilisés comme des biomarqueurs pour le pronostic ou comme une thérapie moléculaire ciblée – ainsi que pour l’évaluation des effets toxiques des médicaments anticancéreux.
Enfin, il importe d’évoquer les recherches poursuivies actuellement par l’équipe dans laquelle travaille Mme Sophie Rousseaux (168), qu’elle a évoquées lors de l’audition publique de l’OPECST du 16 juin 2015, car non seulement elles apportent un éclairage sur la contribution de l’épigénome au processus du cancer mais, en outre, elles permettent d’identifier de nouveaux biomarqueurs.
Mme Rousseaux s’est référée à un cancer extrêmement agressif, pour lequel il n’existe pas de traitement actuellement, caractérisé par la présence d’une translocation, d’une anomalie génomique aboutissant à la production d’une protéine anormale résultant de la fusion de deux gènes et qui se présente donc en deux parties.
La première partie (BRD4) est, en fait, un facteur épigénétique capable de reconnaître et de se lier à une marque épigénétique particulière, l’acétylation des histones, via des domaines que l’on appelle « bromodomaines ».
La deuxième partie (NUT) est une protéine testiculaire dont la fonction n’est pas connue pour l’instant. Mais les travaux de l’équipe de Mme Rousseaux ont montré que, dans le contexte de ce cancer, la présence de cette seconde moitié de protéine est capable d’activer la mise en place de cette même marque épigénétique, qui est l’acétylation. La présence de cette protéine de fusion est associée, dans les cellules cancéreuses, à un aspect tout à fait caractéristique de ce type de cancer, qui est la présence de foyers dans lesquels cette marque épigénétique est très enrichie et où l’on retrouve cette protéine anormale.
Ces foyers nucléaires restructurent complètement l’épigénome. L’équipe de Mme Rousseaux a montré qu’ils sont à l’origine de l’oncogénicité de cette protéine et a aussi mis en évidence la manière dont ces foyers se forment.
Sur la base de ces travaux, les collaborateurs américains du laboratoire de Mme Rousseaux ont essayé de traiter un adolescent atteint de ce cancer. Ils lui ont donné un inhibiteur des histones désacétylases, malheureusement en monothérapie. Ils ont néanmoins pu constater une régression très spectaculaire de la tumeur. Le traitement a toutefois été mal toléré et la tumeur est finalement réapparue. Pour autant, ce type de molécule suscite un réel espoir.
A été également mis en évidence le fait que les bromodomaines de BRD4 sont nécessaires à l’activité oncogène de la protéine. Il est donc également possible d’inhiber ces bromodomaines avec un nouveau type de molécule inhibiteur de bromodomaines qui, là aussi, est utilisé actuellement dans le cadre d’essais cliniques.
Cet exemple montre que, si l’on comprend bien la logique spécifique d’interaction génome-épigénome dans un cancer, alors on est capable de comprendre l’activité oncogénique et d’utiliser cette connaissance pour développer des approches thérapeutiques.
D’une manière plus générale, l’une des conséquences de cette altération génome-épigénome dans les cancers est la dérégulation de l’expression des gènes.
Effectuant des recherches sur l’expression anormale des gènes qui devraient normalement être silencieux, Mme Rousseaux a fait observer que le produit de ces gènes peut servir de biomarqueur. Comme dans le cas du cancer du poumon, son laboratoire a constaté que certains gènes, normalement spécifiques des cellules germinales mâles, qui vont produire les spermatozoïdes et sont en principe silencieux dans tout autre tissu, se trouvaient exprimés anormalement et que l’expression d’un certain nombre de ces gènes était très fortement liée à l’agressivité des tumeurs. Aussi, l’équipe de Mme Rousseaux a pu développer un outil lui permettant d’identifier les patients à haut risque et d’adapter les traitements.
Cette approche est applicable à tout type de cancer puisque tous les cancers expriment anormalement un certain nombre de gènes. Des collaborations locales ou internationales ont ainsi permis le développement de travaux non seulement dans les cancers du poumon mais aussi dans les lymphomes, les leucémies, les cancers du sein.
b. Le développement des applications cliniques concernant les autres pathologies
Le recours aux omiques ainsi qu’à toute la gamme des techniques évoquées précédemment – microarray, spectométrie de masse, CHIP, etc. – a été à l’origine des progrès importants dans la physiopathologie et l’étiologie de ces maladies.
Les auteurs d’une récente étude ont fait observer que la recherche dans le domaine des biomarqueurs épigénétiques des maladies métaboliques était encore dans l’enfance (169).
Pour autant, des études ont exploré les associations entre l’obésité, les maladies métaboliques et la méthylation de l’ADN dans le génome. Ainsi, la plus grande étude d’association épigénomique (EWAS) ayant inclus un total de 5 465 personnes a identifié trente-sept sites de méthylation dans le sang, qui ont été associés à l’indice de masse corporelle (BMI en anglais – Body Mass Index).
Une autre étude à grande échelle a montré des associations concordantes entre l’indice de masse corporelle et la méthylation dans le sang et le tissu adipeux.
Les associations entre la méthylation de l’ADN et les mesures de l’obésité ont également été identifiées à travers :
- les différences de méthylation entre des personnes minces et obèses ;
- un promoteur de la méthylation du sang d’enfants et l’adiposité qui s’est développée cinq ans plus tard ;
- les associations entre le BMI, les mesures de la graisse corporelle et la méthylation de l’ADN de multiples sites dans le tissu adipeux.
L’EWAS a également montré des associations entre la méthylation de l’ADN et les lipides sanguins, les métabolites bénins, et la résistance à l’insuline et le diabète de type 2.
D’autres marqueurs épigénétiques ont été identifiés. Il en est ainsi de l’hyperméthylation de l’ADN de sites particuliers chez des jeunes ayant développé ultérieurement le diabète, qu’une étude a identifiée à travers le criblage de l’épigénome humain hématique associé au diabète de type 2.
Quant aux microARN (miARN), leur présence dans les biofluides humains (placenta, sérum, urine, larmes, salive, colostrum, liquide amniotique, liquide cérébrospinal et fluide séminal) a conduit à poursuivre l’identification de biomarqueurs fondés sur les miARN pour de multiples maladies – dont les maladies cardiovasculaires.
Au plan clinique, ces biomarqueurs ont le potentiel d’identifier les problèmes métaboliques lors de la phase de latence de la maladie, d’apprécier la sévérité de celle-ci, d’identifier les patients ayant une prédisposition à une maladie métabolique, d’aborder l’étiologie de la maladie, de confirmer un diagnostic ou d’atténuer un diagnostic erroné, sur la base des marques cliniques actuelles et de monitorer la réponse à l’intervention.
Il apparaît que deux voies devront être empruntées dans l’avenir. La première résiderait dans la nécessité de documenter le rôle des miARN du plasma, car leur valeur en tant que biomarqueurs – liée à leur excellente stabilité – est négligée par la littérature actuelle, selon une étude récente (170).
La seconde voie est celle offerte par la preuve forte qu’un risque accru de maladie métabolique tire son origine de la vie précoce, ce que les études de la DOHaD ont montré, comme on l’a vu précédemment. Une telle démarche ouvrirait la possibilité de découvrir des biomarqueurs fondés sur la méthylation de l’ADN, qui permettraient d’apprécier la susceptibilité d’une personne au développement du diabète. À cet égard, on peut estimer que va dans ce sens la cartographie épigénétique du diabète de type 2, effectuée récemment par une équipe de chercheurs belges. Cette cartographie a, en effet, mis en évidence des défauts épigénétiques majeurs dans les cellules bêta des îlots pancréatiques de patients atteints de diabète de type 2, ce qui permettrait d’entrevoir de nouvelles mesures de dépistage de cette pathologie.
Dans le système immunitaire, il y a relativement peu de biomarqueurs spécifiques qui aient été identifiés. Seuls quelques-uns d’entre eux ont été utilisés pour monitorer les maladies (par exemple, le facteur rhumatoïde, les anticorps anti-ADN). Pour autant, le système immunitaire est totalement impliqué dans la pathogenèse des maladies infectieuses, le cancer, le rejet des greffes et l’auto-immunité. C’est pourquoi, le monitorage immunitaire des maladies auto-immunes est d’autant plus nécessaire que les défaillances de la régulation immunitaire sont liées à la pathogenèse des maladies.
De fait, les chercheurs se sont efforcés d’identifier des biomarqueurs à l’aide des techniques innovantes, dont l’encadré ci-après rappelle le développement.
Technologies utilisées dans les maladies auto-immunes
Ces technologies visent à remédier, notamment, aux limites que rencontrent les méthodes fondées sur les études translationnelles tirées des tests animaux, des différences subtiles existant entre ces modèles et la maladie de l’homme. Parmi ces techniques innovantes, figure la cytométrie en flux. À l’aide du faisceau d’un laser, elle permet de réaliser une étude quantitative et dynamique des populations de cellules immunitaires, immunocompétentes et notamment des populations lymphocytaires.
Cette étude constitue une surveillance indispensable à la suite des greffes, d’une infection par le VIH et dans le cas de maladies auto-immunes.
Certains équipements permettent également de réaliser des tris cellulaires à haut débit, reposant sur des analyses cellulaires multiparamétriques pour la purification de sous-populations cellulaires d’intérêt. Ces sous-populations pourront ensuite être utilisées pour différents paramètres (transcription, protéome, transfert in vivo, …).
La technique de cytométrie en flux peut aussi être couplée à la spectrométrie de masse. Celle-ci utilise les principes de la cytométrie en flux. Cependant, à la place d’anticorps couplés à des fluochromes, les anticorps utilisés par cette technique sont couplés à des isotopes de métaux rares. Les cellules marquées avec les anticorps sont introduites dans un spectromètre de masse couplé à un plasma inductif pour une analyse élémentaire.
Cette technique permet de mesurer plusieurs dizaines de paramètres et de disposer ainsi de nombreux éléments qui peuvent être utilisés pour marquer les différents anticorps.
Grâce à sa capacité à mesurer de multiples paramètres, la cytométrie de masse facilite l’exploration des voies complexes qui existent au sein d’une cellule, ou d’une population de cellules, contribuant ainsi à la caractérisation des réponses à une thérapie ainsi qu’à l’élucidation des stades du développement.
Enfin, certaines entreprises ont développé des tests de diagnostics moléculaires multiplexe pour les maladies infectieuses. Par exemple, la société française Theradiag spécialisée dans le diagnostic et la théranostique (171) a mis en distribution, en 2013, deux nouveaux kits de diagnostic moléculaire qui permettent de rechercher les causes multiples de maladies virales respiratoires et de gastroentérites infectieuses.
Le premier kit est un test capable d’identifier simultanément dix-neuf types et sous-types de virus en moins de quatre heures grâce à une réduction du temps de manipulation et un gain de productivité en laboratoire.
Le second kit couvre plus de 90 % d’infections causées par des bactéries, virus et parasites responsables des gastroentérites et, ce, en un seul test.
Une récente étude (172) synthétisant les recherches sur les biomarqueurs du lupus néphrétique (LN) – qui est la plus sévère manifestation du lupus érythémateux (LE) – souligne le rôle de biomarqueurs joué par les différents mécanismes épigénétiques.
Plusieurs recherches ont ainsi indiqué la corrélation entre la méthylation de l’ADN et la pathogénèse du lupus érythémateux.
o Les chercheurs ayant utilisé des agents déméthylants indiquent que l’hypométhylation de l’ADN joue un rôle pathophysiologique dans le lupus érythémateux et le lupus néphrétique. L’état d’hypométhylation et les fragments d’ADN déméthylé dans le sérum des patients atteints de lupus érythémateux peuvent entraîner la production d’anticorps anti-ADN, lesquels sont impliqués dans la pathophysiologie des deux sortes de lupus.
o En ce qui concerne les modifications d’histones, celles-ci se produisent souvent dans le lupus néphrétique au cours de la réaction inflammatoire, tandis que l’acétylation des histones dans certaines régions est associée au développement de la maladie. Dans d’autres régions, l’acétylation des histones semble avoir des effets prédictifs.
Quant à l’hyperacétylation des histones, elle a été associée à la progression du lupus érythémateux.
Enfin, l’acétylation des histones à l’échelle du génome semble améliorer les symptômes chez la souris encline au lupus, alors que l’hyperacétylation des variants génétiques chez l’être humain atteint du lupus érythémateux est associée à la sévérité de la maladie.
o Pour ce qui est des miARN, leur variation pourrait causer la dérégulation d’une grande série de gènes-cibles, qui sont associés aux maladies. C’est pourquoi, les miARN pourraient être de bons biomarqueurs pour les maladies auto-immunes. Ainsi, l’expression variée des miARN dans le rein au cours des processus pathologiques en fait un nouveau précieux outil pour la compréhension, le diagnostic et la découverte des options thérapeutiques applicables aux deux lupus.
Outre les modifications épigénétiques, d’autres biomarqueurs ont été identifiés, tels que les protéines présentes dans le sérum et l’urine des patients atteints de lupus érythémateux. Elles sont considérées comme reflétant le statut pathophysiologique du développement de la maladie et, pour cette raison, elles peuvent être utilisées comme biomarqueurs pour un diagnostic et un pronostic précoces.
iii. Maladies neurodégénératives
De nombreuses modifications épigénétiques ont pu être identifiées comme biomarqueurs, qui ont contribué à une amélioration du diagnostic et du pronostic des pathologies.
Des changements visibles dans la méthylation de l’ADN ont eu lieu en réponse au stress post-traumatique, qui est dépendant ou indépendant de l’existence d’une maltraitance infantile.
Dans le cadre d’une étude, l’ADN a été extrait des cellules sanguines périphériques de patients atteints de stress post-traumatique, ce qui indique que le sang permet de mesurer aisément les événements épigénétiques survenant dans le cerveau et, en dernière analyse, la fonction neurologique.
Cette découverte permet aux médecins de développer un traitement spécialisé pour des personnes qui ont été atteintes d’un stress post-traumatique associé à une maltraitance infantile.
La méthylation de l’ADN est un biomarqueur d’autres troubles neurologiques.
Ainsi fournit-elle d’importantes données sur les tumeurs solides qui métastasent le cerveau.
De même, une étude populationnelle a-t-elle rapporté que les niveaux de méthylation répétés (des marqueurs d’une méthylation globale de l’ADN) dans le sang étaient associés au risque de la maladie d’Alzheimer et à celui de l’accident vasculaire cérébral.
Enfin, une équipe de chercheurs américains a indiqué avoir identifié des modifications épigénétiques sous la forme d’une méthylation de l’ADN dans des gènes spécifiques associés à la maladie de Parkinson, ces modifications ayant pu être analysées aisément à partir des échantillons sanguins de patients.
Les perturbations affectant une modification d’histone et les états de la chromatine sont bien visibles dans les troubles neuropsychiatriques tels que la dépression, la psychose et l’addiction.
Les ARNnc pourraient représenter le biomarqueur secondaire recherché pour la stratification du risque d’accident vasculaire cérébral, un diagnostic rapide, et la prédiction.
S’agissant de ce dernier point, les signatures de microARN spécifiques prédisent plusieurs événements dont :
- le moment de la rechute ;
- la survie des personnes atteintes d’épendymome (173) ;
- le taux de récurrence des méningiomes ;
- la réponse à la chimiothérapie appliquée au neuroblastome.
Des signatures de miARN sont présentes dans le sang de patients atteints de glioblastome ; elles varient selon le traitement et pourraient être utiles pour le monitorage de la rechute.
Dans les scléroses multiples, les profils de miARN dans les lésions de la substance blanche (174) permettent de distinguer les lésions actives des lésions inactives.
Les niveaux de miARN dans le sang sont aussi un facteur de différenciation entre les patients se trouvant dans une phase où la rechute est suivie d’une rémission et ceux chez lesquels la maladie progresse.
De même, l’expression des miARN dans le sang différentie-t-elle les patients atteints de la maladie de Parkinson des contrôles, et les patients traités avec des médicaments de ceux qui ne le sont pas.
Comme on le voit, cette recherche translationnelle très active, en s’efforçant de documenter la valeur diagnostique, pronostique et prédictive des marqueurs épigénétiques est de nature à favoriser la pratique d’une médecine de précision, tout comme les innovations thérapeutiques, dont cette même recherche est aussi la source.
2. La diversité des innovations thérapeutiques
Il existe un réel foisonnement des innovations thérapeutiques en épigénétique.
Il tient au fait que, non seulement les chercheurs se sont préoccupés de prévenir et de guérir mais, en outre, au fait que l’industrie pharmaceutique – surtout en ce qui concerne l’oncologie – a marqué un fort intérêt pour les travaux des chercheurs.
C’est pourquoi, d’un côté, les chercheurs et l’industrie pharmaceutique ont su exploiter, notamment, la réversibilité des marques épigénétiques pour fabriquer des épimédicaments.
De l’autre côté, les chercheurs ont proposé d’utiliser les potentialités thérapeutiques offertes par les moyens naturels.
a. Les médicaments épigénétiques : des outils thérapeutiques à multiples facettes
Ces médicaments revêtent trois caractéristiques :
- ils ont été fabriqués en premier lieu pour lutter contre le cancer, l’oncologie ayant, de ce fait, joué un rôle pionnier ;
- par la suite, les épimédicaments ont été également utilisés dans les autres maladies complexes ;
- le développement de la recherche a pour effet de permettre à certains médicaments d’être utilisés pour de multiples pathologies à la fois.
Il convient d’analyser successivement ces différentes caractéristiques.
i. Le rôle pionnier de l’oncologie
Ce n’est pas un hasard si l’oncologie a joué un rôle pionnier dans le développement des thérapies épigénétiques, puisque comme exposé précédemment, c’est dans ce domaine que la recherche a mis en évidence l’existence de la composante épigénétique dans la cancérogenèse.
Or, l’ingéniosité des chercheurs a consisté à s’appuyer sur deux démarches. La première a visé à utiliser la réversibilité des marques épigénétiques pour élaborer de nouvelles thérapies, qui apparaissent comme des alternatives à la chimiothérapie traditionnelle.
La seconde démarche s’est proposée de diversifier les thérapies anticancéreuses en procédant à des combinaisons de thérapies.
• L’exploitation de la réversibilité des marques épigénétiques
Comme rappelé auparavant, les marques épigénétiques, à la différence des mutations génétiques, sont réversibles. Cette caractéristique permet de concevoir la possibilité d’atténuer, ou même d’effacer, les effets d’une mauvaise programmation épigénétique.
Ainsi que l’a déclaré Mme Paola Arimondo (175), lors de l’audition publique de l’OPECST du 16 juin 2015, l’intérêt de cette réversibilité réside dans le fait que l’on peut, avec de petites molécules chimiques, moduler des modifications épigénétiques, mettre ou supprimer une méthylation, par exemple.
Ces molécules – les épimédicaments – sont capables de reprogrammer les cellules, en particulier dans les cancers. Or, cette reprogrammation s’avère nécessaire car les cellules cancéreuses subissant une dérégulation épigénétique ne lisent pas la bonne information. De fait, l’idée est, grâce à ces molécules, de tenter de reprogrammer les cellules pour faire en sorte qu’elles lisent la bonne information.
À l’heure actuelle, les cliniciens disposent de quelques épimédicaments. Il s’agit principalement d’inhibiteurs de l’ADN ou d’inhibiteurs des HDAC (histones désacétylases).
Les agents déméthylants de l’ADN, comme la Décitabine ou la
5-Azacytidine, sont utilisés dans le traitement du syndrome myélodysplasique ou de la leucémie myéloïde aiguë.
Les inhibiteurs de HDAC, comme le Vorinostat, la Romidepsine sont utilisés pour le traitement des lymphomes.
Ces médicaments – dits de la première génération – soignent les cancers hématopoïétiques – c’est-à-dire les cancers hématologiques – et non les cancers solides (176).
En second lieu, leur utilité s’est avérée limitée du fait de leur toxicité et des effets secondaires qu’ils comportent et que rappelle le tableau suivant, tiré d’une étude de la Food and Drug Administration.
Médicaments anticancéreux approuvés par la Food and Drug Administration | ||||
Drug |
Mechanism of action |
Indication |
Dosage |
Adverse events |
Azacidtidine |
Inhibits DNA methyltransferases |
Various myelodysplastic syndrome subtypes |
75-100 mg/ m²/day for |
Nausea, anemia, thrombocytopenia, vomiting, pyrexia, leukopenia, diarrhea, injection-site erythema, constipation, neutropenia, ecchymosis, petechiae, rigors, weakness, hypokalemia |
Decitabine |
Inhibits DNA methyltransferases |
Various myelodysplastic syndrome subtypes including previously treated and untreated, de novo, and secondary |
15mg/m² by continuous i.v. infusion over |
Neutropenia, thrombocytopenia, anemia, pyrexia |
Vorinostat |
Inhibits histone deacetylases |
Cutaneous manifestations of |
400 mg p.o. once/day with food |
Diarrhea, fatigue, nausea, thrombocytopenia, anorexia, dysgeusia |
Romidepsin |
Inhibits histone deacetylases |
Cutaneous manifestations of |
14 mg/m² i.v. over a 4-hr period on days 1, 8, and 15 of a |
Neutropenia, lymphopenia, thrombocytopenia, infections, nausea, fatigue, vomiting, anorexia, anemia, electrocardiographic T-wave changes |
Source : P. Mummaneni et S.S. Shord, Epigenetics and oncology, Pharmacotherapy, Vol. 34, 2014, 5.
Les recherches actuelles sont parvenues à élaborer des inhibiteurs – dits de seconde génération – plus sélectifs que ceux de la première génération. Ces inhibiteurs sont ainsi en mesure d’identifier d’autres types de cibles impliquées dans la modification ou la reconnaissance des histones modifiées.
Comme l’a exposé M. Hinrich Gronemeyer (177) lors de l’audition publique de l’OPECST du 16 juin 2015, trois classes de modulateurs ont pu être mises en évidence.
Il s’agit tout d’abord des « writers », enzymes qui modifient les histones.
La façon dont ils trouvent leur cible est, à l’heure actuelle, très mal comprise. Mais ils sont probablement transportés et ciblés par d’autres facteurs tels que le facteur de transcription ou même certains ARN.
La deuxième classe de modulateurs est celle des readers, qui sont des groupes de protéines partageant un domaine commun, reconnaissant une modification des histones spécifiques, et qui sont impliqués dans la propagation du signal au niveau de la chromatine. Des composés chimiques ressemblant à ces histones modifiées peuvent bloquer cette interaction, avec les marques de chromatine. Les exemples les mieux étudiés actuellement sont des inhibiteurs de bromodomaines, en cours de développement pour le cancer, ainsi que pour des maladies inflammatoires et neurologiques.
Le troisième type de cible est les erasers, enzymes qui éliminent les marques épigénétiques des histones. L’un des exemples en est la classe des déméthylases des histones, dont certaines peuvent être surexprimées dans le cancer et inhibées par de petites molécules chimiques. Il n’existe pas actuellement d’inhibiteur de ce type en clinique mais la recherche dans ce domaine est très active.
Ces modulateurs d’épigénome sont des familles de protéines et les inhibiteurs peuvent cibler la famille entière ou des sous-groupes de cette famille. M. Gronemeyer a indiqué que cette situation était très souvent considérée par les sociétés pharmaceutiques comme un handicap majeur pour le développement des médicaments. Mais le développement des inhibiteurs de HDAC et le succès récent des inhibiteurs de bromodomaines prouvent que l’inhibition de plusieurs membres d’une famille peut présenter des avantages thérapeutiques.
Pour ce qui concerne la sécurité, les épimédicaments ne sont, en principe, pas génotoxiques et leur action est réversible. Cependant, la toxicité possible, en particulier dans l’utilisation chronique pour d’autres pathologies comme les troubles neurologiques, les maladies inflammatoires ou le vieillissement, est actuellement inconnue.
Il importe d’observer que d’autres marques épigénétiques constituent également des outils thérapeutiques. Il en est aussi des microARN.
En effet, l’activation de certains d’entre eux est fréquente en cas d’inflammation de l’intestin associée au cancer du côlon. De même, leur inhibition réduit-elle la croissance de la tumeur, grâce au contrôle des gènes impliqués dans la prolifération, l’invasion et l’apoptose constatée dans le modèle de la souris atteinte du cancer du côlon.
En outre, l’indication d’une association de plusieurs microARN au cancer de col de l’utérus a révélé leur potentiel diagnostique et thérapeutique. Les approches diagnostiques incluent l’analyse des niveaux de sérum et le criblage de l’hyperméthylation aberrante de microARN. Les approches thérapeutiques ont inclus, d’une part, l’activation du microARN-21, qui joue un rôle décisif dans de nombreuses fonctions biologiques et maladies – telles que le cancer, les maladies cardio-vasculaires et inflammatoires et, d’autre part, la supplémentation du microARN-143, lequel est impliqué dans la différenciation adipocytaire (178).
Il existe donc de nombreuses cibles thérapeutiques pour une voie de signalisation pertinente pour une maladie, ainsi que l’illustre le tableau ci-dessous :
Exemples d’essais de thérapies épigénétiques appliquées à différents cancers | ||||
Drug |
Combination |
Target |
Study phase |
Indication |
Panobinostat (LBH589) |
None |
Pan-HDAC inhibitor |
Phase III |
Hodgkin’s lymphoma and multiple myelom |
Bortezomib, dexamethasone |
Pandeacetylase inhibitor |
Phase III |
Relapsed multiple myeloma | |
None |
Phase II / III |
Cutaneous T cell lymphoma | ||
Entinostat (SNDX-275) |
None |
Class I HDAC inhibitor |
Phase I / II |
Hodgkin’s lymphoma, kidney cancer |
None |
Phase II |
Clear cell renal cell carcinoma, metastatic renal cell cancer | ||
Azacitidine |
Phase II |
Advanced breast cancer | ||
Belinostat (PXD101) |
None |
Pan-HDAC inhibitor |
Phase II |
Relapsed or refractory acute myeloid leukemia orolder patients with newly diagnosed acute myeloid leukemia |
Carboplatin, paclitaxel |
HDAC inhibitor |
Phase I / II |
Non-small cell lung cancer | |
None |
Phase II |
Recurrent or refractory eutaneous and peripheral T cell lymphomas | ||
None |
Phase II |
Ovarian Cancer | ||
Pracinostat (sb939) |
Azacitidine |
HDAC inhibitor |
Phase II |
Myelodysplastic syndrome |
Azacitidine |
Phase II |
Acute myeloid leukemia | ||
None |
Phase II |
Translocation-associated recurrent/metastatic sarcomas | ||
Givinostat |
None |
HDAC inhibitor |
Phase II |
Chronic myeloproliferative neoplasms |
Valproie acid |
None |
HDAC inhibitor |
Phase II |
Breast cancer |
Carboplatin |
Decitabine |
Demethylation |
Phase I / II |
Platinum-resistant ovarian cancer |
Entinostat |
Azacitidine |
HDAC inhibitor |
Phase I / II |
Recurrent advanced non-small cell lung cancer |
Entinostat |
Azacitidine |
HDAC inhibitor |
Phase II |
Metastatic colorectal cancer |
Exemestane with or without |
Entinostat |
HDAC inhibitor |
Phase III |
Recurrent hormone receptor-positive breast cancer that is locally advanced or metastatic |
Vorinostat |
None |
HDAC inhibitor |
Phase II |
Advanced cutaneous T cell lymphoma |
Vorinostat |
Decitabine |
HDAC inhibitor |
Phase I |
Advanced solid tumors or relapsed or refractory non-Hodgkin’s lymphoma |
Azacitidine |
None |
Demethylation |
Phase III |
High-risk myelodysplastic syndromes comparing azacitidine versus conventional care |
Romidepsin |
None |
HDAC inhibitor |
Phase II |
Cutaneous T cell lymphoma and peripheral T cell lymphoma |
Source : Nita Ahuja et al. Epigenetics: a new weapon in the war against cancer, annu. Rev. Med. 2016.
En outre, il est envisageable de combiner différents types de thérapies, cette voie étant considérée comme la plus prometteuse, en particulier pour les tumeurs solides.
• La combinaison de différentes thérapies
Selon une étude récente, la combinaison des thérapies permet d’améliorer la réponse thérapeutique. En effet, 3 % des patients répondent aux épimédicaments utilisés en monothérapie, ce taux s’élevant à 20 % en cas de combinaison avec des chimiothérapies.
Plusieurs types de combinaisons sont envisageables :
1/ Combinaison des inhibiteurs déméthylant l’ADN (DNMTis) et des inhibiteurs des HDAC (HDACis)
De nombreux essais cliniques testent cette combinaison dans la plupart des éléments hématopoïétiques, avec une certaine efficacité, accrue pour les syndromes myélodysplasiques et/ou pour la leucémie aiguë myéloblastique et non dans les autres cas. Comme le notent les auteurs d’une récente étude, les raisons de ces différences ne sont pas encore éclaircies.
Évoquant le résultat d’analyses d’un cancer avancé du poumon non à petites cellules – qui est le plus mortel des cancers dans le monde – ces mêmes auteurs font remarquer que, parmi soixante-cinq patients résistant au traitement, la combinaison des métastases de ce cancer avec des doses de 5-Azacytidine et du HDAC Entinostat a produit des réponses d’une durée supérieure à trois ans.
Le nombre de ces patients représente seulement 3 % du groupe. Mais, estiment ces chercheurs, si la réponse avait pu être prédite, beaucoup de patients atteints de ce cancer avancé auraient bénéficié de ce traitement. C’est pourquoi, ces chercheurs jugent essentiel d’obtenir des biopsies pré et post-thérapie dans les futurs essais cliniques en vue d’établir des biomarqueurs propres à permettre un traitement personnalisé.
2/ Combinaison des DNMTis et des HDACis avec d’autres thérapies
Un thème émergent de la recherche clinique est la combinaison des thérapies épigénétiques avec d’autres traitements anticancéreux.
Un thème sous-jacent est illustré par les données liant la chimiorésistance aux événements épigénétiques dans le cancer des cellules souches. Il apparaît, par exemple, que de faibles doses de DNMTis (inhibiteurs de NDMT) peuvent inhiber les propriétés du cancer des cellules souches, augmenter l’apoptose et bloquer l’entrée dans le cycle cellulaire.
Certains essais cliniques suggèrent l’utilité de cette thérapie. Il a été ainsi rapporté que la combinaison du HDAC Vorinostat avec le Carboplatine (179) et le Paclitaxel (180) améliore les taux de réponse thérapeutique de progression de la survie chez les patients atteints du cancer non à petites cellules métastatiques.
Des réponses durables et la stabilité de la maladie ont eu lieu chez pratiquement la moitié des patients traités dans un essai de phase I/II combinant
5-Azacythioline et Carboplatine pour un cancer avancé de l’ovaire.
Les auteurs de l’étude précitée indiquent que 25 % des patients traités atteints d’un cancer du poumon non à petites cellules métaplasiques sont parvenus à stabiliser la maladie ou à répondre à de nombreux agents chimiothérapiques suivant le traitement combinant 5-Azacythioline et le HDAC Entinostat.
Des essais cliniques sont en cours pour tester la sensibilité de cette méthode dans le cancer du poumon non à petites cellules.
3/ Combinaison de la thérapie épigénétique avec l’immunothérapie
L’exploration de la possibilité pour la thérapie épigénétique de sensibiliser les patients au renversement de la tolérance immunitaire est une méthode qui s’est récemment développée. La tolérance est modulée par l’interaction chronique entre certains ligands des cellules tumorales et les récepteurs des cellules hôtes immunitaires, ce qui rend les cellules T (181) immunologiquement inertes.
L’immunothérapie est pratiquée selon deux stratégies. La première, qui est la plus ancienne, est celle de l’immunothérapie dite non spécifique, qui consiste à suractiver le système immunitaire en vue d’augmenter la probabilité qu’il s’attaque aux cellules cancéreuses.
Dans cette perspective, les médecins se sont orientés vers la stimulation d’une famille de molécules, les cytokines.
Ces molécules, produites par les cellules du système immunitaire, contrôlent l’activité d’autres cellules de l’immunité. Elles jouent un rôle crucial dans la signalisation et la communication entre les différents protagonistes de la réponse immunitaire, leur activation et leur prolifération.
Administrées seules ou associés à d’autres traitements, deux types de cytokines sont capables de stimuler l’immunité contre les cancers : les interférons et les interleukines. Ils peuvent par ailleurs être fabriqués en laboratoire.
L’interféron est prescrit dans le traitement de leucémies, de lymphomes, de certaines formes de cancer de la moelle osseuse ou de mélanomes de la peau. Quant à l’interleukine 2, elle est préconisée dans le traitement de certains cancers du rein et certains mélanomes.
Toutefois, la réponse immunitaire qu’induisent les cytokines reste peu spécifique : elles agissent à l’aveugle, sans cibler uniquement les cellules tumorales, et présente des effets secondaires importants tels des nausées ou la fièvre.
La seconde stratégie a été la mise au point des anticorps monoclonaux, il y a plus de vingt ans. Cette idée de fabriquer des molécules que le système immunitaire produit naturellement a permis à l’industrie pharmaceutique de proposer les anticorps comme des solutions thérapeutiques.
Les anticorps monoclonaux sont des molécules naturellement produites par le système immunitaire en vue de déclencher une attaque ciblée sur un danger déjà rencontré. Rapidement, il est apparu que, bien choisies, ces têtes chercheuses pouvaient non seulement repérer les cellules tumorales mais aussi bloquer leur croissance. C’est le cas de Trastuzumab (Herceptin®), un anticorps qui se fixe sur la protéine HER-2 présente à la surface des cellules tumorales chez environ 15 % des femmes atteintes d’un cancer du sein.
Agissant comme un interrupteur, Trastuzumab bloque l’action de son récepteur membranaire, ce qui inhibe la croissance tumorale. Il a largement amélioré le pronostic vital de ces patientes depuis le début des années 2000.
Une autre idée, qui commence à faire ses preuves, consiste à se servir des anticorps pour véhiculer une molécule thérapeutique par une chimiothérapie ou par un produit radioactif.
L’Institut Curie indique que la présentation des résultats de l’essai EMILIA évaluant l’efficacité de la molécule T-DM1, couplant le Trastuzumab à une chimiothérapie chez les patientes atteintes d’un cancer du sein surexprimant HER-2 a été l’un des éléments majeurs de la cancérologie en 2012. Tout comme l’Herceptin®, T-DM1 se fixe sur HER2 et bloque la prolifération des cellules tumorales mais, de plus, délivre un agent chimiothérapique directement à l’intérieur de ces cellules cancéreuses.
Les pistes autour de cette forme de thérapie ciblée prometteuse se multiplient. Une grande partie du Programme incitatif et coopératif thérapie ciblée de l’Institut Curie lui est consacrée : ces traitements sont fondés sur des « conjugués », composés de trois éléments : un vecteur, sorte de véhicule qui leur permet de trouver leur cellule-cible, une molécule active qui va avoir l’effet thérapeutique et un bras de liaison, pour assembler les deux.
4/ Combinaison des thérapies épigénétiques avec de nouveaux agents
De nombreuses nouvelles petites molécules destinées à la thérapie épigénétique – dont certaines sont déjà utilisées dans des essais cliniques – sont disponibles.
Parmi elles, il y a celles qui ciblent les gènes mutés assurant une régulation épigénétique dans le cancer.
Ces mutations bloquent la production d’alpha-cétoglutarique, un cofacteur-clé pour de multiples protéines régulant l’épigénome, y compris les protéines TET et plusieurs HDM (histones déméthylases).
Il en résulte un accroissement important de la méthylation de l’ADN dans le phénotype appelé CIMP (cpg island methylator phenotype), déjà évoqué précédemment.
Un autre régulateur muté est EZH2, pour lequel des inhibiteurs ont été introduits dans les essais cliniques, principalement pour les tumeurs hématopoïétiques.
Au total, il existe de très nombreuses cibles thérapeutiques – qui peuvent être ciblées seules ou en combinaison – pour une voie de signalisation pertinente d’une maladie.
Pour autant, comme M. Hinrich Gronemeyer l’a fait observer, un épimédicament peut avoir des effets inattendus, notamment indésirables. Du fait des interactions complexes résultant du ciblage comme, par exemple, l’anémie consécutive au ciblage de l’histone déméthylase LSD1 dans un modèle animal.
Il reste, toutefois, que les épimédicaments ont été également appliqués aux autres pathologies complexes.
ii. L’extension de l’utilisation des médicaments épigénétiques aux autres maladies
Les inhibiteurs de HDAC (HDACis) sont apparus comme de nouveaux médicaments pour le traitement du diabète et de l’obésité, en raison du rôle qu’ils jouent dans les fonctions des cellules bêta (182), la résistance à l’insuline et l’adipogenèse.
Parmi les HDACis, l’acide valproïque et le sodium phénylbutyrate sont déjà utilisés dans des essais cliniques concernant le diabète et l’obésité.
Un polyphénol naturel – le curcumin – est un inhibiteur HAT (Histone acétyltransférase), qui est largement utilisé comme épice en Asie depuis plusieurs millénaires.
Une étude clinique de phase IV sur le curcumin concernant une population prédiabétique a abaissé, de façon significative, le nombre d’individus, qui auraient développé autrement un diabète de type 2, ce qui en fait un médicament très prometteur.
Une autre thérapie remarquable est celle que permet la Tranylcypromine. Médicament utilisé pour traiter une grave dépression, la Tranylcypromine est un inhibiteur d’histone déméthylase ciblant une lysine déméthylase particulière (LSD1 et LSD2). L’inhibition de LSD1 a fait apparaître qu’elle augmentait l’énergie métabolique en cas de nourriture très grasse. C’est pourquoi, les chercheurs voient un potentiel dans cet antidépresseur, qui pourrait être utilisé pour traiter le diabète et l’obésité.
Enfin, deux médicaments qui sont des inhibiteurs de l’ADN méthyltransférase – l’Hydralazine et la Procaïnamide – font actuellement l’objet d’essais cliniques en vue du traitement du diabète.
Une récente étude (183) indique que l’effet bénéfique des inhibiteurs d’histones désacétylases (HDAC5) a été démontré dans plusieurs maladies auto-immunes.
Ainsi, lorsque le Trichostatin A, un HDAC connu, est utilisé dans un modèle de souris atteinte d’un lupus spontané, la maladie rénale décroît en modulant les cytokines.
Les HDACs améliorent d’autres modèles animaux : le rat atteint d’arthrite expérimentale au collagène ; le modèle de scléroses multiples, l’encéphalomyélite expérimentale et le modèle du diabète de type 1.
En outre, on soupçonne que les complexes chromatiniens modifiés épigénétiquement représentent un important stimulus immunogénique conduisant à une production d’autoanticorps.
À ce jour, parmi les cinq médicaments approuvés par la Food and Drug Administration, seul un d’entre eux – la Tofacitinib – un inhibiteur de Jak (Janus Kinase) (184) – qui contrôle la phosphorylation de l’histone – s’est avéré efficace dans le traitement de la polyarthrite rhumatoïde.
Plus d’une centaine d’épimédicaments sont à des stades différents de développement.
Mme Karine Merienne (185) a indiqué, lors de l’audition publique de l’OPECST du 16 juin 2015, que la maladie de Huntington avait joué le rôle de précurseur – au sein de la famille des maladies neurodégénératives – en termes d’études des mécanismes physiopathologiques.
En effet, cette pathologie a pu être modélisée assez rapidement, en générant en particulier des modèles de souris, qui se sont révélés très utiles pour la compréhension de ces mécanismes, l’identification de cibles thérapeutiques et la réalisation d’essais précliniques.
C’est ainsi que, dès les années 2000, ces modèles ont montré que l’activité d’histone acétyltransférase de la Creb-binding protein (CBP) – qui est un acteur important dans les processus de survie neuronale – était altérée par les agrégats que forme la protéine mutée. Cette altération a été associée à des baisses d’acétylation des histones au niveau de certains gènes et à des dérégulations transcriptionnelles importantes, que confirment les nombreuses analyses transcriptomiques.
L’idée que des inhibiteurs de HDAC puissent être utilisés pour corriger ces altérations épigénétiques et transcriptionnelles associées à la maladie de Huntington est rapidement apparue. Cela s’est traduit par la réalisation de nombreux essais précliniques, chez la souris en particulier.
Des inhibiteurs de HDAC, qui ciblent plus particulièrement les HDAC de classes 1 et 2, ont été largement utilisés (SAHA (186), sodium butyrate, etc.). Les effets de ces traitements sont relativement bénéfiques sur les modèles murins. Mme Merienne a toutefois précisé que les corrections des phénotypes restaient partielles et relativement modérées, et que ces traitements étaient associés à une certaine toxicité.
Cela dit, un essai clinique américain, fondé sur l’utilisation du phénylbutyrate, a été lancé en 2005. Son analyse est toujours en cours, en raison de l’absence de biomarqueurs fiables permettant d’évaluer le bénéfice du traitement. Ce type de problème est récurrent, non seulement pour la maladie de Huntington mais aussi pour la plupart des essais cliniques réalisés pour les maladies neurodégénératives.
La société américaine Repligen développe malgré tout, de façon très active, de nouvelles molécules sous forme d’une nouvelle génération d’inhibiteurs de HDAC.
Soulignant la nécessité d’éclaircir toutefois le mécanisme d’action et, ce faisant, celle de développer des molécules épigénétiques plus sélectives, Mme Merienne a fait part des travaux menés par son laboratoire. Il a, en effet, pu montrer, en analysant le striatum de souris modélisant la maladie d’Huntington, un défaut d’acétylation de l’histone H3K27 (187), au niveau des régions régulatrices du génome bien précises, les super enhancers, impliquées dans la régulation de l’expression de gènes qui définissent l’identité des cellules.
Les résultats de ces travaux suggèrent que l’acétylation de H3K27 pourrait constituer une cible thérapeutique, d’autant que l’acétylation de H3K27 est une cible de CBP.
Dans ce contexte, la coopération entre le laboratoire de Mme Anne-Laurence Boutillier (188) et un laboratoire indien a permis de développer le
CSP-TTK21, un activateur sélectif de CBP/p300, protéine jouant un rôle important dans la prolifération cellulaire. In vivo, ce composé, après injection intrapéritonéale chez la souris, traverse la barrière hémato-encéphalique, pénètre les cérébraux et entre en particulier dans les neurones, où se produit un mécanisme d’auto-acétylation, une augmentation de l’activité de CBP et du niveau d’acétylation des histones. Ces études montrent que les souris traitées avec le CSP-TTK21 voient leur mémoire à long terme s’améliorer. Les phases actuelles et à venir consisteront à traiter des souris modèles de la maladie de Huntington et de la maladie d’Alzheimer avec ce composé.
Les avancées réalisées dans le domaine de la maladie de Huntington bénéficient aux autres maladies neurodégénératives. De nombreuses études ont ainsi montré que les maladies d’Alzheimer, de Parkinson et la sclérose latérale amyotrophique (SLA) étaient associées à des altérations des niveaux d’acétylation des histones. L’acétylation des histones pourrait donc constituer une cible thérapeutique commune pour ces maladies neurodégénératives. De fait, de nombreux essais précliniques, voire cliniques, fondés sur l’utilisation d’inhibiteurs de HDAC, ont été réalisés.
Il y a lieu de noter que, selon une récente étude, les miARN peuvent aussi être une cible thérapeutique des maladies neurodégénératives.
L’auteur de cette étude fait observer que la forte présence de miARN dans les neurones indique l’importance de leur fonction dans un cerveau sain, telle que la survie et la neuroprotection, ce qui conduit à appliquer des médicaments fondés sur les miARN à des interventions thérapeutiques visant au maintien de la fonction neuronale dans les maladies neurodégénératives.
On voit bien, à travers l’exemple des miARN notamment, que l’une des caractéristiques originales des épimédicaments est de pouvoir contribuer au traitement de plusieurs pathologies à la fois.
• Les recherches sur les épimédicaments multi-pathologies
Ces épimédicaments ont pu être qualifiés de nouvelle frontière de la recherche pharmacologique (189).
En effet, un réseau de laboratoires, réunissant deux cents chercheurs des universités de Toronto et d’Oxford dans le Consortium de génomique structurelle, a mis au point des sondes chimiques susceptibles de modifier le comportement d’une protéine épigénétique.
Pour y parvenir, les chercheurs ont utilisé des techniques de radio cristallographie et de résonnance magnétique nucléaire (RMN), afin de déterminer la structure tridimensionnelle exacte d’une protéine épigénétique. En second lieu, les chercheurs ont repéré des zones cibles où une petite molécule pourrait se lier solidement à la protéine.
En collaboration avec des chimistes du milieu universitaire et de l’industrie pharmaceutique, le laboratoire de l’université de Toronto a alors trouvé une petite molécule – la sonde chimique – qui se liera efficacement et durablement à la protéine pour ralentir ou accélérer son action.
C’est ainsi que dans une étude récente, Mme Cheryl Arrowsmith, du Structural Genomics Consortium, directrice du laboratoire de l’université de Toronto, et ses collègues de l’entreprise pharmaceutique américaine Pfizer, ont décrit le processus très long de leur découverte de la première sonde chimique pouvant inhiber une protéine épigénétique appelée SETD7.
Cette protéine joue un rôle important dans la régulation de la taille et de la croissance des tissus, laquelle devient chaotique dans les tumeurs cancéreuses.
L’équipe de Mme Arrowsmith a, en outre, indiqué qu’une sonde nommée (R)-PFI-2 pouvait se lier à la protéine et inhiber sa fonction. Elle a aussi montré que la sonde pouvait facilement pénétrer dans les cellules, ce qui est une caractéristique essentielle pour tout médicament potentiel.
Or, le fait marquant de ces recherches réside dans les possibilités de créer des médicaments épigénétiques susceptibles d’être utilisés dans le traitement d’autres pathologies, comme les maladies inflammatoires de l’intestin (MII). C’est ce qu’illustre une autre étude ayant montré qu’une sonde chimique conçue dans le laboratoire de Mme Arrowsmith pouvait bloquer l’activité d’une protéine épigénétique et ainsi inhiber la capacité des cellules immunitaires à déclencher l’inflammation.
D’autres exemples d’épimédicaments multipathologies – se trouvant à diverses phases de recherche clinique – peuvent être cités.
Certains concernent différentes combinaisons de thérapies appliquées à la leucémie, à plusieurs cancers – utérus, poumon, métastases cérébrales – et à la maladie de Huntington.
De même, le Vorinostat a été l’objet de nombreux tests cliniques touchant à son application à différents cancers – cerveau, ovaires, poumon, côlon, rein – et à la leucémie, ainsi qu’au lymphome.
De même encore, les sirtuines – qui appartiennent à la classe III des histones désacétylases (HDAC) – sont-elles impliquées dans les maladies métaboliques, les maladies neurodégénératives et le vieillissement – leur capacité à être des activateurs et des inhibiteurs pouvant avoir une valeur thérapeutique.
D’ailleurs, à cet égard, l’activateur sirtuine Resveratrol – qui est un polyphénol extrait du raisin – a démontré ses effets bénéfiques dans le traitement des maladies cardiovasculaires, et dans celui de patients atteints du cancer du côlon, chez lesquels l’utilisation du Resveratrol a contribué à diminuer la progression de la tumeur dans les cellules.
Quant à la famille des ARN, les microARN sont considérés comme étant des cibles thérapeutiques pour traiter, par exemple, le cancer, les maladies neurodégénératives et les infections causées par le virus Ébola (190).
Dans cet éventail d’épimédicaments multipathologies, le butyrate joue un rôle également important, intervenant dans la thérapie de plusieurs pathologies.
Comme indiqué précédemment, le butyrate est une courte chaîne d’acides gras dérivée de la fermentation de fibres alimentaires dans le côlon.
o S’agissant du cancer et de la chimioprévention, des études ont fait état de l’analogie entre les inhibiteurs histones désacétylases (HDACi) et le butyrate. Car les HDACi sont décrits comme ayant des effets anti-angiogéniques (191) et antimétastatiques. Quant au butyrate, on a mis en évidence le fait qu’il réprimait l’angiogenèse in vitro et in vivo et qu’il réduisait l’expression des facteurs de
pro-angiogenèse.
En outre, plusieurs études ont émis l’hypothèse qu’une concentration accrue dans le côlon de butyrate pouvait jouer un rôle modulateur important dans l’effet protecteur de la fermentation des fibres alimentaires dans le traitement du cancer du côlon.
Enfin, le butyrate est reconnu pour son potentiel d’action dans la chimioprévention secondaire – laquelle est applicable aux patients présentant des lésions précancéreuses – en ralentissant la progression et en activant l’apoptose des cellules atteintes du cancer du côlon.
Mais le butyrate peut également agir sur la chimioprévention primaire, dont l’objectif est l’éradication des causes du cancer.
o En second lieu, le butyrate a des effets anti-inflammatoires, principalement à travers des mécanismes pouvant résulter de l’inhibition des HDAC, tels que l’inhibition de la production d’interférons gamma, qui sont capables d’empêcher le développement des tumeurs malignes, et la surexpression du récepteur activé par les proliférations de peroxysomes (PPAR en anglais) (192).
o Pour ce qui est, en troisième lieu, des effets du butyrate sur les maladies métaboliques, une étude préclinique a montré que la supplémentation en butyrate pouvait prévenir et traiter l’obésité et la résistance à l’insuline dans les modèles murins. Le butyrate agit à travers la stimulation du récepteur activé par les proliférateurs de péroxysomes, évoqués précédemment – lesquels résultent notamment de l’inhibition de l’HDAC.
Une recherche récente a indiqué que dans l’hypercholestérolémie, l’effet global du butyrate est de réprimer l’expression de neuf gènes-clés impliqués dans la biosynthèse intestinale du cholestérol. Ce qui suggèrerait que le butyrate peut avoir une application potentielle dans la prévention et le traitement des principales composantes du syndrome métabolique chez les êtres humains.
o En quatrième lieu, les recherches ont montré que les voies épigénétiques agissaient à de nombreux niveaux pour réguler les fonctions immunitaires dans : le développement du système immunitaire, la réponse aux infections, la surveillance immunitaire des tumeurs et l’auto-immunité.
o Les effets du butyrate s’exercent également sur le système immunitaire inné. Ainsi, la protéine antimicrobienne cathélicidine joue un rôle important dans les mécanismes de défense contre l’infection bactérienne. Plusieurs études montrent que le butyrate sodium provoque l’expression du gène de la cathélicidine dans les cellules humaines du côlon, les cellules gastriques et hépatiques. À cet égard, une étude, qui a examiné les mécanismes impliqués dans le butyrate sodium provoquant l’expression du gène de la cathélicidine, a indiqué que le butyrate sodium pouvait provoquer à la fois l’expression du microARN et celle de la protéine cathélicidine.
o En dernier lieu, le butyrate exerce des effets neuroprotecteurs dans plusieurs cas. Une étude préclinique a ainsi montré qu’un traitement postérieur à une attaque à base de butyrate sodium stimulait la prolifération cellulaire, la migration et la différenciation à travers l’activation du facteur neurotrophique issu du cerveau (193).
Ainsi les potentialités que recèlent les épimédicaments illustrent parfaitement la richesse des innovations thérapeutiques dont l’épigénétique est le théâtre.
Les recherches visant à explorer les bénéfices susceptibles d’être tirés de l’utilisation des produits naturels constituent une deuxième source d’innovations non négligeables.
b. L’utilisation des produits naturels : une autre source d’innovations thérapeutiques
Outre le Resveratrol déjà cité, que l’on trouve dans le raisin, d’autres produits naturels sont l’objet de recherches et d’essais cliniques.
o C’est le cas du curcumin – également déjà évoqué–, composé naturel dérivé de l’épice turmeric (Curcuma longa), qui a été utilisé pour le traitement de différentes maladies inflammatoires dans les systèmes médicaux de l’Inde et de la Chine traditionnelles. Deux études, au moins, lui attribuent des potentialités thérapeutiques. La première indique que le curcumin a un impact sur la prévention de l’accident vasculaire cérébral (AVC) et, ce, pour différentes raisons :
- il a un effet neuroprotecteur via, notamment, l’inhibition de la synthèse de l’oxyde nitrique et de la péroxydation lipide ;
- il a des propriétés anti-inflammatoires ;
- il possède une propriété antilipidomique en abaissant le cholestérol.
Pour autant, les auteurs de cette étude font observer que l’on sait très peu de choses sur les effets épigénétiques du curcumin au cours de l’AVC. La littérature a suspecté jusqu’à présent que le curcumin possède des propriétés de modulation épigénétique et que c’est de cette façon qu’il affecte des marques épigénétiques tels que HDAC (histone, désacétylases), HAT (histones acétyltransférase), DNMTS (ADN méthyltransférase) et microARN.
C’est pourquoi il importe d’explorer les propriétés neuroprotectrices du curcumin afin de mieux connaître les potentialités de son utilisation thérapeutique pour traiter l’AVC. Toutefois, demeure posée la question de savoir si le mécanisme protecteur du curcumin est épigénétiquement régulé ou s’il a seulement un impact potentiel.
Une autre étude a eu pour objet d’examiner les conditions dans lesquelles le curcumin module la méthylation de l’ADN dans les cellules atteintes par le cancer du côlon. Les auteurs de cette étude indiquent que la preuve de l’action anticancéreuse du curcumin ou celle selon laquelle il est un agent chimio préventif a été tirée de centaines d’études entreprises dans les systèmes de culture cellulaire, sur des modèles animaux et sur les êtres humains.
Des recherches plus récentes ont commencé à reconnaître les effets du curcumin dans la modulation des processus épigénétiques des cellules cancéreuses, dans lesquels le curcumin est apparu comme un inhibiteur histone acétyltransférase (HAT) aussi bien que comme un potentiel inhibiteur ADN méthyltransférase 1, qui déclenche l’hyperméthylation de plusieurs gènes dans les cellules cancéreuses de l’utérus.
Toutefois, cette étude a visé précisément à évaluer systématiquement le rôle du curcumin comme composé hypométhylant, ce qui, selon les auteurs de cette étude, n’avait pas été fait jusqu’à présent.
Au terme de leur investigation, ces chercheurs estiment avoir apporté une nouvelle preuve que le curcumin peut exercer un effet anticancer, au moins à travers la modulation épigénétique de la méthylation de l’ADN dans les cellules atteintes du cancer du côlon. En outre, ils indiquent avoir montré que le traitement des cellules atteintes du cancer du côlon est associé à la méthylation de l’ADN. Selon une précédente étude déjà citée (194), le curcumin aurait également un potentiel thérapeutique pour le traitement des maladies cardiovasculaires et de la maladie d’Alzheimer.
o Cette même étude fait état de nombreuses autres applications thérapeutiques que permettraient les produits naturels, citant les psammaplins qui sont des bisulfites bromotyrosines dérivés d’une éponge marine ayant révélé de forts effets toxiques dans les lignes cellulaires tumorales chez l’homme mais qui, plus tard, ont arrêté la progression de la tumeur dans un modèle murin.
Selon le même auteur, les polyphénols du thé sont de puissants antioxydants ayant montré leur efficacité dans les traitements anticancéreux.
L’essor de l’épigénétique – dont les différents aspects ont été décrits
ci-dessus – est incontestable, que ce soit dans la recherche fondamentale ou dans ses applications médicales.
Avant de voir pourquoi cet essor s’accompagne toutefois d’importants défis à relever, les rapporteurs souhaiteraient formuler quelques observations sur certaines implications que comporte cet essor pour la France et, au-delà, pour l’Union européenne.
1/ L’une des clés de l’essor de l’épigénétique est, comme on indiqué, sa dimension interdisciplinaire.
Or, il n’apparait pas, malgré de très importantes réussites – entre autres, de l’Institut Curie, de Gustave Roussy et de certaines grandes unités de recherches mixtes – que toutes les conséquences en aient été tirées en France.
Ainsi, que certaines chercheuses et certains chercheurs l’ont indiqué aux rapporteurs pour le déplorer très vivement, le cloisonnement des disciplines reste, le plus souvent encore, la norme au sein des universités et de certaines institutions de recherche.
Il importe d’autant plus d’y remédier d’urgence que – comme l’a rappelé la note d’Aviesan (195), la France possède, dans plusieurs secteurs de l’épigénétique, des équipes de chercheurs et de chercheuses très performantes aux plans européen et mondial.
C’est pourquoi, il apparaît nécessaire aux rapporteurs que la création d’une section de l’épigénétique au sein du Conseil national des universités, qui est l’instance chargée de recruter les enseignants-chercheurs, jouerait un rôle catalyseur important en faveur de davantage d’interdisciplinarité au sein de l’Université.
2/ Une deuxième mesure – complémentaire de la première – consisterait à instituer des enseignements d’épigénétique dès le début des études dans les filières scientifiques, ce qui est encore loin d’être systématique, comme l’ont indiqué certains interlocuteurs, que ce soit en France ou à l’étranger. Ainsi, Mme Isabelle Mansuy, professeure à la faculté de médecine de l’université de Zürich et à l’ETH de Zürich a-t-elle déploré l’absence d’enseignement d’épigénétique dans la faculté de médecine où elle enseigne, alors qu’il lui semble nécessaire que les étudiants abordent le plus tôt possible l’épigénétique pour avoir une approche intégrative de la biologie. A contrario, les rapporteurs se félicitent qu’un cours d’épigénétique soit introduit, dès la licence, à l’université de Montpellier I, comme l’a indiqué Mme Anne-Marie Martinez.
3/ Une troisième mesure, qui participe également de l’objectif visant à maintenir l’excellence de la recherche en épigénétique, réside dans la nécessité de développer l’enseignement et la recherche en chimie médicale, en biologie des systèmes, en toxicologie et en biostatistique.
Lors de l’audition publique de l’OPECST du 16 juin 2015, plusieurs intervenants ont, en effet, souligné la quasi-inexistence de la recherche en chimie médicale en France, alors que cette discipline joue un rôle-clé dans le processus de fabrication des médicaments. C’est ainsi que Mme Nadine Martinet, directrice de recherche à l’Inserm au sein de l’Institut de chimie de Nice,196 a indiqué, lors de la même audition publique, que seuls deux chimistes font, en France, de la chimie médicale académique : M. Philippe Bertrand, maître de conférence hors classe à l’Institut de chimie des milieux et matériaux de Poitiers, et un jeune chimiste à Orléans.
Il en va différemment des pays anglo-saxons où plusieurs universités disposent d’un département de chimie médicale, ou même de l’Allemagne, dont l’université de Fribourg organise périodiquement un symposium international de biologie chimique de l’épigénétique.
Outre la chimie médicale, la biologie des systèmes est une discipline dans laquelle l’enseignement et la recherche doivent être davantage développés, en raison de sa contribution à l’essor même de l’épigénétique. Or, la note d’Aviesan sur la régulation de l’expression des gènes, citée à plusieurs reprises, relève que « la biologie des systèmes peine à émerger en France, malgré plusieurs actions incitatives ciblées ». Tout autre, par exemple, est la situation en Allemagne dont une mission d’experts français qui, s’y étant rendue en 2011, a mis en évidence un paysage de la recherche en biologie des systèmes bien structuré avec une volonté de faire émerger rapidement les premières applications dans le domaine biomédical et en ingénierie biologique (197).
Il importe également, comme l’ont souhaité MM. Jacques Van Helden et Hervé Chneiweiss, lors des auditions publiques de l’OPECST des 16 juin et 25 novembre 2015, que les enseignements en toxicologie et en biostatistique soient développés afin que les biologistes puissent maîtriser les notions de plus en plus complexes qui naîtraient des progrès de l’épigénétique.
Au demeurant, il s’agit là d’impératifs d’autant plus catégoriques que le Gouvernement a été saisi du rapport sur le Plan France Médecine Génomique 2025.
4/ C’est pourquoi il apparaît essentiel aux rapporteurs que la France se dote de moyens en personnels et en équipements dans le domaine de la
bioinformatique, dont la contribution à l’épigénétique, en particulier, et aux sciences de la vie, en général, est capital.
En effet, lors de l’audition de M. Jean Weissenbach, directeur du Génoscope, celui-ci a tenu à insister sur le problème – qu’il a qualifié de dramatique – de l’impossibilité de recruter des chercheurs et des ingénieurs dans le domaine de la bioinformatique, problème auquel la plupart des EPST sont confrontés. Pour y répondre, il lui est apparu nécessaire de stabiliser les personnes, en leur proposant des contrats à durée indéterminée.
À cet égard, s’il y a lieu de noter que la question de la faible attractivité des salaires offerts aux bioinformaticiens du secteur public ne se pose pas seulement en France, M. Weisseinbach a dressé un constat très sévère de la situation actuelle. Il a ainsi déclaré que l’Institut français de bioinformatique n’était composé que de deux chercheurs statutaires, les autres membres étant sous contrat à durée déterminée.
Or, ces derniers ont souvent peu d’expérience professionnelle et démissionnent dès qu’ils l’ont acquise.
Évoquant, en second lieu, la question du séquençage diagnostic, M. Weissenbach y a vu un autre déficit important, ce séquençage s’appliquant aux problématiques du cancer et des maladies rares. Or, les équipes de séquençage diagnostic peinent à rester à la hauteur des travaux étrangers, pour deux raisons. D’une part, aucune structure n’est réellement adéquate pour produire les données, les centres nationaux n’y suffisant pas. D’autre part, réapparaît le problème de l’informatique, du stockage et du calcul, qui nécessite des moyens conséquents.
En effet, le séquençage diagnostic se réalise actuellement à petite échelle, mais pour analyser des millions d’échantillons par an, le coût est trop important : il faut stocker les données, effectuer des calculs de comparaison de séquences à des références. Jusqu’à présent, ce coût est traité à la marge ; certains centres le font encore gratuitement, mais cette situation ne durera pas.
Au CEA, dans le cadre de France-Génomique, des moyens importants ont été consacrés au développement des moyens de calcul en lui donnant ainsi des équipements pour le calcul et les moyens de stockage. Cependant, le fonctionnement de ces moyens a lui-même un coût. En outre, M. Weissenbach a rappelé que le CEA n’était pas équipé de manière suffisante pour analyser le cancer ou les maladies rares. À cette absence de capacité d’analyse s’ajoute la question des dispositifs technologiques. Non seulement l’évolution technologique imposera, à brève échéance, le remplacement de la technologie de référence actuelle, qui est la machine américaine Illumina, le Hiseq 2000 mais, en outre, se posera la question de l’achat des réactifs.
Le présent rapport confronte ainsi les rapporteurs à des problématiques déjà évoquées par eux dans leur étude sur la médecine de précision (198).
À cet égard, les rapporteurs se félicitent que M. Yves Lévy, président d’Aviesan, ait remis au Gouvernement le Plan France Médecine Génomique 2025.
En effet, ce plan va dans le sens de l’une des recommandations du rapport sur la médecine de précision adopté par l’OPECST, en proposant de déployer progressivement douze plateformes de séquençage du génome humain à très haut débit, en vue de permettre à la médecine de précision de se développer sur tout le territoire. Deux centres nationaux d’expertise et d’analyse des données garantiraient la cohérence du dispositif et sa mise à jour régulière.
Les trois premières pathologies auxquelles le Plan suggère d’appliquer ce dispositif sont le cancer, le diabète et les maladies rares, avant de l’étendre à la prise en charge de maladies communes à partir de 2020.
Le plan représente un investissement total de 670 millions d’euros pour les cinq premières années de son développement, avec un apport des entreprises d’environ 230 millions d’euros, dans le cadre de partenariats.
Il est clair que cet objectif du Plan est dicté non seulement par des considérations scientifiques mais aussi par une exigence politique majeure d’indépendance vis-à-vis de Google qui, non seulement intensifie ses partenariats avec plusieurs grandes universités américaines, quand il ne débauche pas leurs meilleurs bioinformaticiens. Mais, en outre – cela sera développé plus loin –, Google, à travers sa filiale DeepMind, analysera les données de plus de 1,6 million de patients britanniques.
Ainsi que les rapporteurs l’ont fait observer à plusieurs de leurs interlocuteurs, celui qui maîtrise les données oriente nécessairement les recherches.
C’est d’ailleurs dans ce souci d’indépendance vis-à-vis de Google que le centre de bioinformatique Swiss Data Center a été créé.
Dans le cadre d’une initiative en faveur de la science des données, l’École polytechnique fédérale de Lausanne (EPFL) et l’École polytechnique fédérale de Zürich (EPFZ) vont ouvrir le Swiss Data Science Center (SDSC). Un nouveau master dans le domaine est aussi au programme.
Avec pour objectif de favoriser l’expansion de la science des données, les EPF lancent le Swiss Date Science Center (SSC). Dirigé conjointement par l’EPFL et l’ETH Zurich, le SDSC est mis sur pied dans le cadre de l’Initiative for Data Science in Switzerland. Le Conseil des EPF explique que cette dernière entend promouvoir la collaboration avec des institutions de premier plan, qui comprendra l’échange de bonnes pratiques dans le développement des programmes d’enseignement ainsi que la réalisation de projets de recherche conjoints.
Répartie sur différents sites, l’équipe du SDSC réunit des chercheurs en science des données, des experts en santé personnalisée et en médecine personnalisée, en sciences de la terre et de l’environnement, en sciences sociales et en humanités digitales, ainsi que des experts en économie. La vision du SDSC consiste à faire avancer les connaissances dans ce vaste domaine, en créant des synergies entre les fournisseurs de données (via des accords d’accès aux données de partenaires commerciaux) et les chercheurs et autres spécialistes, autour d’une plateforme analytique de pointe. Les solutions de logiciels feront partie des services complets en science des données proposées aux personnes actives dans la recherche et le développement, en Suisse comme à l’étranger. Pour ces services en ligne, les EPF se reposeront en particulier sur les ressources du Centre suisse de calcul scientifique (CSCS).
L’Initiative for Data Science in Switzerland se concrétisera également, dès le semestre d’automne 2017, par la mise en place d’un master en science des données. Dans ce cadre, des cursus seront proposés à l’EPFL et à l’EPFZ. Par la suite, des cours pourront être intégrés à un programme de formation continue. Des formations dans le domaine du Data Science existent déjà en Suisse, notamment à l’université des sciences appliquées de Zurich (ZHAW) et à la Haute école spécialisée bernoise.
5/ Dans un article de 2014, dont elle est la première signataire (199), Mme Geneviève Almouzni examine les défis à relever pour mieux comprendre les relations entre le génome et l’épigénome. Elle considère, en effet, que le savoir limité en la matière empêche l’exercice d’une médecine personnalisée.
Parmi ces défis figure la nécessité de parvenir à une coordination dans l’établissement, la gestion et l’analyse des données des institutions de recherche.
Il s’agit, en suivant l’exemple du consortium de l’Human Epigenome Project, de construire un dispositif standardisé qui évite les redondances et permette un libre accès aux chercheurs du monde entier.
Une initiative des autorités françaises, allant dans le sens de ces propositions, auprès de la Commission européenne serait très opportune.
En l’occurrence sont en jeu non seulement une nécessité scientifique mais aussi la défense du prestige de la science européenne.
II. D’IMPORTANTS DÉFIS À RELEVER
Ces défis touchent, d’une part, à des débats récurrents sur des questions majeures et, d’autre part, aux limites rencontrées par l’épigénétique, malgré les perspectives économiques prometteuses du marché la concernant.
A. DES DÉBATS RÉCURRENTS SUR DES QUESTIONS MAJEURES
Ces débats ont trait respectivement au statut scientifique de l’épigénétique, à la connaissance partielle du mode d’action des marques épigénétiques et, enfin, à leur caractère transmissible.
1. Le statut scientifique de l’épigénétique
Comme la biologie de synthèse, l’épigénétique, malgré l’essor qu’elle connaît, n’en soulève pas moins la question de savoir si elle constitue ou non une nouvelle discipline au regard de la génétique.
S’y ajoute l’inflation des définitions, qui conduit à se demander si une définition consensuelle est possible.
Ces deux problématiques ne sont pas neutres, que ce soit au plan scientifique ou an plan juridique, ainsi que cela sera vu plus loin.
a. L’épigénétique est-elle une nouvelle discipline ?
Cette interrogation a dominé les travaux des rapporteurs. Or, à cet égard, ils ont l’impression que les réponses apportées confirment parfaitement, pour l’essentiel, les observations émises dans l’étude de faisabilité.
En effet, trois réponses distinctes ont été apportées à la question posée par Alain Claeys lors de l’audition publique de l’OPECST du 16 juin 2015 de savoir si des clivages existent entre épigénéticiens et généticiens.
i. L’affirmation de la nouveauté disciplinaire de l’épigénétique
Selon la première position, l’épigénétique constitue réellement une nouvelle discipline. Ainsi, lors de l’audition publique du 16 juin 2015, Mme Béatrice de Montera (200) a rappelé que Waddington – qui a inventé le terme d’épigénétique – a lui-même employé l’expression de « science épigénétique ». Pour Mme de Montera, l’épigénétique allie une base de biologie moléculaire, une méthodologie, qu’elle a appelée étude du génome et une théorie qu’elle a qualifiée de développementale, laquelle concerne la genèse et le développement de l’individu, de l’embryon jusqu’à l’adulte même en interaction avec son environnement, au sens large, y compris social.
S’agissant de ce dernier point, Mme de Montera a estimé que, pour ce qui est de l’individuation, l’épigénétique semble justement être la science qui est venue préciser l’interaction entre les gènes et l’environnement, comme le souhaitait Waddington, non seulement au cours de la construction de l’individu lors du développement embryonnaire et fœtal mais, aussi, ce qui est nouveau, pour ce qui est du devenir de l’individu adulte.
Si elle constate que, dans ce processus d’individuation, génétique et épigénétique sont indissociables, la force, selon elle, de l’apport de l’épigénétique réside dans cet aspect multidimensionnel et différentiel de son impact. Elle est déterminante pour l’identité cellulaire et, dans sa dynamique, spécifique d’une espèce. Elle peut avoir un impact majeur sur le devenir individuel, tout en restant réversible, ce qui en fait en quelque sorte la science du processus d’individuation.
Au total, Mme de Montera considère que l’épigénétique est une discipline avec une définition, un objet et des revues d’articles propres, mais qui comporte en son sein plusieurs processus de spécialisation en cours.
À propos de ces considérations, les rapporteurs feront toutefois observer, d’une part, que la définition de l’épigénétique n’est pas stabilisée, comme cela sera précisé plus loin et, d’autre part, que la création de chaires d’épigénétique, que ce soit celle détenue au Collège de France, depuis décembre 2012, par Mme Edith Heard ou à l’université Mc Gill de Montréal, par exemple, non seulement s’inscrit dans l’essor de ce domaine émergent mais confirme la volonté des institutions académiques de lui conférer un statut particulier.
Tout en se gardant d’opposer génétique et épigénétique, le Pr Andràs Paldi (201) a insisté davantage que Mme de Montera, lors de l’audition publique de l’OPECST du 16 juin 2015, sur la nouveauté disciplinaire de l’épigénétique.
Il a, en effet, estimé que l’épigénétique appliquait une logique totalement différente de la génétique pour expliquer l’hérédité et le fonctionnement du vivant.
À cet égard, il ne s’agit pas d’une différence dans les faits observés, sur lesquels tout le monde s’accorde, mais dans l’interprétation qui en est donnée.
En effet, il a considéré que plusieurs raisons avaient rendu nécessaire et possible le retour d’une explication tirée de l’épigenèse, dans la mesure où la génétique n’arrivait plus à expliquer un certain nombre de faits d’observation, éprouvant de grandes difficultés à le faire dans son cadre conceptuel, ce qui ne lui a pas permis d’atteindre certains de ses objectifs fondamentaux.
C’est pourquoi, selon le Pr Paldi, ce n’est pas par hasard si l’essor de l’épigénétique a débuté voici environ dix ou quinze ans, à la fin des grands programmes de séquençage du génome, lorsque l’on a commencé à se rendre compte que l’explication génétique présentait un certain nombre de défauts.
Soulignant ce qui, à ses yeux, est l’aspect le plus important de l’épigénétique, il a indiqué, que ce dernier résidait dans l’effet de l’épigénétique sur la différenciation cellulaire, étant donné que c’est grâce aux mécanismes épigénétiques que cette différenciation se déroule dans une direction donnée et ne peut, à l’exception de conditions très spécifiques, être réversées.
De fait, il a estimé que la différence essentielle entre logiques génétique et épigénétique pouvait être illustrée par une analogie. La régulation génétique des gènes peut, en effet, être comparée à une économie planifiée, dans laquelle un ministère du plan est capable de prédéterminer la manière dont chaque acteur de l’économie doit se comporter dans chaque circonstance. En revanche, la régulation épigénétique fonctionne selon une logique comparable à une économie de marché, dans laquelle la régulation se fait par des moyens indirects (impôts, subventions, taux d’intérêt, etc.), qui canalisent le processus d’une direction. Cette canalisation rend possible des changements relativement rapides si les circonstances évoluent.
Sur la question de la réaction de la génétique moléculaire envers l’apparition de l’épigénétique, il a fait valoir qu’elle était conforme à celle constatée lors de l’émergence de nouveaux paradigmes.
En effet, l’ancien paradigme a tout d’abord, selon lui, copieusement ignoré l’épigénétique, de telle sorte que, dans les années 1980 et au début des années 1990, on ne tenait pas du tout compte de ses observations. Ainsi a-t-il rappelé que, lorsqu’il a commencé à travailler, dans les années 1980, dans le domaine de l’épigénétique, il a été considéré comme une personne qu’il a qualifiée de « périphérique ». Si bien que jamais il n’aurait pu imaginer avoir un jour une discussion analogue à celle qu’il a eue à l’occasion de l’audition publique du 16 juin 2015.
Évoquant les autres phases de réaction de la génétique, le Pr Paldi a relevé que la deuxième phase a consisté à ridiculiser l’épigénétique, au moyen de caricatures, tandis que la phase actuelle est celle de la défense de l’épigénétique caractérisée par une tentative d’incorporation de l’épigénétique dans le schéma conceptuel de la génétique. À cette fin, l’évocation des concepts utilisés par la génétique – code, programme, information et reprogrammation – témoigne de la volonté de les appliquer à l’épigénétique.
En conclusion de ses propos, le Pr Paldi a déclaré que son intention n’était pas d’opposer génétique et épigénétique, opposition qui n’est pas pertinente selon lui. Il a tout simplement considéré que l’épigénétique dépassait la génétique et que l’on était en train d’observer les premiers pas du développement d’un nouveau cadre conceptuel de l’hérédité, qui incorporera la génétique comme un cas particulier.
C’est également l’idée de changement de paradigme et même celle de révolution qui sont invoquées dans la littérature anglo-saxonne, pour illustrer la nouveauté des changements introduits par l’épigénétique. Car, pour les uns, l’importance du rôle joué par les facteurs environnementaux dans la régulation des gènes mise en évidence par l’épigénétique, tant au plan de l’étude des marques épigénétique qu’à celui de certaines pathologies, rend nécessaire un nouveau paradigme dans le domaine de la politique de santé.
De façon plus systématique, Michael Skinner, professeur à la School of molecular biosciences de l’université de l’État de Washington, a indiqué, dans une étude de 2011 (202) : « Le paradigme selon lequel la génétique est le facteur principal pour réguler la biologie du développement est limité et ignore la plasticité en vue de répondre rapidement à l’environnement. Elle n’est pas non plus en mesure d’expliquer le développement anormal et l’étiologie des maladies en l’absence d’altérations génétiques ».
Ces observations du Pr Skinner ont été confirmées aux rapporteurs par un chercheur rencontré à Montréal. À la question de savoir s’il existait des clivages entre épigénéticiens et généticiens dans son domaine de recherche, il a répondu que les uns et les autres coopéraient.
En revanche, dans le secteur de l’obésité, il a relevé que les généticiens avaient du mal à voir que les facteurs épigénétiques entraient en jeu, considérant que l’épigénome est programmé génétiquement.
Pour autant, ce chercheur a tenu à préciser que cette opposition était moins imputable à des approches médicales divergentes qu’à des conflits d’intérêts liés à la compétition entre épigénéticiens et généticiens pour l’attribution de crédits de recherche.
En outre, en réponse à une autre question, il a convenu que l’essor de l’épigénétique avait été une conséquence de la déception suscitée par les résultats du séquençage du génome, ce qui l’expose à l’accusation de susciter l’hypermédiatisation.
ii. L’inscription de l’épigénétique dans la continuité de la génétique
Cette deuxième position est celle qu’a défendue la quasi-totalité des intervenants à l’audition publique de l’OPECST du 16 juin 2015.
Ainsi, Mme Edith Heard, évoquant l’apport de la génétique à l’épigénétique a notamment cité les travaux de Jacob et Monod sur la place centrale de la régulation génique dans la biologie du vivant rappelée précédemment.
En outre, elle a indiqué que, grâce à la génétique et aux outils élaborés depuis plusieurs années, il est désormais possible d’explorer le rôle précis des différents types de marques épigénétiques au cours du développement, en utilisant surtout les organismes – modèles qui donnent des éléments de réponse sur la manière dont le développement se déroule chez l’homme.
Quant à M. Vincent Colot, il a déclaré que l’épigénétique ne s’inscrivait pas en opposition à la génétique mais dans la continuité de celle-ci, qu’elle enrichit indéniablement la compréhension du rôle des gènes dans le développement et qu’elle a révélé la possibilité, manifeste chez les plantes, mais beaucoup plus controversée chez les mammifères, que certains changements chromatiniens sont transmis à travers les générations. Ce dernier point oblige à reconsidérer l’idée que toute variation génétique (c’est-à-dire toute variation héritable) a pour cause un changement (une mutation) de la séquence de l’ADN.
Pour sa part, M. Jacques Van Helden a tenu à récuser l’idée de hiatus entre génétique et épigénétique que, selon lui, le Pr Paldi a défendue.
Ainsi a-t-il indiqué que la première expérience démontrant la transmission transgénérationnelle d’un caractère épigénétique a été menée en 1957 sur la bactérie escherichia coli. Les auteurs de cette expérience ne l’avaient toutefois pas qualifiée d’épigénétique, qualificatif qu’utilisera un autre chercheur en 1958 dans un article dans lequel le terme d’épigénétique – employé dans le titre de cet article – devait servir à distinguer différents types de systèmes de contrôle cellulaire.
Après avoir rappelé, comme Mme Heard, l’importance des travaux de Jacob et Monod, le Pr Van Helden a déclaré que les travaux menés aujourd’hui en génétique visent à répondre à des questions posées par des généticiens, avec des outils découverts par des généticiens, qui ne s’appelaient pas alors « épigénéticiens » dans la mesure où ils ne cherchaient pas à créer de clivages.
Quant au Comité consultatif national d’éthique (CCNE), il a vu dans l’épigénétique un des facteurs qui a modifié la réflexion éthique sur la génomique humaine (203).
Dans un paragraphe intitulé « Les limites de la génomique : l’apport de l’épigénétique », le CCNE souligne : « Dans les maladies humaines, le génome et l’épigénome agissent de concert. Prétendre aborder la maladie en n’utilisant que l’information contenue dans le génome est un peu comme essayer de travailler avec une main attachée dans le dos ».
Tout en faisant état des conditions dans lesquelles l’épigénétique est devenue la « seconde dimension de la séquence génomique », le CCNE indique : « Toutefois, il est hors de portée aujourd’hui d’analyser l’épigénome de façon globale, hors d’indications précises (cancer, certaines pathologies infantiles). Mais il est envisageable à l’avenir qu’une telle analyse contribue à définir – plus précisément qu’avec la seule séquence génétique – une susceptibilité via, par exemple, les indicateurs de risque d’exposition environnementale (nutrition, climat, toxique, etc.), et donc d’identifier avec plus de certitude quels individus sont à risque et pourraient bénéficier d’une prévention ».
iii. Une synthèse nécessaire : à la recherche d’un nouveau paradigme entre génétique et épigénétique
« Définir un statut pour l’épigénétique, un nouveau paradigme reste à faire ».
C’est cet objectif que Mme Geneviève Almouzni a assigné à l’audition publique de l’OPECST du 16 juin 2015, qu’Alain Claeys a toutefois jugé trop ambitieux au regard de l’objet du rapport.
Pour autant, Mme Geneviève Almouzni a estimé que le fait de placer en opposition ou en réaction à ces approches de l’épigénétique ce qui venait de la biologie moléculaire et de la génétique conduit les chercheurs à réfléchir aux éléments susceptibles, en termes propres, de refléter, avec un ancien paradigme, ce qui pourrait en être un nouveau. « Nous sommes actuellement dans cette phase de questionnement, visant à savoir quels objets moléculaires peuvent rendre compte de mécanismes que l’on observe et que l’on qualifie d’épigénétiques ».
Pour sa part, le Pr Jonathan Weitzman a fait part d’une position éclectique, en déclarant qu’il lui semble important de préciser que le clivage est un élément positif dans le domaine académique et que « cette journée d’échange serait très ennuyeuse et n’aurait rien de scientifique si nous partagions tous la même vision de l’épigénétique ; l’important étant de disposer d’un espace pour exposer nos idées, les faire se rencontrer, se confronter ».
C’est pourquoi il convient, à ses yeux, de continuer à lire les écrits de Jacques Monod, à revisiter les théories de Lamarck, Darwin ou Newton, car « l’interprétation que l’on donne doit être basée sur une analyse des mêmes données, libres et partagées par tous, tout en ayant bien conscience du fait que tout ce que nous disons aujourd’hui est faux et que, demain, surgiront d’autres interprétations des mêmes données ».
Enfin, les propos tenus aux rapporteurs par le Pr Andrew P. Feinberg, directeur du Center for Epigenetics de l’université Johns Hopkins de Washington confirment bien la nécessité de combiner approches de la génétique et celles de l’épigénétique.
Ce professeur, qui est généticien, n’éprouve aucune déception ni du fait des résultats limités du séquençage du génome humain ni devant l’essor de l’épigénétique. Ses travaux, axés sur les liens entre la génétique et l’épigénétique, l’ont conduit à constater dans le même temps que la génétique permettrait de parvenir à de bons résultats et que l’épigénétique a rendu possible l’analyse des effets de l’exposition de diverses catégories d’individus à différents agents environnementaux, tels que les métaux lourds ou le tabac. « La force des liens existant entre génétique et épigénétique doit conduire les chercheurs à unir les deux approches, afin de disposer du maximum de ressources et d’avoir les meilleures cibles », nous a-t-il déclaré.
La diversité des points de vue ainsi constatés sur la nouveauté disciplinaire de l’épigénétique existe aussi dans le débat sur sa définition.
b. Les difficultés liées à la quête permanente d’une définition :
Waddington, l’inventeur du terme d’épigénétique, ne put se douter que, plus de soixante-dix ans après l’avoir créé, il ferait encore l’objet de plusieurs définitions et de débats récurrents.
La définition qu’en avait donnée Waddington à l’origine était : « Branche de la biologie qui étudie les interactions causales entre les gènes et leurs produits qui donnent naissance au phénotype ».
Or, c’est l’ajout de la référence à la notion d’héritabilité qui a modifié, de façon substantielle, la définition élaborée par Waddington. En effet, à la différence de Waddington, d’autres chercheurs ont fait de l’héritabilité une composante nécessaire. Il en est ainsi du généticien britannique Robin Holliday qui a défini l’épigénétique comme l’étude des changements d’expression des gènes transmissibles au travers des divisions cellulaires, voire des générations, sans changement de la séquence d’ADN.
Allant au-delà du concept plus strict d’un changement héritable des fonctions des gènes préconisé par Robin Holliday, le généticien britannique Adrian Bird a proposé, en 2007, de définir l’épigénétique comme l’étude « des adaptations structurales des régions chromosomiques, qui permettent d’enregistrer, de marquer ou de perpétuer des états modifiés d’activité des gènes ».
Si, comme l’estiment les auteurs d’une étude récente, il est futile de discuter de la rectitude de l’une quelconque des définitions, il est cependant important de croire que l’absence de définition universelle a conduit à d’importantes ambiguïtés dans l’ensemble des différents champs de la biologie (204). Comme l’ont reconnu plusieurs épigénéticiens, ces mêmes auteurs font observer que c’est une nette dichotomie au sein du champ de l’épigénétique qui existe aujourd’hui car la définition de Waddington décrit l’interaction des éléments génétiques et cytoplasmiques qui produisent les phénotypes émergents. Les biologistes qui sont intéressés par les interactions entre les gènes et l’environnement et la plasticité du phénotype utilisent la définition de Waddington.
Il en résulte que la définition de Waddington est largement utilisée pour décrire l’expression de phénotypes modulée par l’environnement, en particulier dans les champs de l’écologie et de la physiologie.
En revanche, les généticiens concernés notamment par la méthylation de l’ADN, et les états de l’activité chromatinienne, utilisent principalement la définition de Robin Holliday. Ils sont, en effet, intéressés par le point de savoir comment les schémas d’expression persistent à travers le processus de différenciation cellulaire (mitose) et les générations (méiose).
De fait, les phénomènes qui sont décrits par ces deux groupes et, ce qui est plus important, les mécanismes les sous-tendant, sont très différents.
Pour autant, ils utilisent le même terme d’épigénétique.
Les auteurs de l’étude précitée considèrent que cette ambiguïté rend même difficile la simple tâche d’identification des phénomènes épigénétiques et contraint à poursuivre les études sur le déroulement des processus épigénétiques.
Après tout, se demandent ces chercheurs, comment les scientifiques peuvent-ils effectivement étudier un processus, alors qu’ils ne sont même pas en mesure de se mettre d’accord sur sa définition ?
En outre, comme l’a fait remarquer Mme Catherine Dargemont, directrice de recherche au CNRS, l’absence de définition peut également représenter un handicap pour les spécialistes des sciences humaines et sociales
– par exemple les philosophes ou les spécialistes de linguistique –, qui sont appelés à travailler sur la notion d’épigénétique, comme c’est le cas au sein du Centre Who am I ?, dont Mme Dargemont co-coordonne les travaux avec le Pr Jonathan Weitzman.
Pour autant, ces difficultés ne devraient-elles pas être relativisées ?
Tel n’est pas l’avis de Mme Geneviève Almouzni qui, lors de l’audition publique de l’OPECST du 16 juin 2015, avait précisément souhaité que la communauté scientifique s’empare de cette occasion pour définir un statut pour l’épigénétique, car cela serait utile pour les prochaines recherches.
À défaut de quoi a-t-elle déclaré, « le risque est grand de se situer constamment dans le débat ».
De même, les auteurs de l’étude précitée (205), ont-ils considéré que les chercheurs devraient s’atteler à relever deux défis pour surmonter les difficultés liées à l’absence de définition consensuelle. Le premier défi consisterait à réconcilier les définitions de Waddington et de Robin Holliday. La communauté scientifique se doit de répondre à plusieurs questions – celle notamment de savoir s’il y a de la place au sein d’un même champ pour entretenir deux définitions – afin de rationaliser le champ et de faciliter des échanges efficaces entre les chercheurs et de développer des objectifs de recherche plus clairs.
Pour autant, ces auteurs estiment qu’il n’est pas possible de réconcilier, au sein d’un même champ, la focalisation par Waddington sur la régulation des gènes avec les critères plus spécifiques de Robin Holliday et de maintenir le niveau de clarté nécessaire pour produire une définition utile. Car les efforts pour préserver une relation entre les deux définitions ont été entravés par le fait qu’il y a eu précisément beaucoup trop de phénomènes avec beaucoup trop de mécanismes de corrections pour être définis dans un même champ.
Le second défi réside dans l’examen des problèmes méthodologiques qui se sont accumulés au fils du temps au sein du champ de l’épigénétique, en raison de l’absence de définition claire. Car, plutôt que de construire à partir de principes fondamentaux précis, le champ de l’épigénétique continue d’être un fourre-tout qui complexifie des phénomènes génétiques sur la base desquels des catégorisations et des justifications ont été développées a posteriori.
Pour l’ensemble de ces raisons, ces chercheurs ont proposé de définir l’épigénétique comme « l’étude des phénomènes et mécanismes liés aux chromosomes et qui provoquent des changements héritables de l’expression des gènes, qui ne dépendent pas des changements de la séquence d’ADN ».
Les auteurs estiment que cette définition procède à une nette distinction entre la régulation des gènes (définition de Waddington) et l’hérédité génétique (définition de Robin Holliday).
Cette définition met également l’accent sur le fait que les phénomènes épigénétiques doivent traiter exclusivement des changements liés au chromosome.
Face à ces positions alarmistes, d’autres épigénéticiens font observer que ces changements de définition affectent également beaucoup d’autres termes en biologie, comme c’est le cas de la biologie de synthèse (206).
D’autres chercheurs encore estiment que la poursuite du débat peut être féconde. En tout état de cause, on peut constater que ni l’essor de la biologie de synthèse, ni celui de l’épigénétique ne sont entravés par ces débats.
Dans le cas de la biologie de synthèse, aux États-Unis, il est même question d’un regain des investissements qui concernerait, il est vrai, ceux impulsés dans l’ingénierie biologique par le Département de la défense (207).
Dans le second cas, on aura l’occasion de voir plus loin que les perspectives économiques d’évolution du marché des épimédicaments sont prometteuses.
Il reste néanmoins que la littérature et les auditions montrent que les chercheurs sont toujours confrontés à de nombreuses inconnues qu’il leur faut continuer d’explorer.
2. Un savoir fondamental perfectible
C’est, d’une part, la connaissance du mode d’action des mécanismes épigénétiques et, d’autre part, les réponses à apporter à la problématique de l’héritabilité, que la recherche est appelée à traiter.
a. La connaissance partielle du mode d’action des mécanismes épigénétiques
Constatant que les implications de la recherche en épigénétique pour la science et la santé ne sont pas claires, les auteurs d’une étude récente font observer que « les commentaires et les articles scientifiques sont chargés de discussions sur les incertitudes et les inconnues : « pourrait » hésitants et « pourraient probablement » chargés d’espoir gouvernent communément ces discours » (208).
Ces remarques ne tiennent pas compte du fait que, précisément à cause de son essor récent, l’épigénétique est un champ émergent pour une très grande majorité de chercheurs, qui serait encore dans l’enfance (209).
C’est pourquoi à propos du rôle réel joué par les mécanismes épigénétiques et des effets de l’environnement, les chercheurs soulèvent plusieurs interrogations.
i. Les interrogations sur le rôle réel joué par les mécanismes épigénétiques
La question de savoir si les mécanismes épigénétiques jouent un rôle actif ou passif a occupé une place importante dans les travaux des rapporteurs – en particulier ceux de l’audition publique de l’OPECST du 16 juin 2015.
En effet, à des degrés divers, cette question concerne les trois principaux mécanismes épigénétiques : la méthylation de l’ADN, les modifications d’histones et les ARN non codants.
Comme déjà vu en particulier dans le cas du cancer, l’élucidation de cette question est essentielle pour les chercheurs, en raison de ses implications cliniques, notamment pour ce qui est de l’étiologie des pathologies.
S’agissant de la méthylation de l’ADN, les observations de M. Jérôme Torrisani (210) mettent bien en relief les enjeux de cette problématique.
Constatant que, à ses yeux, les orateurs ayant traité du rôle de l’épigénétique dans l’étiologie de diverses pathologies, avaient souligné le rôle causal des modifications épigénétiques, M. Torrisani a relevé que ce rôle était immédiatement perceptible lorsque les enzymes responsables de ces modifications épigénétiques étaient altérées par des mutations génétiques, de nombreuses pathologies découlant de ces anomalies génétiques.
En revanche, M. Torrisani a déclaré que le débat était ouvert pour ce qui est des altérations purement épigénétiques. Car, selon lui, le rôle causal de ces dernières, mis en évidence par certaines études – en particulier la méthylation de l’ADN – et ce, dès les stades précoces d’un cancer n’est finalement que faiblement démontré.
En écho à ces observations de M. Torrisani, le Pr François Fuks (211) a fait observer, lors de l’audition publique du 16 juin 2015, qu’en termes de mécanisme, on ne comprenait pas encore très bien comment les enzymes qui méthylent l’ADN ou vont méthyler certaines régions et pas d’autres de manière altérée dans les cancers.
De même, a-t-il relevé que les connaissances sur les mécanismes d’hypométhylation étaient pratiquement nulles.
Enfin, il s’est enquis de la possibilité de trouver des mécanismes généraux rendant compte des altérations affectant les maladies. Il s’est, en effet, référé à une étude qu’il a lancée, concernant le diabète de type 2, qui semble montrer qu’il n’existe pas le même type d’altérations que dans les cancers. Car il a constaté plutôt une hypométhylation localisée, alors que les tumeurs sont le siège d’une hyperméthylation.
• Les modifications d’histones
En ce qui concerne les modifications d’histones, là encore, les observations respectives de MM. Torrisani et Fuks ont été complémentaires.
En effet, M. Torrisani a remarqué que les orateurs qui avaient traité du rôle des mécanismes épigénétiques dans les pathologies avaient peu abordé celui des modifications d’histones. Parmi les multiples raisons en jeu, il a invoqué la difficulté à obtenir des échantillons biologiques de bonne qualité, nécessaires aux études de modifications d’histones.
La robustesse de l’ADN et des modifications de ses composants permettent à la méthylation de l’ADN d’être relativement plus accessible et plus facile à analyser.
Il en résulte notamment que, selon une récente étude, on ne sait toujours pas comment les modifications d’histones sont établies et maintenues dans différents tissus, malgré la conservation de l’information génétique. Mais les systèmes Polycomb et Trithorax, qui sont considérés comme une forme clinique de protéines épigénétiques transmissibles, fournissent un aperçu de ce mécanisme.
Pour sa part, le Pr Fuks a insisté sur la complexité croissante du code histone en ces termes : « Il y a environ vingt ans, un premier niveau et une première enzyme pour les modifications d’histones acétyltransférases ont été identifiés. Par la suite, d’autres modifications ont été mises en évidence, telles que des méthyltransférases d’histones. On s’est ensuite aperçu qu’il existait une interconnexion, une interdépendance entre ces différentes modifications, une modification A pouvant entraîner une modification B, puis C. On s’est également rendu compte que des combinaisons de modifications pouvaient déterminer l’expression des gènes, une combinatoire étant susceptible de provoquer, par exemple, la répression d’un gène, une autre une activation. On a ensuite découvert l’existence de différents niveaux de méthylation d’histones (mono, di et tri). Ce chemin continue : on trouve encore régulièrement de nouvelles modifications et l’on essaie toujours de décrypter les différentes machineries épigénétiques qui y contribuent. »
Illustrant la sophistication de ces systèmes, il a indiqué que les travaux qu’il mène ont montré que certaines modifications d’histones, telles que les histones désacétylases ou méthyltransférases d’histones, communiquent avec les machineries de méthylation de l’ADN, mais aussi avec l’hydroxyméthylation et les enzymes TET.
Devant ces systèmes complexes, il a estimé qu’il convenait de se poser la question de la prédiction quant aux conséquences fonctionnelles de ces différentes marques épigénétiques et de se demander si l’on peut/doit essayer de prédire si un gène donné va pouvoir être exprimé ou réprimé.
Il a également jugé nécessaire de tenir compte de la notion de dynamique, dans l’espace et dans le temps, de ces marques épigénétiques, ainsi que des différentes réponses aux signaux de l’environnement.
Dans sa note sur la régulation de l’expression génique, Aviesan estime que, s’agissant des ARN et notamment du processus de transcription, deux questions mériteraient d’être examinées. La première porte sur la contribution – en termes d’amplitude et de types de processus – des petits ARN non codants à l’expression du génome. Quant à la seconde question, elle a trait aux modalités de l’intégration des différents niveaux de régulation – de la transcription jusqu’à l’activité protéique – dans le fonctionnement cellulaire, sa compréhension et sa maîtrise.
À ces diverses interrogations sur le rôle réel des mécanismes épigénétiques s’ajoutent celles portant sur les difficultés à apprécier les effets de l’environnement.
ii. Les difficultés à apprécier les effets de l’environnement
Ce thème est important non seulement dans le domaine de la recherche fondamentale, mais aussi dans celui des enjeux scientifiques et sociétaux, comme nous aurons l’occasion de le voir dans la troisième partie de ce rapport.
Lors de l’audition publique de l’OPECST du 16 juin 2015, la Pr Corinne Miceli-Richard (212) a souligné les difficultés à cerner l’impact de l’environnement sur l’épigénétique.
Elle a déclaré qu’il était évident que l’environnement impactait l’épigénome, en se référant à une étude menée sur des jumeaux monozygotes, qui a permis d’observer que les profils de méthylation ou de désacétylation des jumeaux jeunes divergeaient peu et, qu’avec l’âge, ces profils divergeaient.
Néanmoins, elle a souligné la difficulté à appréhender le rôle des agents environnementaux. S’agissant du tabac, elle a rappelé qu’il était un facteur de sévérité pour beaucoup de rhumatismes, altérant la réponse à certains traitements.
Les ultraviolets peuvent avoir un rôle bénéfique sur un psoriasis, mais délétère sur un lupus. L’alcool a parfois un rôle protecteur dans la polyarthrite rhumatoïde. Non seulement ces éléments impactent l’épigénome, mais ils peuvent avoir un effet différentiel.
L’alimentation suscite aussi de nombreux débats. Elle joue probablement un rôle dans le déterminisme de ces maladies, a indiqué la Pr Miceli-Richard, mais il semble néanmoins difficile, ne serait-ce que par l’interrogatoire, d’identifier tous les paramètres d’environnement pour un patient, d’autant que ceux-ci changent au cours du temps. Un patient peut, par ailleurs, être exposé à un événement environnemental, puis cesser de l’être, ce qui a conduit Mme Miceli à déclarer que la voie qu’elle a estimé être la plus « simple » « consisterait probablement à étudier l’épigénome, qui est la résultante de ces différents éléments de l’environnement ».
Malheureusement, comme l’a souligné Mme Claudine Junien, une grande majorité des études ne tient pas suffisamment compte de l’environnement, alors que celui-ci change d’un individu à l’autre, en fonction de son âge ou de son état physiopathologique. Cela permettrait pourtant d’observer des phénomènes totalement différents et d’effectuer des comparaisons intéressantes entre différents types d’environnements.
Évoquant les modèles animaux, elle a constaté que, à la première génération, certains animaux placés dans un même environnement, avec une génétique identique, montrent des réactions totalement différentes. Les uns peuvent ainsi présenter un risque de développer une pathologie (par exemple, sous un régime hyper-gras), alors que d’autres montrent une résilience. Il s’agit là d’éléments très importants à comprendre qui constituent, à ses yeux, un outil majeur dans le domaine de la santé publique.
Ces différentes observations sur les effets de l’environnement sont d’autant plus intéressantes qu’elles font ressortir le lien qui peut exister entre cette problématique et celle de l’héritabilité.
b. La problématique de l’héritabilité
Comme la question des effets de l’environnement, cette problématique revêt une dimension scientifique et sociétale importante.
Cette problématique suscite des controverses d’autant plus soutenues – en France et à l’étranger –, que le caractère transmissible des marques épigénétiques est, comme déjà exposé, un des éléments des définitions de l’épigénétique pour Robin Holliday et Adrian Bird.
Les positions qui ont été défendues, à l’occasion de l’audition publique de l’OPECST du 16 juin 2015 illustrent parfaitement la diversité des approches dont cette problématique est l’objet.
Ainsi, Mme Edith Heard insiste-t-elle sur la nécessité d’être très prudent lorsque sont évoqués les effets transgénérationnels chez les mammifères. Car, tout en appelant à cette prudence lorsqu’on évoque les effets transgénérationnels chez les mammifères, elle dit souscrire totalement au fait que certains changements environnementaux peuvent avoir un impact sur le développement de l’embryon et l’adulte qu’il deviendra. Dans ce cas, il s’agit de la régulation génique qui est perturbée au cours de l’épigénèse. En revanche, elle a souligné qu’il fallait être vigilant lorsqu’on évoque la situation des générations suivantes, car, à sa connaissance, aucun exemple d’effet transgénérationnel induit par un changement de l’environnement n’a pour le moment été mis en évidence, de manière définitive, chez les mammifères ou chez les plantes.
À l’opposé de Mme Heard, le Pr Andràs Paldi, voyant dans l’impossibilité de l’hérédité de l’acquis affirmée par la génétique une des limites de cette dernière, a déclaré que, malgré l’absence de preuves totalement convaincantes, il existait néanmoins aujourd’hui un faisceau d’observations allant dans le sens d’une possible hérédité de l’acquis.
Or, une telle possibilité a été illustrée par plusieurs intervenants. Tout d’abord Mme Minoo Rassoulzadegan (213) a indiqué, à travers les expériences qu’elle mène dans son laboratoire, qu’il lui a été possible de démontrer que l’ARN accumulé dans les gamètes était responsable du transfert de mémoire héréditaire épigénétique, c’est-à-dire d’une hérédité réversible à la différence de l’hérédité génétique mendélienne.
Évoquant les modèles qu’elle a développés pour préciser les caractères influençables pour ce type de modifications, elle s’est référée au cas de la souris altérant la migration des cellules souches responsables de la coloration du pelage. Or, son équipe a constaté que cette souris transmettait le caractère de variation de couleur du pelage à ses descendants porteurs du gène modifié, mais également à des portées dans lesquelles le gène était resté normal. Ce phénomène a été appelé « prémutation » par les chercheurs travaillant sur les plantes.
Mme Rassoulzadegan a également évoqué deux autres modèles apportant des réponses à des questions récurrentes sur l’hérédité des caractères acquis. Il s’agit d’abord d’un modèle élaboré par une équipe suisse, qui a démontré que les souris stressées transmettaient cette variation phénotypique de caractère par l’ARN des descendants.
Le second modèle est un modèle de nutrition développé par le laboratoire de Mme Rassoulzadegan, dans lequel des souris de laboratoire ayant eu un régime alimentaire très riche en graisse et en sucres sont devenues obèses, puis ont développé un diabète. La question posée à son équipe était de savoir si l’ARN présent dans les gamètes de ces souris était capable d’induire également chez les descendants, par micro-injection dans l’œuf de la souris normale ce phénotype de diabète et d’obésité. Or la réponse s’est avérée positive, l’existence d’une population d’ARN inducteurs et d’une population d’ARN qui n’induisent pas ayant été mise en évidence.
D’autres cas d’hérédité épigénétique – donc des caractères acquis – ont été exposés par Mme Sandra Duharcourt et M. Éric Meyer.
Mme Duharcourt a rappelé que le généticien américain Tracy Sonneborn avait montré, en étudiant différents caractères chez la paramécie, que ceux-ci suivaient, non pas les lois de Mendel, mais une hérédité non mendélienne ou épigénétique, résultat auquel ses propres travaux l’auront également menée.
Travaillant sur un organisme unicellulaire, elle a indiqué qu’il présentait la particularité d’avoir deux noyaux différents contenant des génomes différents.
Le génome germinal contient des séquences absentes du génome somatique, bien que tous deux soient du même noyau zygotique par un processus de différenciation qui conduit à l’élimination de séquences d’ADN du génome somatique. Ces événements d’élimination d’ADN sont reproductibles à travers les générations sexuelles.
Mme Duharcourt a montré que ces événements de réarrangement du génome n’étaient pas uniquement déterminés par la séquence nucléotidique, alors qu’ils sont pourtant hautement reproductibles. Il est donc apparu que, de façon expérimentale, on était capable de modifier le contenu du génome somatique en introduisant une séquence qui en est normalement absente et que, à la génération suivante, lorsque se formait le nouveau noyau somatique, la séquence introduite affectait le profil de réarrangement et aboutissait à l’absence de délétion (214) de cette séquence. De fait, deux individus ayant exactement le même génotype ont des génomes somatiques différents puisque, dans un cas la séquence est excisée alors que, dans l’autre, elle ne l’est pas et que ce profil de réarrangement perdure à travers les générations sexuelles. Cela a constitué pour elle la démonstration d’un exemple d’hérédité épigénétique transgénérationnelle.
Pour sa part, M. Éric Meyer (215) qui, comme Mme Duharcourt, travaille sur la paramécie, a déclaré que l’on disposait – chez certaines cibles – de cas très précis d’hérédité et de caractères acquis puisque tous ces mécanismes ont été mis en évidence par des expériences de transformation, au cours desquelles on peut fabriquer artificiellement un gène. Dans celui-ci, on va, par exemple, inverser deux exons, avant de l’introduire dans le noyau somatique d’une cellule à une génération donnée. On constate alors que, à la génération suivante, la progéniture de cet organisme transformé va reproduire spontanément le mauvais schéma de réarrangement introduit dans le macronoyau précédent. Il s’agit là, selon M. Meyer, d’un exemple très clair d’hérédité de caractère acquis, survenu dans le laps de temps de la vie d’un individu et transmis à sa descendance d’une manière non mendélienne.
Outre le cas des ciliés, M. Meyer a cité celui des prions, chez lesquels l’ADN et les histones sont absents et où c’est simplement le repliement des protéines qui, en s’autoperpétuant, constituent un mécanisme d’hérédité.
Enfin, Mme Paola Arimondo a insisté sur l’ignorance des effets à long terme des thérapies anticancéreuses et en a évoqué le caractère potentiellement héritable. Elle a ainsi considéré qu’il ne fallait pas exclure l’idée qu’elles puissent produire des effets à long terme, dont aujourd’hui, nous ne connaissons pas l’impact sur les générations futures.
Dans ce débat, deux orateurs ont tenu à nuancer le déroulement de ce mécanisme ainsi que ses effets.
Tout d’abord, M. Raphaël Margueron (216) a rappelé, d’une part, que toutes les marques de modification de la chromatine n’étaient pas nécessairement épigénétiques car, pour qu’elles le soient, il faut pouvoir les reproduire.
D’autre part, s’interrogeant sur le caractère transmissible, de génération en génération, des informations épigénétiques liées aux modifications de la chromatine, M. Margueron a fait observer que, s’agissant des histones, seulement 1 % d’entre elles perdurerait lors de la spermatogenèse, ce qui, selon lui, réduit très fortement la possibilité pour ces informations liées aux modifications de la chromatine d’être transmises. Il a toutefois tenu à préciser qu’il ne prétendait pas ainsi exclure toute possibilité de transmission, mais seulement constater que le système est conçu pour la limiter.
Quant à M. Jacques Van Helden, il a tenu à mettre en garde contre un danger lié à une surinterprétation des données, telle que celle effectuée par le chercheur américain Michael Skinner, pour qui la génétique n’étant pas parvenue à expliquer une grande partie des caractères héritables, ces derniers sont par conséquent épigénétiques. M. Van Helden fait valoir que la génétique a toujours défini les caractères complexes comme résultat d’interactions entre plusieurs facteurs et a souligné que les méthodes d’association à l’échelle génomique étaient par nature limitées à analyser chacun de ces facteurs indépendamment.
En second lieu, il a reproché à cette surinterprétation de ne pas distinguer la transmission au sens biologique de la transmission culturelle. Ainsi a-t-il fait observer qu’il sera très difficile, à l’avenir, de décider si les caractères tels que l’obésité s’expliquent par des facteurs environnementaux accumulés déterminant les individus à devenir obèses ou par des changements des pratiques alimentaires au fil des évolutions de la société, et de savoir si ce que l’on transmet à ses enfants inclut notamment la manière de s’alimenter.
En dernier lieu, il a évoqué une étude venant de paraître dans Genome biology sur les effets délétères des perturbateurs endocriniens, qui montre que de tels effets sont corrigés dans la lignée germinale des mammifères par reprogrammation. Il a considéré que cette recherche mettait en évidence le fait que soumettre des mammifères à des perturbateurs endocriniens a des conséquences non seulement pour leur santé mais aussi par le biais des marques épigénétiques. Cette étude montre également qu’il est erroné de croire, comme cela a été prétendu jusqu’à présent, que des effets se transmettent à la deuxième et à la troisième génération.
M. Van Helden a tenu à souligner qu’il ne s’agissait pas, pour lui, de minimiser les effets des perturbateurs endocriniens, car le simple fait de savoir qu’ils nous affectent est, en effet, suffisant pour nous en débarrasser. En revanche, cette étude minimise un élément catastrophique dans la psychologie des gens, qui est de croire que, si eux-mêmes subissent des traumatismes, leur descendance en sera affectée.
Ces débats ont trait à la pertinence même de la notion d’héritabilité et à celle des exemples particuliers susceptibles de l’illustrer.
• L’héritabilité, une notion pertinente ?
En mars 2013, la revue Nature a organisé un débat précisément intitulé : « En quoi l’héritabilité épigénétique transgénérationnelle est-elle importante ? ».
Les trois réponses suivantes auxquelles les rapporteurs ont choisi de se limiter confirment bien l’existence d’avis très sensiblement différents.
C’est ainsi que M. Ueli Grossniklaus, professeur à l’Institute of Plant Biology de l’université de Zurich, a déclaré d’emblée : « Je ne vois pas pourquoi attacher de l’importance à cette question (celle posée par Nature), alors que, à mon avis, on ignore l’étendue de ce qui est transgénérationnel dans notre organisme », tout en observant que l’existence d’effets transgénérationnels chez les plantes est souvent ignoré.
Pour sa part, Mme Anne C. Ferguson-Smith, professeure au département de physiologie du développement et des neurosciences de l’université de Cambridge, après avoir relevé qu’il manquait un mécanisme déterminé de l’héritabilité transgénérationnelle épigénétique, a soutenu que « peut-être l’argument le plus fort contre l’héritabilité épigénétique transgénérationnelle procède du défi visant à écarter les effets génétiques, qui sous-tendent les phénotypes dans la descendance », estimant qu’« une modification dans un état épigénétique pourrait être causée par des variations génétiques ».
Quant à Marcus Pembrey, professeur au Chemical and Molecular Genetics Institute of Child Health, University College de Londres, il est l’intervenant qui a défendu avec le plus de vigueur l’idée d’héritabilité. Certes, il a admis que la preuve moléculaire d’une héritabilité épigénétique transgénérationnelle chez l’homme était limitée mais il a toutefois soupçonné qu’il s’agissait là d’un « lieu commun ». Car « l’héritabilité transgénérationnelle épigénétique est (selon lui) le meilleur mécanisme-candidat pour expliquer les effets transgénérationnels de la lignée mâle qui n’ont pas été actuellement démontrés par des cohortes capables de traiter de nombreux autres facteurs sociaux de confusion. Si ces observations sont statistiquement exactes et ne peuvent être expliquées par l’hérédité génétique ou culturelle, alors c’est de l’hérédité épigénétique transgénérationnelle ».
Ces propos du Pr Pembrey nous ramènent ainsi à la question, déjà évoquée précédemment, de l’héritabilité manquante, à laquelle l’épigénétique apporterait une réponse.
Tout aussi contrastés sont les points de vue sur les cas particuliers d’héritabilité.
• Les divergences sur les cas particuliers d’héritabilité
Deux cas ont donné lieu à d’intenses discussions, concernant respectivement les effets transgénérationnels du traumatisme créé par l’Holocauste, d’une part et, d’autre part, ceux de la crainte d’une odeur.
1/ S’agissant du premier cas, il a suscité un très large débat à la suite de la publication d’une étude de cas-témoins. Celle-ci a porté sur une trentaine de personnes juives – hommes et femmes – qui ont été internées dans un camp de concentration, ou qui ont assisté à des scènes de torture ou ont été victimes de celles-ci ou encore qui ont dû se cacher au cours de la Seconde guerre mondiale.
Ces chercheurs ont également analysé les gènes de leurs enfants connus pour avoir subi des troubles accrus de stress et comparé les résultats avec ceux de familles juives qui ont vécu hors d’Europe durant la guerre.
L’étude a indiqué avoir montré que le traumatisme des parents était transmissible aux enfants par le jeu d’effets épigénétiques. La démonstration des chercheurs s’est ainsi fondée sur l’analyse d’un seul gène – le FKBP5 – connu pour être impliqué dans la réponse à des taux élevés de glucocorticoïde – et qui est une cible nouvelle possible pour les traitements antidépresseurs.
Ils ont trouvé des changements dans la méthylation de certains éléments spécifiques du gène FKBP5 chez les survivants de l’Holocauste et leurs enfants, mais aucun changement chez les témoins du même âge.
Des commentateurs se sont déclarés sceptiques quant à la pertinence de ces résultats. Ils ont ainsi fait valoir qu’il était en fait impossible de dire, sur la base de cette étude, si ces changements épigénétiques sont dus aux effets directs du stress et à des taux élevés de glucocorticoïde ou au caractère héritable des marqueurs épigénétiques.
D’autres chercheurs, tout en faisant observer que même si notre connaissance est toujours limitée sur le caractère héritable des traumatismes, de nouvelles recherches indiquent toutefois que les expériences traumatiques des parents peuvent, en réalité, conduire à une prédisposition des enfants au PTSD (217).
D’autres encore soulignent la grande diversité des approches. En effet, un premier chercheur examine les conditions dans lesquelles l’Holocauste peut avoir modifié la façon dont les gènes sont exprimés chez les petits-enfants des survivants. Un deuxième chercheur élabore des questionnaires pour mesurer comment le traumatisme de l’Holocauste a affecté les expériences familiales des descendants des seconde et troisième générations. Un troisième a déjà conclu que l’Holocauste n’avait aucun impact traumatique sur la troisième génération.
Devant une telle diversité de points de vue, Mme Chaya Roth (218), auteure d’études sur la transmission intergénérationnelle des mémoires de l’Holocauste a pu déclarer que « ici, nous ne sommes pas dans le domaine de la science, mais dans celui des hypothèses ».
2/ Quant au second cas, il concerne l’étude de l’hérédité épigénétique à l’aide de souris de laboratoire entraînées à craindre l’odeur de l’acétophénone – un produit chimique dont l’odeur a été comparée à celle des cerises et des amandes. Les chercheurs ont répandu cette odeur dans une petite pièce, tout en faisant subir de petits chocs électriques aux souris mâles. Les souris ont finalement appris à associer l’odeur à la souffrance, tremblant lorsqu’elles respiraient l’odeur de l’acétophénone et, ce, même sans choc.
Les chercheurs ont indiqué que cette réaction a été transmise aux souriceaux. Bien que n’ayant jamais respiré l’odeur d’acétophénone de sa vie, la progéniture exposée s’est montrée de plus en plus sensible lorsqu’elle y a été confrontée, frémissant plus sensiblement, en comparaison de la progéniture de souris qui n’a pas été conditionnée pour être surprise par une odeur différente. Une troisième génération de souris a également hérité de cette réaction, comme des souris conçues in vitro avec le sperme provenant de mâles sensibilisés à l’acétophénone. Des expériences similaires ont montré que la réponse peut également être transmise par la mère.
Ces réponses ont été couplées avec les changements des structures du cerveau que développent les odeurs. Les souris sensibilisées à l’acétophénone, aussi bien que leurs descendants, ont davantage de neurones produisant une protéine réceptrice connue pour détecter l’odeur en comparaison des souris-contrôles et de leur progéniture. Les structures qui reçoivent des signaux des neurones détectant l’acétophénone et envoient des signaux d’odeur aux autres parties du cerveau ont été également plus importantes.
Les chercheurs ont proposé que la méthylation de l’ADN soit à l’origine de l’effet héritable. Chez les souris craintives, le gène de détection de l’acétophénone des cellules spermatiques ont moins de marques de méthylation, lesquelles auraient pu conduire à une plus grande expression du gène récepteur de l’odeur au cours du développement.
Cette étude n’a pas manqué de diviser la communauté scientifique.
Certains l’ont jugée la plus rigoureuse et la plus convaincante parmi celles qui ont été publiées à ce jour, en démontrant la transmission des effets épigénétiques acquis dans un modèle de laboratoire.
D’autres ont contesté que la méthylation de l’ADN influence la production de protéines détectant l’acétophénone.
D’autres, enfin, ont émis des doutes quant à la validité de la méthodologie statistique de l’expérience qui, à leurs yeux, empêche qu’elle puisse être reproduite.
C’est cette même difficulté de ne pouvoir reproduire cette étude que M. Jacques Van Helden a également soulevée lors de l’audition publique de l’OPECST du 16 juin 2015, en regrettant que cette étude ait eu un impact très fort au même titre que les premières études sur l’homosexualité, du fait de sa médiatisation et à l’égard de laquelle il a appelé à la très grande prudence.
B. L’EFFICACITÉ RESTANT À AMÉLIORER DES THÉRAPIES ÉPIGÉNÉTIQUES
Malgré des perspectives économiques prometteuses, ce second défi est tout aussi important que le premier concernant le statut scientifique et les débats examiné ci-dessus.
Les chercheurs – mais aussi l’industrie pharmaceutique – y sont confrontés du fait de certaines limites rencontrées par les thérapies épigénétiques et, ce, malgré les perspectives prometteuses du marché de l’épigénétique.
1. Les perspectives prometteuses du marché de l’épigénétique
À l’intérieur de ce marché, il faut distinguer celui des thérapies épigénétiques et celui du microbiote, dont le rôle important a déjà été souligné.
a. Le marché des thérapies épigénétiques
L’évaluation de ce marché varie selon les statistiques, même si toutes font état de son importante croissance. C’est ainsi que Mme Nadine Martinet (219) a indiqué, lors de l’audition publique de l’OPECST du 16 juin 2015, que ce marché avait été évalué, en 2014, à 413,24 millions de dollars et que, selon des estimations, il atteindra 783,17 millions de dollars en 2019. D’après d’autres prévisions, le montant de ce marché, qui était de 1,6 milliard de dollars en 2011, atteindrait 5,7 milliards de dollars en 2018, soit un taux de croissance de 19,4 % de 2012 à 2018.
L’Europe, les États-Unis et le Japon sont les principaux acteurs de ce marché. Mais il est probable que, au fils du temps, la Chine rejoigne ces derniers.
Ce marché présente deux caractéristiques majeures touchant à l’inégalité entre ses différents segments et à la domination écrasante des États-Unis.
i. Un marché aux segments d’importance variable
Mme Martinet a indiqué que le segment des médicaments était le plus lucratif, représentant environ 60 % du marché. Il y a ensuite, à hauteur de 10 % du marché, le diagnostic in vitro et quelques biomarqueurs. Les kits et réactifs (anticorps), les enzymes et les instruments comme les séquenceurs ou les spectromètres de masse, représentent quant à eux les 30 % du marché restant.
Le deuxième segment du marché est constitué par les biomarqueurs utilisés pour le diagnostic et par le test compagnon pour le traitement.
Ce matériel est acheté par les big pharma, mais aussi des biotechs, des start-up et des chercheurs académiques.
Un test, vendu par Epigenomics et baptisé « Epi proColon » va arriver sur le marché. Il s’agit, en fait, de trois tests de méthylation que l’on pratiquera sur l’ADN fécal. Ce test a bénéficié d’un marquage CE et a été approuvé par la Food and Drug Administration (FDA) mais a déjà été confronté à l’efficacité du test Gaiac, qui recherche le sang dans les selles. Cette étude a donné lieu à une publication dans le New England Journal of Medicine. Elle révèle la présence, avec les tests de méthylation, d’un nombre beaucoup trop élevé de faux positifs. D’ailleurs, l’actif le plus important en Europe dans ce domaine était Oncométhylome, qui a fait faillite et a été racheté par une société américaine MDxHealth.
Sous la contrainte, la FDA s’apprête à revoir tous ces biomarqueurs car, dans le portefeuille de nombreuses sociétés comme dans celui de l’Inserm, cela représente la majorité des brevets.
Le troisième segment du marché est celui des médicaments épigénétiques, qui ont rapporté, essentiellement aux États-Unis, 251,8 millions d’euros en 2013. Le plus ancien est le Vidaza, découvert en 1946 à Prague. Il s’agit d’un analogue de nucléoside, repositionné voici une vingtaine d’années, puisqu’il est génériqué. Cette thérapeutique n’est donc pas récente mais permet la survie des patients atteints de syndromes myélodysplasiques.
À l’heure actuelle, soixante-quatorze entreprises développent quatre-vingt-deux médicaments épigénétiques, dans trois cent quatre-vingt-sept programmes de recherche en cancérologie, pour cinquante-deux cibles différentes. Un médicament a été suspendu et trente-deux abandonnés. Servier a récemment indiqué qu’il investissait dans l’épigénétique et le diabète de type 2.
ii. La domination écrasante de l’industrie pharmaceutique américaine
Dans son intervention, Mme Martinet a souligné cette seconde caractéristique du marché de l’épigénétique. Sur les différents segments, ce sont les entreprises américaines qui sont les acteurs majeurs.
Cette domination ne se limite pas au seul aspect pharmacologique, mais concerne également l’infrastructure informatique. Mme Martinet a fait observer que les matériels utilisés – tels que les logiciels – étaient exclusivement américains : cette remarque confirme parfaitement le bien-fondé de l’une de nos recommandations préconisant la nécessité de développer le secteur de la bioinformatique.
La conséquence de cette domination américaine est la faiblesse extrême de l’Europe.
Par exemple, sur le premier segment du marché – celui des kits, réactifs enzymes et instruments, l’Europe ne compte qu’un acteur majeur – Diagenode – implanté en Belgique, qui commercialise des instruments pour la sonication de l’ADN. Cette société, dont le chiffre d’affaires s’élevait à 27 millions d’euros en 2014 a vu les effectifs de son personnel passer de quatorze personnes à cent soixante-dix personnes entre 2008 et 2014. L’un de ses autres traits remarquables réside dans le fait que le projet a été incubé pendant plus de sept ans dans les laboratoires de l’université avant de prendre son essor.
Quant à la France, elle compte également un acteur dans ce domaine, la Cerep, basée à Poitiers, qui a été rachetée en 2012 par la société américaine Eurofins et affichait, en 2014, une perte de 1,66 million d’euros. Elle a obtenu, voici deux ans, une aide du Feder de 500 000 euros à laquelle s’est ajoutée une aide régionale du même montant, soit 1 million d’euros au total.
Mme Martinet a fort opportunément observé que cette situation particulière de la France n’est pas sans lien avec la quasi-inexistence de la recherche en chimie médicale épigénétique. De fait, à ses yeux, la France accuse un retard de vingt ans en produits épigénétiques faute d’avoir investi en chimie médicale. Pour autant, Mme Martinet a souligné que deux pistes pour la prévention du vieillissement étaient encore ouvertes à savoir les compléments alimentaires et les cosmétiques épigénétiques, domaines dans lesquels il importerait d’investir.
Quoiqu’il en soit, Mme Martinet a, certes, rappelé que l’Union européenne avait décidé de procéder de nouveau à des investissements pour l’essentiel dans le programme « Horizon 2020 » et le séquençage de l’épigénome à hauteur de 30 millions d’euros, s’inscrivant ainsi dans la ligne des deux précédents programmes – cadres FP6 et FP7 dans lesquels l’investissement s’était établi à 200 millions d’euros.
Il reste néanmoins que Mme Martinet a tenu à souligner que le modèle de développement de petites molécules – outils ou médicaments – par des chercheurs académiques en Europe est à revoir pour définir les enjeux, investir dans les domaines porteurs et soutenir les projets translationnels public-privé européens dans un contexte où les sociétés pharmaceutiques nationales sont confrontées à une très mauvaise situation économique, en particulier en France, et où le développement d’un médicament reste évalué à 2,6 millions de dollars alors qu’un projet financé par l’ANR est d’un montant total de 250 000 euros environ.
En tout état de cause, il serait très regrettable que l’industrie pharmaceutique française – et au-delà européenne – continue de s’affaiblir, à l’heure où les entreprises américaines portent un intérêt croissant aux thérapies épigénétiques, comme l’a indiqué le Pr Éric Vilain. Cet intérêt est lié à la place centrale occupée par le cancer et le vieillissement dans le système de santé.
C’est pourquoi, comme les rapporteurs l’ont souligné à plusieurs reprises à leurs interlocuteurs, ils jugent essentiel de soutenir la recherche académique et de favoriser le développement de ses innovations, ainsi qu’ils le proposeront dans leurs recommandations.
Il leur apparaît d’autant plus impérieux d’insister sur ce second aspect que Mme Martinet a, en des termes sévères, fait état de certaines faiblesses de la politique de valorisation de la recherche publique, regrettant notamment l’absence de veille technologique systématique du dépôt des brevets internationaux sur les petites molécules épigénétiques. Elle a, en effet, indiqué que l’étude de ces brevets sont une bonne indication des cibles thérapeuthiques et de l’identité de leurs détenteurs.
À cet égard, certains rapports – dont celui de la Cour des comptes – tendraient à confirmer les propos de Mme Martinet, la Cour des comptes ayant déploré que « Le système public de la recherche se préoccupe insuffisamment des retombées économiques de la recherche, qui demeurent peu prises en compte dans les indicateurs de performance de la dépense publique » (220).
Toutefois, les rapporteurs se réjouissent que certaines initiatives témoignent d’une réelle prise en compte de l’importance de cet enjeu. Il en est ainsi des enseignements sur la connaissance de l’entreprise et la valorisation des brevets dispensés en M1 et M2 à l’université de Montpellier, comme cela a été relevé précédemment. De même y a-t-il lieu de noter que le CNRS a organisé, au mois de juin 2016, une formation sur la propriété intellectuelle et la valorisation de la recherche.
Mais il serait souhaitable d’aller plus loin, en instituant un cadre qui soit de nature à intégrer cet enjeu dans la formation et l’évaluation des chercheurs. Ce sera l’objet de deux recommandations.
D’après certains études (221), le marché des thérapies issues du microbiote est en plein essor aux États-Unis, ainsi que l’illustre le cas du dernier acteur entré sur ce marché, Evelo Therapeutics, qui a bénéficié du concours financier d’une société de capital-risque à hauteur de 35 millions de dollars, soit près de 32 millions d’euros. Cette entreprise souhaite ainsi fabriquer des médicaments à partir du microbiote pour cibler les cancers du poumon, de la peau, de la prostate et du côlon.
Selon le directeur général de cette entreprise, c’est le fait de toujours mieux comprendre l’immunothérapie et l’accroissement des connaissances sur le microbiote qui, précisément, offre l’occasion exceptionnelle d’exploiter leur considérable impact sur le cancer.
Devant cette situation économique apparemment florissante du marché de l’épigénétique – tout au moins aux États-Unis – on peut se demander toutefois s’il n’y a pas là un paradoxe, compte tenu du fait que le jugement des chercheurs sur l’efficacité des thérapies épigénétiques est mesuré, estimant, pour beaucoup d’entre eux, que ces dernières sont encore confrontées à des obstacles d’importance.
2. Les thérapies épigénétiques sont confrontées à d’importants obstacles
Ces obstacles tiennent, d’une part, aux caractéristiques propres à ces thérapies et, d’autre part, à la complexité du contexte biologique dans lequel elles interviennent.
a. Des thérapies comportant des imperfections
Ces imperfections sont de nature variable selon les pathologies, le cas du cancer devant être distingué de celui des maladies.
Des statistiques, fournies par une récente étude pourraient illustrer l’efficacité très limitée des épimédicaments. En effet, l’auteur de cette étude a indiqué que 1 % de tous les médicaments, qui ont été approuvés par la FDA fait apparaître une activité épigénétique significative et réduisent au silence les promoteurs dans les cellules cancéreuses du côlon. Ce pourcentage correspondrait à quinze médicaments qui sont déjà disponibles et qui ont un potentiel thérapeutique substantiel.
À cet égard, il apparaît que l’efficacité anti-tumorale des épimédicaments dits de la première génération est très limitée lorsqu’ils sont utilisés en monothérapie dans les essais cliniques des phases I et II concernant des patients atteints de tumeurs solides.
Certes, la combinaison des épimédicaments avec d’autres thérapies peut relever ou restaurer la sensibilité à de telles thérapies. Pour autant, il ressort de certaines évaluations que seulement 3 % des patients répondent aux épimédicaments utilisés en monothérapie, taux s’élevant à 20 % en cas de combinaison de thérapies.
Plusieurs raisons ont été invoquées pour expliquer de tels résultats.
En premier lieu, la spécificité des cibles des épimédicaments fait défaut. Ainsi, les inhibiteurs de méthylation de l’ADN sont utilisés lorsqu’une déméthylation particulière est impliquée dans l’étiologie et la pathogénèse du cancer. Mais une activation potentielle des oncogènes peut toutefois résulter d’une déméthylation globale.
En second lieu, bien que certains épimédicaments soient efficaces à de faibles doses et aient des profils toxiques relativement bas, leurs effets sont transitoires et les motifs épigénétiques aberrants réapparaissent à la fin du traitement.
C’est pourquoi, actuellement, de nombreux traitements épigénétiques doivent être combinés à d’autres thérapies pour sensibiliser les tumeurs aux agents cytotoxiques ou au traitement par rayon. Or, selon les auteurs d’une étude récente, le fait de recourir à la combinaison des thérapies, peut ultérieurement compliquer l’identification de biomarqueurs pertinents.
En outre, selon la même étude, une grande variation à la sensibilité au médicament peut exister pour chaque type de cancer.
Ainsi, chaque patient peut-il répondre pour différentes raisons, telles que la réactivation de gènes suppresseurs de tumeurs, la restauration de la sensibilité à la chimiothérapie traditionnelle, l’induction de l’immunogénicité (c’est-à-dire la capacité à induire une réaction immunitaire), ou encore pour l’ensemble de ces raisons.
S’agissant des maladies neurologiques, certaines études font valoir que de nombreuses questions demeurent sans réponse en ce qui concerne la relation causale entre le dérèglement épigénétique, la pathogenèse de la maladie affectant le système nerveux et la signification biologique des profils épigénétiques des systèmes nerveux central et périphérique.
En outre, en dépit d’avancées dans la recherche de biomarqueurs épigénétiques, ces chercheurs relèvent que le mieux établi d’entre eux – la méthylation du promoteur du gène M6MT (222) dans les gliomes – n’est pas largement utilisé, du fait d’importants obstacles techniques persistants. Ainsi, des plateformes de séquençage de premier plan sont relativement insensibles pour mesurer les changements survenus dans les profils épigénétiques des troubles du système nerveux, lesquels sont souvent subtils. Toutefois, de rapides innovations technologiques et méthodologiques sont en mesure de surmonter ces obstacles en offrant des avantages en termes de préparation des échantillons, de quantité, de résolution et de débit.
Il n’en reste pas moins que d’importantes questions non résolues sont posées, parmi lesquelles figurent les suivantes :
- les thérapies épigénétiques peuvent-elles être conçues, développées et appliquées dans le cerveau et les types cellulaires particuliers du cerveau non seulement dans les modèles animaux mais aussi chez les patients ?
- quelles sont les barrières explicites qui doivent être levées ?
- le développement des médicaments épigénétiques et les tests diagnostiques compagnons associés représentent-ils une stratégie thérapeutique viable aux plans biologique et commercial ?
- les agents épigénétiques peuvent-ils être combinés entre eux ou avec d’autres classes de médicaments pour aborder plus efficacement les nombreux niveaux de pathologie moléculaire existant dans les maladies complexes ?
b. La complexité du contexte biologique dans lequel s’appliquent les thérapies épigénétiques
La très grande majorité des études – sinon la totalité d’entre elles – conclut à la nécessité de poursuivre les recherches, pour mieux souligner les inconnues entourant les effets des thérapies épigénétiques et leurs limites.
Ce quasi-consensus repose sur un triple constat :
- la complexité de l’épigénome,
- le savoir limité sur le rôle combiné des facteurs génétiques et des facteurs non génétiques,
- l’existence de difficultés techniques.
i. La complexité de l’épigénome
L’extrême diversité des mécanismes épigénétiques combinée avec le fait que chaque cellule a son propre épigénome est à la base de l’hétérogénéité de ce dernier et de sa complexité.
Même si les perfectionnements technologiques – dont la cartographie – ont permis d’accomplir des progrès incontestables, il n’en demeure pas moins que, comme l’ont rappelé plusieurs intervenants, lors de l’audition publique de l’OPECST du 16 juin 2015, le mode d’action des marques épigénétiques n’est connu que partiellement. Il en résulte, en particulier, l’absence de fiabilité de certains bio marqueurs.
ii. Le savoir limité sur le rôle combiné des facteurs génétiques et des facteurs épigénétiques
Selon Mme Geneviève Almouzni, ce savoir limité empêche l’exercice d’une médecine personnalisée (223). Or, elle fait valoir que l’interaction entre le génome et l’épigénome est impliquée de façon décisive dans la biologie, le caractère et l’ampleur d’une maladie établie et pas seulement dans le développement de celle-ci. Car les marqueurs épigénétiques rendent compte de la prédiction de l’évolution naturelle d’une maladie – à travers les marqueurs pronostiques – et de la probabilité selon laquelle la maladie répond au traitement, ce qui est le rôle des marqueurs prédictifs.
C’est pourquoi le test et la validation de ces marqueurs dans des essais cliniques et la comparaison avec des stratégies établies seront décisifs en vue d’améliorer l’issue des maladies.
De même, Mme Almouzni a-t-elle jugé nécessaire d’étudier les effets et l’impact mécanique des épimédicaments et leur impact sur le génome, le développement et la validation de nouveaux médicaments candidats quant à la conception relationnelle de la combinaison de thérapies composées de médicaments génétique et épigénétiques, qui devrait être encouragée pour soigner des maladies ou au moins améliorer l’efficacité des modalités actuelles du traitement des maladies.
En écho à ces observations de Mme Almouzni, les auteurs de l’étude précitée de la FDA indiquent que, parce que la plupart des génomes cancéreux comportent des centaines de mutations génétiques et de modifications épigénétiques, c’est un défi majeur que de déterminer quels événements jouent un rôle pathogénique dans la formation du cancer.
L’identification de ces événements directeurs peut faciliter le développement de nouveaux médicaments anticancéreux, ce qui a été prouvé par le récent développement des médicaments anticancéreux contre le mélanome et le cancer non à petites cellules du poumon qui ciblent des événements directeurs connus.
iii. L’existence de difficultés techniques
Dans l’étude précitée, Mme Geneviève Almouzni souligne que l’étude de l’identification des relations entre l’épigénétique et la génétique requiert l’analyse d’échantillons ex vivo de cellules primaires.
Pour cette raison, les procédures de prélèvement d’échantillons, de tri et d’analyse sont nécessaires et doivent être optimisées et adaptées.
Pour autant, l’hétérogénéité cellulaire représente un défi pour parvenir à une entière compréhension du statut du génome, de l’expression des gènes et du rôle des mécanismes épigénétiques sous-jacents.
C’est vrai pour beaucoup de processus cellulaires, tels que le remodelage du génome durant la reprogrammation ou la conversion des cellules somatiques en cellule pluripotentes. C’est pourquoi la collecte des échantillons les plus appropriés en vue d’aborder un ensemble de questions et la miniaturisation des technologies pour les analyses de cellule unique est décisive.
Ces défis sont d’autant plus importants dans la recherche de biomarqueurs pour l’approche des maladies du cerveau humain que les chercheurs n’y ont accès que par des biopsies.
S’y ajoute un énorme fossé entre les études précliniques sur les animaux et les essais cliniques, du fait des différences anatomiques et métaboliques existant entre les êtres humains et les murins.
*
* *
L’analyse des défis auxquels l’épigénétique et ainsi confrontée fait apparaître plusieurs points saillants :
1- l’emploi du terme paradigme suscite d’intenses débats quant au statut scientifique de l’épigénétique. Ce terme est également employé pour souligner la nouveauté du rôle joué par l’épigénétique dans la modernisation des politiques de santé ;
2- le développement de la recherche s’avère nécessaire non seulement pour combler les lacunes des connaissances scientifiques sur le mode d’action des marques épigénétiques, l’étiologie des pathologies ou encore les effets des thérapies épigénétiques ;
Cet objectif constitue également en ce qui concerne la France – et au-delà, l’Europe même – une ardente obligation, devant le retard de la recherche pharmacologique par rapport aux États-Unis.
C’est là une justification supplémentaire des recommandations que les rapporteurs ont formulées précédemment sur la nécessité de promouvoir l’enseignement et la recherche en chimie médicale ainsi que la recherche en bioinformatique.
Au demeurant, le développement de la recherche est l’un des enjeux majeurs des politiques de santé, car la recherche peut jouer un rôle catalyseur dans l’amélioration de l’efficacité des systèmes de santé, en particulier, en contribuant à baisser le coût des médicaments et des traitements.
TROISIÈME PARTIE :
LA NÉCESSITÉ DE CONCILIER UN INSTRUMENT POTENTIEL DE MODERNISATION DES POLITIQUES PUBLIQUES DE SANTÉ AVEC
LE RESPECT DES NORMES JURIDIQUES ET ÉTHIQUES
Comme relevé dans l’introduction, il est remarquable que, lors de l’audition publique de l’OPECST du 16 juin 2015, les intervenants aient souligné l’ampleur des problèmes de santé publique soulevés par leurs travaux, anticipant ainsi l’audition public du 25 novembre 2015 consacrée expressément aux enjeux éthiques et sociétaux liés à l’essor de l’épigénétique.
Cela ne signifie certes pas que les généticiens ne soient pas conscients des enjeux éthiques et sociétaux soulevés par leurs recherches. Le précédent rapport de l’Office sur la médecine de précision a, au contraire, montré qu’ils n’en ignoraient pas la dimension éthique et sociétale.
Pour autant, probablement parce que l’épigénétique se situe à l’interface des gènes et de l’environnement, la recherche est, plus directement qu’en génétique, appelée à analyser les pathologies au regard des différents environnements – biologique, social, économique – dans lesquels s’insèrent l’épigénome et l’être humain.
Les analyses des chercheurs peuvent ainsi apporter une contribution non négligeable à l’élaboration des politiques publiques de la santé.
Une autre problématique, qui ramène au débat sur la nouveauté disciplinaire de l’épigénétique au regard de la génétique, concerne la nature des normes éthiques et juridique susceptibles d’être appliquées à l’épigénétique.
Car, comme le montrent les travaux de juristes anglo-saxons ou encore les débats de l’audition publique de l’OPECST du 25 novembre 2015, la question est de savoir si ces normes sont les mêmes que celles qui régissent la génétique ou si, au contraire la nouveauté dont l’épigénétique serait porteuse appelle un cadre différent.
I. L’ÉPIGÉNÉTIQUE : UN INSTRUMENT SUSCEPTIBLE DE CONTRIBUER À LA MODERNISATION DES POLITIQUES PUBLIQUES DE SANTÉ
Comme dans la recherche fondamentale, le terme de paradigme est employé pour souligner les profondes inflexions que la recherche est susceptible de susciter dans les politiques publiques de santé et la nécessité de concevoir ces dernières selon des principes entièrement nouveaux.
Il en est ainsi parce que les travaux des chercheurs en épigénétique se sont avérés être une source d’inspiration potentielle pour les autorités publiques, même si celles-ci les ont pris en compte de façon très variable.
A. UNE SOURCE D’INSPIRATION POTENTIELLE DES POLITIQUES PUBLIQUES DE SANTÉ
L’influence potentielle qu’exerce l’épigénétique sur les politiques de santé tient à ce qu’elle vise à être en adéquation avec les objectifs de la médecine des 4P (pour prédictive préventive personnalisée et participative).
Cette notion, forgée par le chercheur américain Leroy Hood il y a près d’une quinzaine d’années, est considérée comme le paradigme de la médecine du XXIe siècle car, selon une étude conduite par des chercheurs, « la médecine des 4P maximise l’efficacité de la médecine des systèmes, en étendant son application hors de l’hôpital et des cliniques aux habitations, au travail et, enfin, aux écoles » (224), ces auteurs définissant la médecine des systèmes comme l’application de la biologie des systèmes aux maladies humaines.
Mais de même que la biologie des systèmes repose sur une conception intégrative de la biologie, de même la recherche en épigénétique plaide en faveur d’une politique intégrative de la santé, laquelle ne se satisfait plus de se limiter au seul volet médical du système de santé mais préconise une synergie entre les politiques publiques de santé avec les autres politiques sectorielles.
1. L’adéquation de la recherche aux objectifs de la médecine des 4P
Malgré les imperfections qu’elles comportent, dont nous avons fait état précédemment, les thérapies épigénétiques, tout comme l’épigénétique environnementale et la DOHaD, déclinent chacune des composantes de la médecine des 4P.
a. L’épigénétique, outil de la médecine prédictive
Caractérisant les biomarqueurs épigénétiques, une étude indique qu’ils sont constitués de deux composantes complémentaires :
- Un essai expérimental procure des mesures exactes des modifications épigénétiques dans un échantillon d’un patient donné ou un locus (c’est-à-dire un emplacement physique, précis et invariable sur un chromosome) ou à de nombreuses régions du génome ;
- une catégorie d’échantillons qui permettent de connaître les effets du biomarqueur grâce aux mesures de l’expérience, à savoir le sous-type de la maladie prédite ou le classement de la tumeur.
L’auteur de cette étude précise également qu’en complément du diagnostic précoce du développement des tumeurs, une seconde catégorie de biomarqueurs épigénétiques vise à fournir une base à la prise de décision clinique, une fois la tumeur identifiée. De tels biomarqueurs jouent un rôle dans le pronostic de l’optimisation de la thérapie, permettant d’aborder certaines questions cruciales : la tumeur peut-elle et devrait-elle être traitée ? Quel type de thérapie est approprié ? Quelle sera l’ampleur des effets secondaires et comment les réduire ?
C’est sur la base d’autres outils, que la DOHaD a proposé un nouveau pronostic des maladies chroniques. Comme rappelé précédemment, l’épidémiologiste britannique David Barker a indiqué que la sous-nutrition de la mère au cours du développement fœtal entraînait un faible poids de son enfant à la naissance et, dans le développement ultérieur, des risques associés d’obésité, de diabète et de maladies cardiovasculaires.
La focalisation de l’analyse de David Barker sur la nutrition et le faible poids à la naissance a joué un rôle dominant décisif dans la FOAD (Fetal origins of disease - origines fœtales des maladies) (225).
Ultérieurement, les chercheurs ont montré que le faible poids à la naissance était simplement une illustration rudimentaire de la nutrition fœtale et de l’environnement endocrinien et que les risques de différentes maladies pouvaient être élevés d’un bout à l’autre de l’éventail des poids à la naissance et au cours de l’enfance précoce.
Ainsi, dans le domaine de la nutrition, le champ de la DOHaD couvre-t-il non seulement les poids à la naissance extrêmement faibles et élevés, dans lesquels il peut y avoir des changements majeurs dans les poids et la psychologie des tissus, mais également des poids à la naissance dans la série normale, au sein de laquelle des changements fonctionnels subtils peuvent également avoir lieu dans les tissus.
D’importantes recherches, s’inspirant de la démarche de la DOHaD, ont indiqué que, comme les effets de perturbations nutritionnelles survenant au cours du développement, il existe déjà des exemples dans lesquels les expositions aux agents chimiques de l’environnement au cours du développement peuvent entraîner des changements fonctionnels subtils pour le fœtus apparemment normal.
Ces changements interviennent dans des tissus spécifiques et suscitent une susceptibilité accrue à des maladies ainsi que des dysfonctions ultérieurement.
Enfin, le stress prénatal est un autre facteur environnemental qui est de plus en plus reconnu comme une cause de reprogrammation fœtale développementale, et qui a été associé à différentes maladies incluant les maladies cardio-vasculaires, telles que l’hypertension, l’insuffisance coronarienne, l’insuffisance cardiaque et les maladies métaboliques, ainsi que l’obésité et le diabète.
En second lieu, des études ont montré que le moment auquel intervenait le stress prénatal au cours de la grossesse était décisif dans la détermination des résultats qui lui sont associés.
Ainsi le stress gestationnel précoce est lié à l’insuffisance coronaire à l’âge adulte, celui de la mi–gestation à des maladies du rein et celui de la gestation tardive aux conséquences métaboliques.
b. L’épigénétique, outil de la médecine préventive
« Le concept de DOHaD, parce qu’il s’intéresse aux origines de pathologies observées chez l’adulte (en général chroniques) et ne se limite pas à une intervention à la période de la maladie déjà installée – ce qui limite les chances de succès de la combattre – offre des possibilités de prévention » (226).
Ces observations, qu’illustre parfaitement le rôle central joué par la prévention comporte d’importantes conséquences sur la pratique médicale. Ainsi l’usage de biomarqueurs précoces du risque de maladies peut-il fournir des indications sur les expositions environnementales. Quant à la trajectoire probable du risque, elle peut être utilisée pour prévenir la maladie.
Corrélativement, les médecins doivent concentrer leur attention sur la prévention précoce et non plus sur le risque de maladie à l’âge adulte ni, simplement, sur le traitement des adultes affectés par cette maladie.
La nutrition est un autre domaine, dans lequel l’épigénétique – qualifiée précisément par une étude de « nouveau pont entre la nutrition et la santé » – peut apporter un concours utile à la prévention.
À cet égard, les auteurs d’une étude récente font observer que la nutrigénomique ne devrait pas être comprise comme une méthode de traitement par elle-même mais plutôt comme support d’autres approches thérapeutiques ou d’autres traitements appliqués à un usage préventif.
Cette étude cite ainsi une estimation selon laquelle 80 % des maladies chroniques peuvent être prévenues par une nourriture et des modes de vie sains.
Comme on l’a vu précédemment, plusieurs études ont indiqué que certains aliments pouvaient avoir pour effet de prévenir le cancer. Un cardiologue américain – le Pr Jean-Pierre Issa, dans une étude consacrée précisément à la prévention du cancer– s’est toutefois interrogé sur la capacité des interventions alimentaires à modifier la méthylation de l’ADN ou des modifications des histones. Mais, dans le même temps, il a relevé que ces aliments peuvent produire leurs effets les plus importants durant l’embryogenèse et le développement précoce. En revanche, il a souligné qu’on ignorait si les interventions alimentaires chez les adultes suffisaient à modifier le jeu des mécanismes épigénétiques dans les tissus.
c. L’épigénétique, outil de la médecine personnalisée
Dans le précédent rapport de l’OPECST sur la médecine de précision, les rapporteurs soulignaient, en introduction, le caractère polysémique de la notion de médecine personnalisée, lié lui-même à l’absence de consensus sur sa définition.
Il semble que ce soit également le cas dans le domaine de la recherche en épigénétique, deux approches différentes pouvant être distinguées. Selon la première approche, il s’agit plutôt d’une démarche curative. Ainsi, les auteurs d’une méta-analyse sur les traitements personnalisés du cancer du sein et de l’obésité dans la politique publique de santé ont observé qu’une nutrition personnalisée pourrait être un facteur décisif d’amélioration de la santé et de prévention des maladies chroniques.
De même, évoquant les principes de cartographie épigénétique, M. Emmanuel Barrillot (227) a indiqué, lors de l’audition publique de l’OPECST du 16 juin 2015, que cette dernière reposait sur la même logique que la médecine de précision, laquelle, pour mieux soigner les patients atteints du cancer, séquencera le génome tumoral, déterminera les mutations dont il est porteur, trouvera une mutation précise et ciblera cette mutation avec les molécules pharmaceutiques – des inhibiteurs spécifiques de la mutation du patient.
La logique de la cartographie épigénétique est donc la même, à savoir qu’à une mutation correspond un médicament, même si M. Barrillot a précisé que l’application d’un tel principe pouvait rencontrer des limites.
Citant l’exemple des patients atteints de mélanome et présentant une mutation dans le gène BRAF, M. Barrillot a déclaré que ces patients pouvaient être soignés avec des inhibiteurs de BRAF.
En revanche, dans le cas du cancer colorectal, des inhibiteurs de BRAF, loin d’inhiber la prolifération l’accentuait, du fait de l’existence d’une boucle de rétroaction vers EGFR (228).
Dans la deuxième approche, une étude soutient que la médecine ne sera réellement personnalisée que si, d’une part, elle intègre les données personnelles sur les interactions entre les gènes et l’environnement et si, d’autre part, elle ne se limite pas à poursuivre un but lucratif mais se préoccupe des objectifs de santé en tenant compte, à cette fin, de facteurs sociaux, psychologiques et économiques.
Car le génome reflète l’histoire des expositions passées et constitue un facteur potentiellement modifiable, qui permet à une personne de réduire le risque de maladie à travers la prévention et le style de vie.
C’est pourquoi, les auteurs de cette étude reprochent à la notion de la médecine des 4P de ne pas aller suffisamment loin, pour reconnaître implicitement le rôle de l’environnement.
De fait, pour explorer l’impact de l’environnement sur la santé, il sera nécessaire d’élaborer un cadre guidant la recherche et son application et d’orienter les efforts de l’investissement public et de la recherche vers des approches qui soient plus rentables pour la santé personnelle, les soins médicaux et la qualité de vie.
Dans la même perspective, une récente étude consacrée à la DOHaD et à l’intégration des influences environnementales indique que diverses pathologies ayant en commun le fait de trouver leurs origines en partie durant le développement en tant que résultat d’influences environnementales partagent, en conséquence, une fenêtre de sensibilité qui englobe le développement in utero et l’enfance précoce.
C’est pourquoi selon les auteurs de cette étude, les professionnels de santé concernés par la santé des adolescents, la santé reproductive, les soins dispensés aux femmes enceintes, aux nouveau-nés et aux enfants peuvent jouer un rôle important dans la prévention de ces expositions et améliorer la santé globale.
d. L’épigénétique, outil de la médecine participative
La participation des patients – et, de façon plus générale, de la population – au fonctionnement de la médecine n’est pas nouvelle, comme le montrent les études de cohorte, ou encore les études de cas-témoins, par exemple.
Toutefois, certains facteurs particuliers contribuent à ce que, en épigénétique, cette dimension de la médecine ait été soulignée par les travaux de chercheurs.
Ainsi l’étude précitée de Jerrold J. Heindel et de ses collègues sur la DOHaD et la nécessité d’intégrer les influences de l’environnement indique que l’adoption du paradigme de la DOHaD fournit l’occasion aux patients et aux médecins d’agir en vue de prévenir les maladies de nombreuses années avant que de telles maladies ne se déclarent.
Les actions appropriées ne doivent pas seulement aboutir à ce que la vie des citoyens d’aujourd’hui soit plus saine mais aussi à ce qu’elles leur permettent de transmettre une bonne santé aux générations ultérieures.
On voit clairement que cette étude invoque une idée – mise en relief par la DOHaD - origines développementales de la santé des maladies – mais aussi celle d’héritabilité, qui est l’une des caractéristiques des mécanismes épigénétiques.
Une autre analyse a été proposée par l’étude également précitée de Chris Carlsten et de ses collègues (229).
En effet, ces auteurs suggèrent d’adapter le cadre de la médecine personnalisée décrit précédemment – intégrant les données non seulement médicales mais aussi sociales, psychologiques et économiques, propres à un individu – à l’ensemble d’une population.
À cet effet, ces chercheurs citent l’hypothèse d’un plan d’urbanisme local, qui prévoirait la construction d’une école à proximité d’une route à grand trafic.
Or, il s’avère que certains enfants appelés à fréquenter cet établissement sont connus pour présenter un risque d’asthme – au vu des examens effectués dans leur plus jeune âge, du fait de leur histoire familiale ou des variants génétiques facteurs du risque, tels que la glutathion S-transférase (GST). Dans ce cas hypothétique, ces chercheurs font observer que les parents pourraient exercer une pression sur les autorités locales concernées afin que l’école soit construite dans un autre lieu.
Il en résulterait que, bien que l’évaluation du risque génétique – lié au fait que certains enfants seront très probablement asthmatiques – soit effectuée sur une base individuelle, la prévention et/ou la solution apportée au problème en construisant l’école ailleurs sont le fruit d’une décision collective qui profitera à tous les enfants destinés à fréquenter cette école, que leurs risques de contracter l’asthme soient élevés ou non.
Ces auteurs font remarquer que la construction d’une école à proximité d’une route à grande circulation est certes une décision sensible, indépendamment des risques génétiques.
Néanmoins la prise en compte de ce dernier pourrait influencer de façon significative une telle décision s’il pouvait être démontré que certaines catégories vulnérables de la population sont susceptibles d’être exposées à des risques relativement élevés.
Sur ce point, ces auteurs citent une interprétation de l’Environnement Protection Agency – l’agence américaine de protection de l’environnement – d’un amendement de 1990 au Clean Air Act, aux termes duquel : « L’administration devra publier et rendre disponible l’information sur les mesures qui peuvent être prises pour réduire l’impact sur la santé ou pour protéger la santé des individus ou des groupes sensibles, de telle sorte que l’un de ces objectifs soit d’identifier les gènes impliqués dans la susceptibilité croissante à la pollution de l’air ».
L’analyse de ces auteurs infirme ainsi le jugement très sévère formulé par une étude qui voit dans la médecine des 4P un « holisme technoscientifique » puisque, au contraire, elle illustre le plaidoyer de la recherche en faveur de l’élaboration d’une politique intégrative de la santé, qui soit démocratique.
2. Le plaidoyer de la recherche en faveur d’une politique intégrative de la santé
Cette politique est conçue de façon intégratrive à la fois dans le temps et dans l’espace. Dans le temps, car il s’agit de promouvoir le développement durable de la santé tout au long de la vie. Dans l’espace ensuite, la synergie entre la politique de santé des autres politiques sectorielles devant être encouragée le plus possible.
a. La promotion du développement durable de la santé
Cette idée de développement durable de la santé a été invoquée par le Pr Thierry Lang (230), lors de l’audition publique de l’OPECST du 25 novembre 2015, pour souligner que l’épigénétique inscrivait les politiques de santé dans le temps long.
En effet, il a fait valoir que « s’occuper de l’enfance pour prévenir les maladies chroniques à l’âge adulte, quarante à cinquante ans plus tard, est déjà un temps long pour le politique. S’inscrire dans une logique d’appréhension des conséquences transgénérationnelles requiert une vision à très long terme ».
C’est précisément pourquoi il a insisté sur la nécessité de penser le développement durable de la santé sur plusieurs générations.
Retraçant la genèse et l’évolution de cette notion de développement de la santé tout au long de la vie (Life course Health Development - LCDH), une étude américaine rappelle qu’elle est le fruit de la synthèse des travaux issus de la DOHaD, de l’épidémiologie tout au long de la vie des maladies chroniques, et du développement neuronal.
Le modèle du LCDH a ainsi cherché à expliquer comment la santé se développe au cours de l’existence d’un individu et à utiliser cette nouvelle synthèse pour guider les approches des politiques du développement et de la recherche.
En fournissant une meilleure compréhension du développement de la santé, le modèle a essayé de se focaliser sur l’impact du risque et des facteurs de protection apparaissant au début de l’existence. Il a également visé à permettre à la pratique médicale de se réorienter du traitement des phases tardives des maladies vers la promotion d’une prévention qui soit efficace et de mettre en place des stratégies d’intervention concentrées sur l’optimisation du développement de la santé.
Les fondateurs du modèle LCDH ont également discuté de ses implications quant aux modalités des mesures de la santé, de l’organisation du système de soins et du financement du système de santé.
En proposant un modèle dynamique du développement de la santé et des causes des maladies, le cadre initial du développement de la santé s’est forgé notamment autour des principes suivants :
- la santé est la capacité des individus à se développer ;
- les facteurs de risque et des influences protectrices peuvent avoir un plus grand impact sur la santé du développement au cours des périodes sensibles et décisives du développement lorsque les systèmes de régulation biologique et comportementale sont en cours d’initialisation, de programmation et de mise en œuvre ;
- le risque, les influences protectrices et celles qui promeuvent la santé peuvent fonctionner à travers des mécanismes complémentaires interagissant fréquemment et qui incluent :
. l’incorporation biologique (231) comportementale durant les périodes sensibles et décisives du développement, laquelle peut entraîner des effets latents, qui ne sont pas observables durant des années et même des décennies ;
. les processus des facteurs sociaux et culturels qui fournissent un type d’« échafaudage social » tendant à canaliser le développement de la santé vers des résultats de plus en plus prédictifs.
En fournissant une nouvelle synthèse entre les idées des théories de la biologie des systèmes et celles du système médical et de santé, le cadre du LCHD a établi un « pont conceptuel » en liant les résultats nouveaux émergeant de l’enquête épidémiologique effectuée tout au long de la vie aux dernières découvertes provenant de la recherche expérimentale en génétique et en biologie moléculaire.
Ce faisant, le modèle a articulé la façon dont les interactions entre les gènes et l’environnement et les mécanismes épigénétiques peuvent expliquer les relations épidémiologiques auxquelles les chercheurs cliniciens ont réfléchi durant des décennies.
Le nouveau cadre a une importance particulière pour le champ de la santé maternelle et infantile car il met en lumière l’importance du développement fœtal de l’enfance précoce et de toute la durée de l’enfance, s’agissant des conditions dans lesquelles la santé et la maladie se développent, pas seulement au cours de l’enfance mais tout au long de l’existence.
Abordant le modèle actuel du LCHD, les auteurs de cette étude indiquent qu’il repose sur six principes :
1. la santé d’un ensemble émergent de capacités à se développer. Un des buts de la santé est de permettre à l’organisme de s’adapter aux défis inconnus, aux environnements inattendus ;
2. la santé est un processus qui se déploie tout au long de la vie. Il en résulte, par exemple, qu’un individu A, né dans un milieu socio-économique défavorisé, peut néanmoins voir sa santé s’améliorer à mesure qu’il est exposé à un environnement scolaire positif et un système de soins de qualité.
À l’inverse, un individu B, né dans un milieu favorisé, mais exposé à un environnement obésogène, aura une trajectoire de santé inférieure à celle de l’individu A lors de l’entrée dans l’âge adulte. Toutefois, l’insécurité professionnelle et un meilleur équilibre entre travail et vie privée renversent les trajectoires à la fin de l’âge adulte ;
3. le développement de la santé est un processus complexe, non linéaire qui se déploie selon de multiples dimensions, niveaux et phases.
Le processus de développement qui favorise la santé ne peut être pleinement compris, en recourant à l’approche biomédicale traditionnelle. Les tentatives de réduire l’analyse des influences sur la santé tout au long de la vie à de simples relations linéaires ne rendent que partiellement compte de la réalité.
Par exemple, les chercheurs ont relié le poids à la naissance à la santé cardio-vasculaire à demi-vie. En effet, le poids à la naissance représente seulement un marqueur des systèmes nutritionnels et métaboliques d’un individu qui interagissent avec les systèmes environnemental, social et culturel, lesquels influent sur la nourriture favorisant la santé cardio-vasculaire d’un adulte.
À l’inverse, les événements aisément mesurables tels qu’un AVC et des attaques cardiaques représentent seulement des marqueurs partiels de la fonction du système cardio-vasculaire.
Dans ce contexte, les auteurs de cette étude soulignent que les dimensions biochimiques, psychologiques, sociales et culturelles du développement interagissent de façon dynamique pour configurer le processus du développement de la santé.
Car les processus peuvent interagir au niveau moléculaire et génétique, aussi bien qu’au niveau social et écologique, chacun de ces niveaux pouvant avoir sa propre régulation. Par exemple, le degré auquel les facteurs sociaux, familiaux et environnementaux influencent l’expression des gènes, peut dépendre de la force et du timing de ces influences. À cet égard, pour illustrer leurs propos, des auteurs citent les travaux du chercheur canadien Michael Meaney, qui ont montré différents types d’affection maternelle pouvant influencer l’expression des gènes et le développement des différents récepteurs synoptiques dans le cerveau et susciter différents profils comportementaux ;
4. le développement de la santé est sensible à la structuration sociale des expositions et des expériences. Cela signifie que la santé des individus est déterminée par le contexte social, celui-ci interagissant avec celle-là. Ainsi, les enfants grandissant dans la pauvreté, sont confrontés à plus de risques – c’est-à-dire l’absence d’un système de soins consistants, l’exposition à davantage de risques sanitaires, des niveaux plus élevés de stress toxique.
En outre, ils bénéficient de facteurs de protection limités – c’est-à-dire, un système d’école maternelle de moindre qualité, l’accès limité à des moyens nutritionnels appropriés. En conséquence, leur trajectoire de santé sera probablement plus basse que celle des enfants ayant grandi dans des environnements dans lesquels les risques sont plus rares et/ou les facteurs de protection sont plus nombreux et efficaces. Enfin, ces enfants fréquenteront probablement moins le collège et devront plus probablement affronter le chômage et le stress financier à l’âge adulte.
À moins que la société ne modifie ces priorités pour créer des emplois spécifiques en faveur de la jeunesse la plus exposée aux risques, les risques se multiplieront tout au long de la vie avec des trajectoires de santé continuant à décliner de façon prévisible ;
5. le développement de la santé est sensible au timing et à la synchronisation des fonctions moléculaires, physiologiques, comportementales, sociales et culturelles.
Sur la base de cette considération, les auteurs de cette étude relèvent que, à mesure que les systèmes de santé de soins modernes se sont développés, ils ont dû ajuster les horizons temporels de la prévention, du traitement et du soin. Dans la première ère du système moderne de santé, lorsque la tension s’est focalisée sur les secours à apporter aux individus menacés par les maladies infectieuses, les considérations d’ordre temporel étaient habituellement immédiates et à court terme.
La seconde ère, concentrée sur le modèle stochastique de risques cumulatifs et de maladies chroniques ont déplacé ces considérations temporelles vers un horizon à plus long terme et vers des décennies.
Comme la troisième ère commence à adhérer au modèle du LCHD et à l’utiliser, pour comprendre comment la santé et la maladie se développent, ces cadres temporels se déplacent de nouveau en vue d’inclure l’ensemble de l’existence et la dimension transgénérationnelle.
Évoquant, en dernier lieu, l’impact du modèle LCHD sur la santé maternelle et infantile, les auteurs de l’étude rappellent la définition de la santé adoptée en 2004 par l’Institute of Medicine’s Committee on Child health.
Cette définition a incorporé le concept de santé comme la capacité d’un individu à interagir avec succès avec ses environnements biologique, physique et social.
En conséquence, les mesures de la santé doivent évoluer d’un simple focus sur la présence ou l’absence de maladie vers l’estimation des niveaux de la capacité fonctionnelle et du potentiel de santé – à savoir, la capacité adaptative à atteindre les buts de la santé future.
Or, ces chercheurs constatent que la politique de l’US Maternal and Child Health Bureau est, pour une large part, organisée autour d’une approche séparant les différentes étapes de la vie, avec des programmes distincts pour les femmes en état de procréer et pour les enfants selon les étapes du développement. De même, les services présentent-ils des lacunes dans le traitement de la santé intergénérationnelle, et des relations entre la santé des parents – et même celle des grands-parents – et la santé des enfants.
Quoiqu’il en soit, pour les auteurs de cette étude, le modèle du LCHD n’est pas simplement une amélioration incrémentale des modèles biomédical et biopsychologique des causes des maladies. Il représente une transition majeure et un changement de paradigme, en ce qui concerne la façon dont la santé est mesurée, dont le système de santé est financé et les buts que le système de santé pourrait espérer atteindre. S’agissant de ce que ces auteurs qualifient de science du développement de la santé, ils indiquent que celle de l’avenir sera, en partie, conduite par les cadres convergents des sciences du développement incluant l’épidémiologie, l’épigénétique, la DOHaD, la psychologie développementale, la biologie des systèmes et les champs émergents, tels que l’analyse des réseaux sociaux et leur contribution à la santé.
Comme on le voit, le modèle LCHD vise non seulement à la synergie entre différentes disciplines scientifiques mais aussi entre la politique de santé et celle menée dans les autres secteurs.
b. La synergie entre la politique de santé et les autres politiques sectorielles
Que ce soit en France ou dans les pays anglo-saxons, cette synergie est un thème majeur de la recherche.
Parmi les travaux intervenus récemment figure le colloque organisé le 26 octobre 2012 par la Revue d’épidémiologie et de santé publique sur le thème des « Déterminants sociaux de la santé : les apports de la recherche en santé publique ».
D’autre part, sont à citer, bien entendu, les débats de l’audition publique de l’OPECST du 25 novembre 2015 sur les enjeux éthiques et sociétaux de l’épigénétique.
• Le colloque du 26 octobre 2012 de la Revue d’épidémiologie et de la santé publique
Ce colloque a rappelé trois grandes séries d’évidence, désormais confortées par une multitude de résultats de recherche.
1. La première évidence souligne que les inégalités sociales de mortalité et d’espérance de vie sans incapacité sont malheureusement un phénomène universel et, cela, quelles que soient les variables utilisées pour rendre compte du gradient social (catégories professionnelles, niveaux de revenus, niveau d’éducation, etc.). De plus, en dépit de l’élévation générale du niveau de vie et de santé des populations, ces inégalités se perpétuent et même s’aggravent partout dans le monde.
Les recherches appellent également l’attention sur le fait que, au-delà du caractère universel du phénomène, ce ne sont pas toujours les mêmes pathologies ou problèmes de santé qui contribuent prioritairement à alimenter ces inégalités : ainsi, en France, à la différence du Royaume-Uni ou des pays scandinaves, ce sont les pathologies cancéreuses qui sont les principales pourvoyeuses d’inégalités.
En tout état de cause, parmi les chaînes causales complexes conduisant des inégalités socio-économiques, géographiques ou de genre, ainsi que différentes formes de vulnérabilité culturelle et sociale à se traduire en déterminants d’inégalités de santé, figurent des facteurs que la DOHaD a mis en exergue. Ainsi, comme déjà vu précédemment, ces mécanismes intervenant à tous les âges de la vie des individus ont trait aux conditions de développement durant la vie embryonnaire et fœtale.
Celles-ci peuvent avoir un impact durable sur la santé ultérieure de l’individu, certaines carences ou perturbations nutritionnelles chez la mère, et même chez le père, étant susceptibles de modifier durablement des marqueurs épigénétiques chez la descendance.
L’attention a également été appelée sur un thème qui, à l’avenir, devrait être l’objet d’une recherche accrue. En effet, il s’agit d’analyser en quoi un choc de santé ou/et l’installation d’une pathologie chronique peuvent contribuer à aggraver les inégalités sociales et économiques préexistantes et même entraîner les patients et leur entourage dans un processus de dégradation de leurs situations sociales. Ainsi, les analyses conduites à partir de la première enquête nationale de 2002 sur les survivants du cancer deux ans après le diagnostic ont également permis de montrer de tels effets en termes de moindre participation au marché du travail ou, plus généralement, de détérioration des conditions de vie des ménages frappés par la maladie.
Enfin, les économistes ont souligné que la compréhension des inégalités de santé devait s’inscrire dans les dimensions plus vastes d’analyse globale de la qualité de la vie et du bien-être, en articulant les déterminants individuels avec les phénomènes collectifs de comparaison, de compétition mais aussi de solidarités sociales.
2. Quant à la deuxième évidence, elle révèle que l’essentiel des inégalités de santé se trouve en amont ou à côté du système de soins proprement dit. En effet, en dépit du principe égalitaire du système de sécurité sociale et des effets redistributifs de ce principe, il existe des disparités dans l’accès et la qualité des soins dispensés aux personnes atteintes d’une même pathologie, ce qui ne manque pas de contribuer aux inégalités sociales et géographiques de mortalité et de morbidité.
De même, les facteurs explicatifs de la surmortalité frappant les moins favorisés interviennent-ils pour l’essentiel en amont de la prise en charge proprement médicale les différentes pathologies. Ces inégalités de mortalité révèlent d’abord un échec relatif de la prévention dans notre pays, par rapport à d’autres pays comparables, tels que le Royaume-Uni. Les catégories défavorisées cumulent, en effet, les facteurs de risque des principales pathologies : exposition plus fréquente à des facteurs de risques environnementaux (toxiques cancérigènes dans le milieu professionnel ; polluants atmosphériques dans la zone d’habitat), moindre accès aux dépistages précoces et diagnostic plus tardif des pathologies graves.
3. La troisième évidence, qui ressort de la recherche internationale sur les inégalités de santé, incite à inscrire plus directement la recherche en santé publique au service de l’action, la recherche ne devant plus uniquement porter sur la mesure des inégalités et sur leurs déterminants mais aussi sur la définition et l’évaluation rigoureuse d’interventions et de politiques publiques visant à les réduire. Plusieurs enquêtes de terrain, effectuées tant à l’étranger qu’en France, ont confirmé que ces interventions ne pouvaient se contenter d’impliquer le seul système de soins mais se devaient d’être intersectorielles si elles voulaient être efficaces.
En écho à ces préoccupations, plusieurs intervenants à l’audition publique ont tenu des propos analogues.
• L’audition publique de l’OPECST du 25 novembre 2015
Les deux tables rondes de la matinée de cette audition publique se sont interrogées sur la question de savoir si l’essor de l’épigénétique pouvait contribuer à l’amélioration des politiques de santé.
La réponse à cette question a été positive, les intervenants étant toutefois conscients de l’ampleur des exigences qu’elle entraîne en termes de moyens et des limites auxquelles elle se heurte.
o Les implications sociétales de l’épigénétique
Dans ses propres introductifs, le Pr Jean-Claude Ameisen a indiqué que l’épigénétique explique comment un certain nombre de dégâts se produisent : « Elle peut nous expliquer, par exemple, pourquoi quatre millions de personnes meurent chaque année dans le monde en raison de la pollution atmosphérique, mais ce fait lui-même peut amener à prendre des mesures, indépendamment des explications que peut nous apporter l’exploration de ses effets ».
« Le fait de savoir que trois millions d’enfants vivent sous le seuil de pauvreté a conduit la défenseure des enfants à considérer qu’ils auront ultérieurement des problèmes de santé importants. Là encore, l’épigénétique peut nous aider à comprendre la manière dont cela se produit, mais l’épidémiologie peut nous amener à prendre un certain nombre de mesures ».
Quoiqu’il en soit, pour le Pr Jean-Claude Ameisen, l’un des apports de l’épigénétique réside dans le fait de focaliser l’attention, dans notre pays, sur l’environnement non vivant, vivant humain, social, tant il importe qu’il soit le plus favorable pour chacun – et non pas seulement, pour les populations vulnérables. Car est en jeu l’application dans les faits du préambule de la Constitution de 1946 qui garantit à tous la protection de la santé. Sur ce point, Mme Dominique Gillot, ancienne ministre, sénatrice et membre de l’OPECST, et M. Gérard Bapt, député, membre de l’OPECST, ont invoqué la notion de démocratie sanitaire introduite par le projet de loi de modernisation de notre système de santé (232).
Ces principes posés par le constituant et le législateur ont pour corollaire la nécessité d’adopter une démarche holistique, de telle sorte que les politiques publiques envisagent tous les aspects de l’existence depuis le début de la grossesse.
o Quelle démarche holistique mener ?
Le Pr Thierry Lang a montré en quoi cette démarche holistique posait – et même renversait – les termes de la problématique des déterminants sociaux de la santé. En effet, il a indiqué qu’une voie nouvelle invitait non pas à considérer ce que l’on pourrait ajouter pour améliorer l’état de santé « mais à réfléchir à partir du fait qu’il existe déjà aujourd’hui des politiques en matière de transport, d’habitat, d’urbanisme, d’éducation et à se demander, lorsqu’on touche à ses dispositifs, lorsqu’on prépare un plan d’urbanisme quelles en seront les conséquences sur la santé. Cette démarche semble beaucoup plus acceptable par les politiques et présente l’avantage d’être démocratique ».
Il a précisé que « cette approche, qualifiée d’évaluation d’impact en santé, pourrait être un moyen de poser la question des déterminants sociaux de la santé comme un débat démocratique. Des politiques existent, avec des choix à faire, dans lesquels se pose la question de la santé. L’épigénétique permet ce débat ».
Sur la base de ces considérations, cinq orientations-clés semblent s’être dégagées des débats :
1. L’importance des politiques en faveur de l’enfance
Rappelant les apports de la DOHaD, les intervenants ont souligné le rôle des premières années de la vie dans la survenance des maladies chroniques à l’âge adulte. Mais, au-delà, le Pr Thierry Lang a tenu à préciser les domaines dans lesquels il a vu des enjeux de politiques publiques :
- la redéfinition du rôle de la protection maternelle et infantile dans le cadre des nouvelles responsabilités des collectivités territoriales. Cette question doit, en effet, retenir l’attention, car si la loi du 26 janvier 2016 de modernisation de notre système de santé prend en compte l’importance de la PMI, il apparaît essentiel aux rapporteurs, comme ils le proposent dans une recommandation, que les décrets d’application apportent les précisions nécessaires ;
- la quasi-absence de données nationales sur le développement de très jeunes enfants. À cet égard, l’étude longitudinale française – ELFE – qui doit permettre à des chercheurs de tous horizons de suivre l’histoire des enfants, de leur naissance à l’âge de vingt ans, est de nature à fournir des données intéressantes. En outre, la loi du 26 janvier 2016 de modernisation de notre système de santé institue un système national des données de santé qui centralisera les données des bases existantes en matière sanitaire et médico-sociale ;
- la prise en charge des enfants en garde formelle qui est passée, selon le ministère de l’éducation nationale, de 30 % en 2000 à 15 % en 2010, ce taux étant même ramené à 5 % dans certaines communes de Seine-Saint-Denis ;
- les lacunes de la recherche consacrée à l’enfance car, s’il existe certaines unités de recherche spécialisées dans les pathologies de l’enfant, aucune n’est consacrée au développement de l’enfant « normal », dans son environnement habituel. L’étude ELFE précédemment citée est de nature à répondre, fût-ce partiellement, à cette problématique.
2. L’importance des mesures à prendre au sein des systèmes éducatifs
Des intervenants ont plaidé en faveur du renforcement de l’éducation à la santé dès le plus jeune âge, Mme Claudine Junien ayant fait valoir que, en comparaison des pays scandinaves, la notion de capital-santé n’est pas réellement inscrite dans les programmes.
Pour sa part, le Pr Jean-Claude Ameisen a insisté sur la nécessité de réduire les inégalités non seulement dans le système de santé mais aussi à l’école. Il a rappelé que les classements de l’enquête PISA avaient montré que la France était le pays dans lequel l’école réduisait le moins les inégalités transgénérationnelles. Dès lors, a-t-il déclaré « Si l’on veut considérer les effets intergénérationnels de l’environnement sur la santé, on ne peut donc faire l’économie de prendre en compte l’incapacité ou la difficulté de notre école à réduire ces inégalités ».
3. L’importance de la formation des acteurs médicaux
Le Dr Jean-Marie Faroudja, président de la section éthique et déontologique du conseil national de l’ordre des médecins a estimé que l’enseignement de l’épigénétique devrait impérativement être intégré au module de la génétique.
Au-delà des chercheurs en épidémiologie génétique, tous les praticiens, quels que soient leurs statuts ou disciplines, devront, selon lui, être informés, formés, éduqués aussi bien dans le cadre de leur cursus universitaire qu’au cours de leur carrière, conformément aux obligations déontologiques figurant à
l’article R4127–11 du code de la santé publique. Pour autant, le Dr Faroudja a fait observer que le terme « épigénétique » ne figurait pas encore dans le contenu de l’enseignement dispensé en vue de l’obtention du diplôme d’études spécialisées de génétique médicale, tel qu’il est fixé par l’arrêté du 9 mai 1995.
Au demeurant, il ne figure pas non plus dans l’arrêté du 13 novembre 2015 fixant la liste des diplômes d’études spécialisées de médecine, ce dernier texte se limitant à mentionner la génétique médicale dans la liste des diplômes d’études spécialisées des disciplines médicales ou encore la biologie médicale dans le diplôme d’études spécialisées des disciplines biologiques.
Mme Marie-Aline Charles a appelé l’attention sur la nécessité de former les médecins aux origines développementales de la santé et au fait que les événements intervenus précocement influencent la santé ultérieure.
Quant au Pr Gérard Lasfargues, directeur général adjoint scientifique de l’ANSES, il a jugé nécessaire que les acteurs médicaux soient formés aux facteurs de risques environnementaux des maladies chroniques, regrettant que les enseignements sur les questions de santé au travail et de santé environnementale ne présentent qu’une portion extrêmement maigre des études médicales.
4. L’importance de la recherche
Constatant que l’ignorance sur les différentes marques épigénétiques était immense, M. Hervé Chneiweiss a souligné la nécessité d’encourager la recherche, insistant sur le besoin, déjà évoqué lors de l’audition de l’OPECST du 16 juin 2015, de recruter des biostatisticiens, déplorant que ceux qui sont formés rejoignent le secteur privé, qui leur offre des propositions financières beaucoup plus intéressantes que le secteur public. Mais il a tenu également à souhaiter que les financements publics soient transparents comparant le niveau peu élevé du coût de la recherche avec celui des différentes maladies.
Pour sa part, Mme Catherine Macé, chef du département de recherche mission et de santé de Nestlé, a indiqué que, pour Nestlé, l’utilisation de l’épigénétique pourra contribuer à l’amélioration des recommandations et interventions nutritionnelles préventives.
Parallèlement à ces orientations, les interventions ont également mis l’accent sur des difficultés auxquelles les politiques publiques de santé sont susceptibles d’être confrontées.
Il s’agit d’abord de la difficulté à trouver un point d’équilibre entre responsabilité individuelle et responsabilité collective, et entre génération actuelle et génération future, question que pose, comme l’a indiqué le Dr Cyrille Delpierre, l’incorporation biologique de l’environnement via l’épigénétique.
Or, déclarant qu’une réflexion se développait actuellement, il a indiqué que, dans l’État du Tennessee, plusieurs femmes avaient été condamnées à des peines de prison pour avoir consommé de l’alcool ou des drogues durant leur grossesse.
Au Royaume-Uni, la Cour d’appel en a jugé autrement, jugeant qu’« une mère enceinte et qui boit excessivement ne se rend pas, selon nos lois, coupables d’un crime si son enfant naît handicapé par la suite ». C’est une position analogue à celle de la cour d’appel britannique qu’a exprimée M. Gérard Raymond, secrétaire général de la Fédération française des diabétiques. Il a, cependant, évoqué la responsabilisation des citoyens et souhaité qu’ils adoptent une bonne hygiène de vie et prennent soin de leur capital-santé, afin de pouvoir prévenir l’augmentation des risques. Mais il s’est toutefois déclaré opposé à l’idée d’une culpabilisation des parents sur la base d’une plainte des enfants s’ils estiment, par exemple, que le comportement de leur mère pendant la grossesse est à l’origine de la survenue d’un diabète ou d’une autre maladie.
Quant au Pr Jean-Claude Ameisen, il a vu, dans ce débat sur la culpabilisation individuelle et la responsabilité collective, un élément important pour créer un environnement le plus propice au développement de la santé de chacun : « Qui dit culpabilisation dit risque de discrimination, de stigmatisation ou de perte de chance. Je pense que la réflexion juridique et législative devrait comporter un questionnement sur ces risques ».
Il a considéré, en outre, que la responsabilité collective et l’absence de stigmatisation supposent un effort en matière de prévention, combinée au respect d’un minimum de liberté individuelle, ce qu’illustre la loi du 4 mars 2002 garantissant un accès aux soins mais donnant aussi la possibilité à toutes personnes, après information et réflexion, de refuser même un traitement qui permettrait de lui sauver la vie. C’est pourquoi le Pr Ameisen a estimé que la prévention devrait être pensée de manière à éviter tout caractère coercitif.
La deuxième difficulté majeure qui a été évoquée a trait à l’évaluation des risques. Ainsi, le Pr Gérard Lasfargues a-t-il déclaré que la notion de « perturbateurs environnementaux » représentait un réel défi pour l’ANSES en matière d’évaluation des risques. Il a rappelé que cette notion – introduite récemment par le Dr William H. Goodson – (233) avait pour objet de montrer comment un certain nombre d’agents, notamment chimiques, pouvaient, seuls ou en interaction, à doses faibles, provoquer, via des modifications de l’épigénome, des actions de promotion tumorale ou la favorisation de l’instabilité génétique, initiatrices indirectes de cancer.
Or, qu’il s’agisse du bisphénol A ou, de façon plus générale, d’un certain nombre d’agents chimiques, perturbateurs endocriniens ou autres, ces perturbateurs environnementaux posent d’une part, la question de la capacité à évaluer les risques de combinaison d’agents, y compris à faible dose, afin de pouvoir éclairer les choix de gestion des risques et, d’autre part, à les faire prendre en compte par l’évaluation réglementaire.
À cet égard, le Pr Gérard Lasfargue a considéré que cette démarche était d’autant plus difficile qu’il fallait intégrer l’ensemble des voies d’expositions aux facteurs environnementaux, notamment aux substances chimiques. Or, les données sont très lacunaires dans ce domaine. Ainsi, pour l’évaluation relative au bisphénol A, par exemple, si les niveaux d’apport par l’alimentation sont à peu près connus, il n’existe, en revanche, aucune donnée sur les apports par voie cutanée ou respiratoire.
De même, la toxicologie souffre-t-elle également de nombreuses lacunes, les effets sanitaires à long terme, y compris expérimentalement, faisant souvent défaut.
Enfin, se pose la question – déjà évoquée précédemment – de l’extrapolabilité des résultats de l’animal à l’homme.
ii. Dans les pays anglo-saxons
Sous réserve de quelques particularités – toutefois très importantes – liées à des contingences historiques et sociales, les analyses développées par les chercheurs anglo-saxons rejoignent les thèmes des débats intervenus en France, exposés précédemment, qu’il s’agisse de la problématique des déterminants sociaux de la santé ou de celle de l’évaluation des risques.
• La problématique des déterminants sociaux de la santé
En ce qui concerne cette problématique, les travaux des chercheurs s’appuient sur la DOHaD et sur l’analyse des facteurs socio-économiques de la santé.
1/ La contribution de la DOHaD
Les recherches, qui se réfèrent aux apports de la DOHaD, rappellent l’importance de la petite enfance pour ce qui est non seulement de la trajectoire de la santé à l’âge adulte mais aussi l’évolution des capacités cognitives et non cognitives à l’adolescence et à l’âge adulte.
En effet, selon certains auteurs, ces capacités – autorégulation, motivation, préférence temporelle (234), prévoyance – affectent le capital-santé en influençant les choix faits par les parents et les enfants, y compris les choix en matière d’éducation. La personnalité et la cognition déterminent la santé et un comportement sain.
Il en résulte que les interventions effectuées dans la petite enfance affecteront la personnalité et les traits cognitifs qui promeuvent la santé pourront être des instruments efficaces pour prévenir ou soigner les maladies.
2/ L’analyse des facteurs socio-économiques de la santé
Comme l’indique une récente méta-analyse (235), cette analyse des facteurs socio-économiques s’appuie sur un ensemble de preuves qui ont été accumulées, en particulier au cours des deux dernières décennies, et qui révèlent le rôle très important joué par les facteurs sociaux – abstraction faite des soins médicaux – dans le développement de la santé, à travers un large éventail d’indicateurs de santé, de paramètres et de populations.
Ces preuves ne méconnaissent pas les influences des soins médicaux mais indiquent plutôt que les soins médicaux ne sont pas les seuls facteurs agissant sur la santé.
À cet égard, les auteurs d’une étude consacrée à l’analyse des inégalités de santé traduisent parfaitement – bien que de façon exagérée – cet esprit qui guide leur démarche : « Les décideurs qui sont les mieux placés pour traiter des causes profondes des disparités peuvent être ceux qui, n’appartenant pas au corps médical, sont en mesure de réformer l’école, réduire le chômage, stabiliser l’économie, et restaurer les infrastructures de proximité. Les décideurs de ces secteurs ont davantage de possibilité que les grands médecins de réduire les inégalités de santé » (236).
Certes, ces mêmes auteurs constatent que les hôpitaux, les sociétés médicales et les assurances ont pris des initiatives vitales pour réduire les inégalités d’accès aux soins. Mais, pour eux, il s’agit en premier lieu de réduire les inégalités de santé au-delà du seul domaine médical.
En effet, ce sont les impacts des facteurs socio-économiques qui expliquent la plupart des états de santé. Ainsi, une méta-analyse a conclu que le nombre de décès survenus aux États-Unis en 2000, attribué à un faible niveau d’éducation, à la ségrégation raciale et à un faible soutien social, a été comparable au nombre de décès imputables respectivement à l’infarctus du myocarde, à la maladie cérébrovasculaire et au cancer du poumon.
Une autre étude, examinant également les données relatives aux décès survenus aux États-Unis en 2000, a conclu que les facteurs potentiellement évitables associés à un faible niveau d’éducation rendent compte de près de la moitié des décès survenus au sein de la population active des États-Unis.
S’agissant des nombreux mécanismes expliquant les impacts des facteurs socio-économiques sur la santé, certaines études font état de facteurs dégradant la santé dans un laps de temps relativement bref comme, par exemple ceux qui influencent le sommeil, celui-ci pouvant être affecté par les conditions de travail, de logement et les environnements de proximité.
D’autres études analysent les facteurs sociaux dont les effets sur la santé n’apparaissent que tardivement dans la vie. Il en est ainsi de la faible disponibilité en produits alimentaires frais qui, combinée à une forte concentration de fast-food et à la rareté des activités récréatives, peut conduire à une pauvre alimentation et à une moindre activité physique. Les conséquences qui en résulteront en termes de maladies chroniques n’apparaîtront pas durant des décennies.
La méta-analyse précitée de Mmes Paula Braveman et Laura Gottlieb indique que des études – dont le nombre s’accroît rapidement – soulignent le rôle des facteurs socio-économiques dans les processus épigénétiques. Par exemple, le niveau d’éducation, la catégorie d’emploi occupé (manuel ou non), les horaires de travail, le stress perçu et la pratique de la violence envers un partenaire intime (237) ont tous été reliés à des changements de la longueur des télomères (238), leur raccourcissement étant considéré comme un marqueur du vieillissement cellulaire.
Le rôle prépondérant accordé aux facteurs socio-économiques dans les déterminants de santé conduit les chercheurs à préconiser une approche favorisant la prise en compte de la santé dans toutes les politiques (« health in all policies »). L’American Public Health Association a ainsi assigné à cette approche l’objectif « d’aider les décideurs à comprendre les liens entre les politiques sectorielles, les déterminants de santé, les conséquences qui en résultent pour la santé dans un vaste éventail de domaines d’intérêts ».
Cette approche consiste, par exemple, à remplacer un entrepôt abandonné par un parc public ou à accorder des avantages fiscaux à des supermarchés acceptant de s’établir dans des lieux dépourvus de magasins d’alimentation.
Cette approche a été adoptée par des quartiers, des États, des initiatives fédérales y compris par le conseil inter-agences chargé de promouvoir la santé établi en application de la loi de 2010 encore appelée Obama Care (Affordable Care Act), dont il sera encore question ultérieurement.
Quoiqu’il en soit, les auteurs préconisant cette approche soutiennent que les solutions apportées aux inégalités de santé intervenant hors du système de santé peuvent réduire les coûts de santé et les disparités. Ils invoquent l’exemple du diabète, maladie à prévalence et à coûts croissants (239). Ils font valoir que le diabète affecte deux fois plus les adultes dépourvus d’un diplôme de l’enseignement secondaire que les titulaires d’un diplôme universitaire. Cette disparité, selon ces chercheurs, en dit long sur les politiques cherchant à contrôler les dépenses occasionnées par cette maladie et celles qui tentent de réduire les budgets de l’éducation pour financer les dépenses de santé.
Avant d’examiner les analyses touchant à l’évaluation des risques, il n’est pas indifférent de souligner certaines des importantes nuances dont fait état la méta-analyse de Mmes Paula Braveman et Laura Gottlieb. Ces auteures font valoir que non seulement l’existence de liens étroits entre pauvreté et santé a été observée depuis plusieurs siècles, mais que fait défaut un consensus quant aux effets du revenu et de l’éducation sur la santé.
De même, en dépit de nombreuses preuves indiquant d’importants effets des facteurs sociaux sur la santé, il n’apparaît pas que tout individu soit exposé à une situation socio-économique défavorable. Par exemple, un bas revenu peut avoir moins d’impact sur la santé des individus dans des contextes dans lesquels les besoins fondamentaux – dont la nourriture, le logement, l’éducation et des soins médicaux – sont satisfaits par l’État ou la famille.
En dernière analyse, Mmes Paula Braveman et Laura Gottlieb appellent l’attention sur les défis difficiles auxquels est confrontée la recherche en amont des déterminants sociaux de la santé. Car, d’une part, les processus causaux sont complexes, les déterminants socio-économiques se situant en amont, tels que le revenu, la fortune et l’éducation, qui peuvent exercer leurs effets selon des processus multifactoriels complexes. À chaque stade, il existe des possibilités de confusion et d’interaction.
D’autre part, les effets des facteurs sociaux sur la santé ne se manifestent qu’au terme d’un long délai. Par exemple, les maladies chroniques se développent après de nombreuses décennies. Or, rares sont les études capables de suivre les participants durant plusieurs années, d’autant que l’Office of Management and Budget américain exige généralement un horizon de cinq ans au moins pour mesurer l’impact d’une politique.
Il est intéressant de relever, d’entrée de jeu, que, dans le domaine de l’évaluation des risques également, des chercheurs ont souhaité que l’approche holistique de la santé (Health in all policies) soit suivie, ce qui obligerait les autorités à prendre en compte à la fois les risques cumulatifs pour la santé et les bénéfices de tous les plans, projets et politiques avant qu’ils ne soient mis en œuvre.
Or, il ne semble pas que ce soit le cas, puisqu’une très récente étude dont la presse s’est fait l’écho (240), signée par une cinquantaine de chercheurs américains, critique très sévèrement l’incapacité du système d’évaluation et de prise de décision à évaluer les polluants environnementaux.
Car, à l’heure actuelle, la majorité des substances de synthèse mises en circulation aux États-Unis ne sont pas testées en ce qui concerne leurs effets sur le développement du cerveau. Or, aux États-Unis, un enfant sur dix est touché par un trouble du développement, soit une hausse de 17 % depuis dix ans. En second lieu, les substances les plus problématiques ne sont retirées du marché qu’après de longues années alors que, dans l’intervalle, elles ont causé des dommages. Encore les scientifiques déplorent-ils que ces substances soient souvent remplacées par d’autres substances tout aussi problématiques.
Cette carence des autorités publiques est d’autant moins compréhensible que la recherche a proposé des instruments susceptibles d’améliorer l’appréciation des risques. Il en est ainsi de l’incorporation des données épigénétiques dans le processus même d’appréciation des risques associés aux métaux toxiques, tels que l’arsenic, le cadmium, le chrome, le plomb et le mercure. En effet, les altérations épigénétiques peuvent contribuer à la compréhension du mode d’action d’un agent dans le processus de développement d’une maladie, ce qui constitue une composante-clé de l’appréciation des risques, l’usage des données épigénomiques permettant ainsi de combler les lacunes actuelles des connaissances. En outre, ces données offrent la possibilité de découvrir si les métaux toxiques sont susceptibles de produire des altérations épigénétiques héritables. Tout en observant que des études complémentaires sont nécessaires pour vérifier l’existence d’altérations épigénétiques associées aux métaux, non seulement à différents niveaux d’exposition mais aussi à des moments variés du développement, certains chercheurs considèrent que les données épigénomiques accroissent l’exactitude de la procédure d’appréciation des risques.
L’exposome est un autre outil pour améliorer cette procédure, comme l’a montré le colloque de l’Académie des sciences américaine tenu en février 2010.
L’exposome doit avoir pour objet d’identifier, de caractériser et de quantifier les expositions de toutes natures ainsi que les facteurs de risque modifiables qui prédisent les maladies et qui y prédisposent, tout au long de la vie des individus. De fait, les mesures de ces expositions dans une population donnée pourraient montrer que les expositions individuelles sont inférieures aux normes réglementaires mais que, du fait d’expositions multiples, la population est toutefois nettement polluée. Cela a conduit un intervenant à souligner que les mesures conventionnelles des expositions n’en fournissent pas une photographie complète, car des populations sont confrontées à des expositions aux produits chimiques plus nombreuses. Dès lors, il est nécessaire que les expositions toxiques soient contextualisées lorsqu’elles sont accompagnées de stress, de chômage, d’un accès inexistant aux soins et d’autres défis sanitaires.
Corrélativement, les facteurs de la santé publique doivent, par exemple, peser les avantages de l’installation d’un site dangereux de traitement des ordures au regard d’investissements utiles pour une population, tels que la construction d’écoles et de dispensaires.
Ce colloque présente l’intérêt non seulement d’avoir analysé les différents aspects scientifiques et sociaux de la notion d’exposome mais, aussi, celui d’avoir avancé certaines pistes d’actions. Ainsi, un représentant de l’EPA – l’Agence de protection de l’environnement – a-t-il indiqué que, si l’objectif du colloque était d’améliorer les contributions de l’environnement aux causes des maladies, il faudrait penser de façon holistique, lancer une initiative internationale, permettre aux scientifiques de mettre tous les éléments sur la table en vue de faciliter une interprétation intégrée.
Un autre intervenant a suggéré l’idée d’une initiative nationale de recherche sur l’exposome scientifiquement fondée et qui ait l’appui du Congrès.
Cette idée soulève la question plus générale, qu’il convient maintenant d’examiner, des conditions dans lesquelles les autorités publiques tiennent compte des travaux scientifiques pour améliorer le pilotage des politiques de santé publique.
B. LA SITUATION AMBIGUË DES AUTORITÉS PUBLIQUES AU REGARD DES RÉSULTATS DE LA RECHERCHE
Cette situation présente deux aspects. Le premier fait ressortir que les politiques appliquées tiennent compte, de façon variable, des travaux scientifiques ; le second montre que cette prise en compte a des effets limités.
1. Une prise en compte variable selon les autorités publiques
Ces approches sont variables, selon la nature des outils utilisés et les domaines dans lesquels les politiques sont appliquées.
Il apparaît que les pouvoirs publics se sont inspirés des travaux de la recherche à travers : la consécration de plusieurs principes généraux, des dispositions de certaines politiques sectorielles et la création d’une instance destinée à promouvoir une démarche holistique de notre politique de santé.
• La consécration de plusieurs principes généraux
C’est une conception holistique de la politique de santé que les pouvoirs publics ont adoptée à travers le Plan national santé environnement (PNSE) et la loi du 26 janvier 2016 de modernisation de notre système de santé.
1/ Le Plan national santé environnement (PNSE) :
Le premier PNSE, qui a couvert les années 2004-2008, a été élaboré à la suite de la conférence interministérielle de Londres en 1999 puis de celle de Budapest en 2004, organisée par l’OMS en cohérence avec la stratégie en santé environnement établie par la commission européenne (SCALE).
Ce plan s’appuyait sur le rapport d’une commission d’orientation et reposait sur une approche intégrée et globale de l’ensemble des polluants et milieux de vie pour répondre aux enjeux de prévention des principaux risques sanitaires environnementaux. L’ampleur et la complexité de la thématique relative aux liens entre la santé et l’environnement, ainsi que les attentes et interrogations qu’elles suscitent chez nos concitoyens, sont telles que l’élaboration d’un PNSE, sa déclinaison en régions et sa mise à jour tous les cinq ans ont été inscrites dans le code de la santé publique.
Enfin, la Charte de l’environnement de 2004 indique, dans son article premier que « chacun a le droit de vivre dans un environnement équilibré et respectueux de la santé ».
Conformément aux engagements du Grenelle de l’environnement et à la loi santé publique du 9 août 2004, le Gouvernement a élaboré un deuxième PNSE pour la période 2009–2013.
Fruit d’une importante concertation, il est parti des conclusions d’un groupe de travail constitué d’élus, de représentants associatifs, de salariés et d’entreprises ainsi que d’experts et de l’État. Il s’articulait selon deux grands axes : la réduction des expositions responsables de pathologies à fort impact sur la santé et la réduction des inégalités environnementales, en cohérence avec d’autres plans (Plan cancer, Plan santé travail et Plan national nutrition santé). La plupart de ses objectifs ont été repris dans la « déclaration de Parme », en mars 2010, qui a été adoptée, six ans après celle de Budapest, par les ministres de la santé et de l’environnement des cinquante-trois pays de la zone Europe de l’OMS. En septembre 2011, l’Assemblée générale des Nations unies à New-York a adopté une résolution sur la prévention et la maîtrise des maladies non transmissibles.
Au regard des deux précédents PNSE, le PNSE 3, qui couvrira la période 2014–2019, comprend quatre nouveaux enjeux :
o L’intégration de la notion d’exposome :
Tirant les conséquences des résultats de la recherche, la note de présentation du PNSE3 rappelle bien que cette notion « implique de prendre en considération les diverses sources de pollution et de stress, y compris stress psychologique et socio-économique susceptibles de concourir à l’altération de la santé des individus, à la fois en considérant la totalité des voies d’exposition à un polluant ou une nuisance et, quand c’est possible, les interactions entre polluants ». De fait, cette démarche globale se différencie des plans précédents, qui ont privilégié une approche par polluant et par source.
o La prise en compte des inégalités environnementales :
Déjà incluse dans les PNSE 1 et 2, cette prise en compte s’étendra aux inégalités socio-économiques et territoriales et s’attachera à repérer les populations vulnérables.
o L’apparition de nouveaux risques :
Ces risques dits « émergents » sont source d’incertitude et même de controverses, lesquelles sont souvent liées à des difficultés objectives de mesure des effets sur la santé ou à l’insuffisance de dispositifs susceptibles d’objectiver d’éventuels risques pour la santé.
Certains de ces risques – nanotechnologies, champs électromagnétiques, radiofréquences, perturbateurs endocriniens – étaient déjà pris en compte dans le PNSE2. Cependant, ils sont encore associés à des incertitudes sur leurs impacts sanitaires ainsi qu’à des difficultés d’évaluation de leurs dangers notamment par manque de consensus sur les méthodes d’évaluation de leurs effets. Le PNSE3 a pour ambition de continuer les efforts pour une meilleure compréhension de leurs effets sanitaires, des niveaux d’exposition des populations, de leur prise en compte dans la réglementation, à la fois nationale et internationale, et pour une meilleure information du public sur ces risques, y compris en condition d’incertitude.
o La question du changement climatique, de ses impacts environnementaux et des répercussions prévisibles sur la santé des populations :
Considérée comme un enjeu important, cette question concerne essentiellement les risques biologiques environnementaux. Certains d’entre eux (cyanobactéries, pollens, phyto et mycotoxines), – typiquement d’origine environnementale, sont déjà présents et d’ailleurs peu intégrés dans les politiques environnementales. Ils peuvent être amplifiés par l’élévation des températures associées à l’effet de serre.
C’est pourquoi, la prise de conscience des liens entre environnement et santé doit être intégrée dans les différentes politiques publiques (énergie, aménagement, urbanisme, transports, industrie, etc.) à tous les niveaux, national, régional, local. Cela implique d’évaluer en amont l’effet de ces politiques sur la santé et ainsi de mieux éclairer les décisions. Ensuite, la mise en œuvre nécessite d’identifier les leviers d’action efficaces et, si possible, efficients : avec, en particulier, la question du bon équilibre entre prévention collective (dont la réduction des pollutions) et prévention individuelle avec, entre autres, la question de la formation et de l’information ainsi que celle des partenariats et de la mobilisation des acteurs, du national au local, de la formation aux pratiques professionnelles et aux interactions entre diverses organisations.
La démarche holistique du PNSE3 est illustrée non seulement à travers les enjeux qu’il a identifiés mais aussi par le fait qu’il a été établi en lien avec d’autres dispositifs touchant à la santé environnementale, notamment :
- la stratégie nationale de santé ;
- la stratégie nationale de recherche ;
- la stratégie nationale pour la biodiversité et les programmes associés (plan nature en ville, plan solide, etc.) ;
- le plan Ecophyto, le plan micropolluants (2010-2013 et le futur), le plan cancer 3 (2014-2018), le plan santé travail 3 (2015-2019), la stratégie nationale sur les perturbateurs endocriniens, le plan qualité de l’air intérieur, le plan national de réduction des émissions de polluants atmosphériques, le programme national nutrition santé ;
- le troisième plan chlordécone ;
- le plan national d’adaptation au changement climatique.
2/ La loi du 26 janvier 2016 de modernisation de notre système de santé :
Comme le PNSE3, cette loi prend en considération plusieurs résultats de la recherche.
Par son intitulé, « Rassembler les acteurs de la santé autour d’une stratégie partagée », le titre liminaire affirme l’attachement du législateur à l’idée de démocratie sanitaire – laquelle est consacrée expressément dans l’intitulé du titre IV –, qui a présidé à l’élaboration du PNSE.
En outre, l’article premier de ce titre liminaire dispose que la Nation définit sa politique de santé, afin de garantir le droit à la protection de la santé de chacun, ce que, comme déjà vu précédemment, le Pr Jean-Claude Ameisen a également suggéré lors de l’audition publique de l’OPECST du 25 novembre 2015. La première des composantes de la politique de santé, énumérées à l’article premier, est la surveillance et l’observation de l’état de santé de la population et l’identification de ses principaux déterminants, notamment ceux liés à l’éducation et aux conditions de vie et de travail.
L’identification de ces déterminants s’appuie sur le concept d’exposome, entendu – grâce à un amendement de notre collègue député et membre de l’OPECST, Gérard Bapt – comme l’intégration au cours de la vie entière de l’ensemble des expositions qui peuvent influer sur la santé humaine.
L’exposome est donc, conformément à ce que les chercheurs ont rapporté, un indicateur des expositions de toute nature auxquelles sont confrontés les individus tout au long de leur vie.
Ainsi que le dispose l’alinéa 5 de l’article premier de la loi du 26 janvier 2016, c’est également sur la base de l’exposome que sont menées les actions de prévention et d’information sur les risques pour la santé liés à des facteurs environnementaux. On retrouve ici cette idée centrale de prévention exprimée dans les travaux des chercheurs mais aussi celle d’information sur les risques sur laquelle l’attention des rapporteurs a été particulièrement appelée par le Pr Mark Rothstein (241), lors de leur déplacement aux États-Unis. En effet, évoquant le cas des fumeurs, le Pr Rothstein s’est demandé s’ils n’étaient pas tenus à une responsabilité plus étendue, en raison de l’obligation dans laquelle ils se trouvent de cesser de fumer ou celle de ne pas fumer dans un espace public. S’y ajoute le cas des femmes fumeuses dont les enfants souffrent des effets épigénétiques du tabac.
Dans ce contexte, le Pr Rothstein a estimé que ce n’est pas la responsabilité individuelle qu’il faut privilégier. Il importe davantage de fournir l’ensemble des informations aux intéressés avant de mettre en cause la responsabilité individuelle.
Le titre Ier intitulé « Renforcer la prévention et la promotion de la santé », comporte un chapitre premier dont l’objet est de soutenir les jeunes pour parvenir à l’égalité des chances en matière de santé.
Plusieurs dispositions font écho aux souhaits ou critiques formulés lors de l’audition publique de l’OPECST du 25 novembre 2015.
Ainsi, au titre de la promotion de la santé en milieu scolaire, est mis en place « un parcours éducatif en santé » qui repose, d’une part, sur l’apprentissage de la prise de soin de soi et d’autrui et, d’autre part, sur la prévention des conduites à risques.
En outre, les programmes d’éducation à la santé développent les connaissances des élèves sur les services de santé.
Dans le cadre des mesures de lutte contre la consommation d’alcool, une prévention ciblée à destination des jeunes est intégrée dans les campagnes de lutte contre l’alcoolisme.
Diverses mesures en vue de lutter contre le tabagisme sont également prévues, parmi lesquelles figure l’obligation impartie à la personne vendant un produit qui contient du tabac d’exiger que le client apporte la preuve de sa majorité. De même, un arrêté fixera-t-il les seuils de distance à respecter entre les débits de tabac et les établissements publics scolaires, de formation et de loisirs. Enfin, une disposition impose la neutralité des emballages de produits du tabac.
En ce qui concerne les équipes de soins primaires organisés autour du médecin généraliste de premier recours, les objectifs qui leur sont assignés résident dans la prévention, l’amélioration et la protection de l’état de santé de la population et la réduction des inégalités sociales et territoriales de santé.
Pour ce qui est de la garantie de l’accès aux soins, la loi précise les conditions dans lesquelles le tiers payant devient un droit universel à partir du 30 novembre 2017.
S’agissant de la formation des professionnels de santé, sujet largement débattu au cours de l’audition publique de l’OPECST du 25 novembre 2015, les objectifs du développement professionnel continu (DPC) sont fixés autour d’une approche d’ensemble regroupant la formation continue et l’évaluation des pratiques professionnelles : maintien et actualisation des connaissances, des compétences et de l’amélioration des pratiques. Les choix des actions de formation pour les professionnels salariés doivent s’inscrire en cohérence avec les priorités de l’établissement et avec une nécessaire pluridisciplinarité.
Enfin, au titre du renforcement de l’efficacité des politiques publiques et de la démocratie sanitaire, le législateur s’est montré soucieux de renforcer la coordination des opérateurs de l’État dans le champ du ministère chargé de la santé, à travers la coordination des programmes de travail annuel pour les agences placées sous la tutelle unique du ministre en charge de la santé.
Quant à l’association des usagers à l’élaboration de la politique de santé, il est prévu de permettre aux associations agréées de saisir directement la Haute autorité de santé (HAS), les réponses de cette dernière étant rendues publiques, le cas échéant, à l’issue d’une audience publique.
De même, la loi prévoit-t-elle la conclusion d’un accord-cadre entre le Comité économique des produits de santé (CEPS) et les associations d’usagers. Cette disposition revêt d’autant plus d’importance, à l’heure où se déroulent de vives controverses sur la transparence des conditions de fixation du prix des médicaments – dont il sera question plus loin.
En effet, le CEPS est un organisme interministériel placé sous l’autorité conjointe des ministres chargés de la santé, de la sécurité sociale et de l’économie, chargé principalement de fixer le prix des médicaments et les tarifs des dispositifs médicaux à usage individuel pris en charge par l’assurance-maladie.
La loi a également accordé le droit aux associations agréées d’être auditionnées par le CEPS.
Enfin, les associations d’usagers agréées ont le droit d’exercer une action de groupe, lorsque plusieurs usagers du système de santé placés dans une situation identique ou similaire ont subi un dommage corporel ayant pour cause commune un manquement aux obligations légales ou contractuelles du même producteur/fournisseur/prestataire d’un produit de santé ou du même prestataire utilisant l’un de ses produits.
• Les dispositions de certaines politiques ciblées
Ces dispositions ciblées sont d’autres exemples illustrant les conditions dans lesquelles les pouvoirs publics prennent en considération les travaux de chercheurs. Deux de ces exemples peuvent être cités.
1/ Le premier exemple a trait à la réglementation relative au bisphénol A (BPA).
La première loi du 30 juin 2010 visait, à titre de précaution, à suspendre la fabrication, l’importation, l’exportation et la mise sur le marché, à titre gratuit ou onéreux, de biberons produits à base de BPA, jusqu’à l’adoption par l’Agence française de sécurité sanitaire des aliments (AFSSA) d’un avis motivé autorisant à nouveau ces opérations.
Quant à la loi du 24 décembre 2012, elle a étendu la suspension des opérations visées par la loi de 2010 :
o à tout conditionnement comportant du BPA et destiné à recevoir des produits alimentaires ;
o à tout conditionnement, contenant ou ustensiles, comportant du BPA et destiné à entrer en contact direct avec des denrées alimentaires pour les nourrissons et enfants en bas âge.
En outre, cette loi a prévu d’interdire, à compter du 1er juillet 2015, l’utilisation de phtalates dans certains matériels utilisés dans les services de pédiatrie, néonatalogie et de maternité des hôpitaux, ainsi que l’utilisation de biberons comportant du BPA.
Les travaux préparatoires des lois de 2010 et de 2012 et ceux de l’OPECST, que la commission des affaires sociales du Sénat avait saisi (242) ont non seulement largement cité la littérature scientifique, en particulier celle des spécialistes de l’épigénétique environnementale mais, en outre, ces mêmes travaux s’en sont inspirés pour formuler des recommandations ou proposer des dispositions législatives.
On relèvera que le Parlement, comme l’ANSES dans son avis de 2013, soulignent la nécessité – déjà évoquée par plusieurs chercheurs – d’acquérir des données scientifiques nouvelles sur la toxicité du BPA, en particulier pour les populations les plus sensibles, et de mieux caractériser les expositions.
Quoiqu’il en soit, le Gouvernement a porté à cette question une attention particulière, puisque, postérieurement à la loi de 2012, le PNSE3 prévoit – au titre des mesures d’action immédiate – la mise en place d’un label ticket de caisse sans BPA et la recherche de substances classées perturbateurs endocriniens dans les jouets. Ce dernier volet va ainsi en partie dans le sens d’une recommandation du rapport de l’OPECST, déjà cité, suggérant que les produits destinés aux femmes enceintes, et aux jeunes enfants soient exempts de perturbateurs endocriniens.
Dans le prolongement du PNSE3, la loi du 26 janvier 2016 de modernisation de notre système de santé a précisément ajouté les jouets ou amusettes comportant du BPA dans la liste des produits dont sont interdites la fabrication, la vente, la mise en vente, l’exposition et l’importation.
De plus, la loi du 26 janvier 2016 prévoit que le Gouvernement remette un rapport au Parlement sur les perturbateurs endocriniens et leurs effets sur la santé humaine dans un délai d’un an à compter de la promulgation de la loi. Ces dispositions s’inscrivent dans le cadre de la stratégie nationale sur les perturbateurs endocriniens adoptée le 29 avril 2014, qui prévoit de confier, dès 2014, à l’ANSES l’expertise d’au moins une quinzaine de substances chimiques sur trois ans.
Quant à l’Agence nationale de sécurité du médicament et des produits de santé (ANSM), ses travaux sur les perturbateurs endocriniens seront également accélérés, afin d’évaluer, chaque année, au moins trois substances suspectées d’être des perturbateurs endocriniens dans son champ de compétence et, notamment, dans les cosmétiques.
2/ Le plan cancer est un second exemple illustrant la mise en application de certains thèmes de recherche par les pouvoirs publics. Ainsi, a-t-on pu observer que « Pour la première fois dans l’histoire des politiques de santé de notre pays, le deuxième plan cancer (2009-2013), construit à partir du rapport du Pr Jean-Pierre Grünfeld, avait fait de la lutte contre les inégalités, non pas un simple indicateur parmi des dizaines d’autres mais la priorité centrale de toute l’action politique face au cancer » (243).
Des progrès sont certes intervenus, touchant, par exemple, à l’accès croissant au séquençage des tumeurs grâce aux vingt-huit plates-formes d’évaluation moléculaire développées par l’Institut du cancer après le deuxième plan cancer – un système que le monde entier nous envie, selon le Pr Jean-Paul Vernant (244), auteur du rapport sur le troisième plan cancer. Pour autant, certaines de ces inégalités persistent, pour ce qui concerne, entre autres, la prévention, l’accès au dépistage, le retard du diagnostic, ou encore l’accès aux traitements innovants. Sur ce dernier point, on a estimé que moins de 15 % des cas de métastases cérébrales bénéficieraient de ces traitements innovants (245).
C’est pourquoi, la réduction des inégalités des pertes de chance face aux cancers est déclinée à travers les quatre objectifs de ce troisième plan cancer, à savoir :
o guérir plus de personnes malades, en favorisant le diagnostic précoce et en garantissant l’accès à une médecine de qualité et aux innovations ;
o préserver la continuité et la qualité de vie, en proposant une prise en charge globale de la personne pendant et après la maladie, tenant compte de l’ensemble de ses besoins ;
o investir dans la prévention et la recherche pour réduire le nombre de nouveaux cas de cancer et préparer les progrès à venir ;
o optimiser le pilotage des organisations de la lutte contre les cancers pour une meilleure efficience, en y associant pleinement les personnes malades et les usagers du système de santé.
Le plan porte aussi une attention particulière aux besoins des enfants, adolescents et jeunes adultes atteints de cancer, pour faire progresser l’accès à l’innovation et améliorer encore la qualité des soins, ainsi que l’accompagnement des enfants et de leur famille pendant et après la maladie.
• La création d’un comité interministériel pour la santé
Un décret du 10 juin 2014 a créé un comité interministériel, qui a pour mission de promouvoir la prise en compte de la santé dans l’ensemble des politiques publiques, objectif qui s’inscrit dans l’approche holistique des politiques de santé, défendue par certains chercheurs. À cet égard, l’exposé des motifs de ce décret indique que « L’action coordonnée, au niveau interministériel sur l’ensemble des déterminants de la santé (déterminants sociaux, environnementaux, éducatifs, etc.) est reconnue par tous les acteurs comme le principal levier d’amélioration de l’état de santé d’une population et de réduction des inégalités sociales et territoriales de santé ».
Ce comité regroupe, autour du Premier ministre, tous les ministres. Il suit l’élaboration et la mise en œuvre des plans ou programmes d’action qu’élaborent les ministres dans le cadre de leurs attributions lorsque ces mesures sont susceptibles d’avoir un impact significatif sur la santé et la réduction des inégalités sociales et territoriales de santé. Le comité interministériel pour la santé veille à ce que l’articulation des politiques publiques en faveur de la santé soit développée au niveau régional. Pour préparer les décisions de ce comité, chaque ministre désigne un haut fonctionnaire.
o Pour certains chercheurs, l’Affordable Care Act (ACA) du 23 mars 2010 – encore appelée Obama Care – est considéré comme une illustration de l’approche holistique de la politique de santé.
Cette loi prévoit d’abord des dispositions visant à étendre le bénéfice d’une couverture de l’assurance-maladie à environ trente-deux millions d’Américains.
Les autres dispositions poursuivent des objectifs identifiés par la recherche :
• L’accent sur la prévention et le bien-être
La loi établit ainsi un fonds pour la prévention et la santé publique, afin qu’il verse des subventions destinées à financer des activités, telles que le dépistage des maladies et la vaccination en 2010.
L’ACA institue également un Conseil de santé publique en charge de la prévention au plan national et de la promotion de la santé pour mener les actions de prévention, dans la lutte contre le tabagisme, l’inactivité physique et la mauvaise alimentation.
Dans la même perspective, l’ACA impose, à compter du 20 mars 2010, la couverture par les assurances de soins préventifs, tels que la vaccination, les soins préventifs dispensés aux enfants et un dépistage particulier des adultes souffrant d’une pression artérielle élevée, d’un taux élevé de cholestérol, du diabète et du cancer.
Dans le cadre des actions préventives contre l’obésité, la loi oblige les chaînes de restauration ayant vingt sites ou plus de prévoir une information sur le contenu calorique des menus et, sur demande, sur le contenu en graisse et en sel.
Enfin, les programmes du Medicaid (246) devront comprendre des services destinés à aider les femmes qui y sont inscrites à cesser de fumer.
• L’amélioration de la qualité de la santé et la performance du système de santé
La loi prévoit, entre autres mesures :
- l’instauration d’une recherche destinée à comparer l’efficacité de différents traitements médicaux ;
- l’amélioration de la coordination des soins entre Medicare (247) et Medicaid ;
- la collecte des données des remontées d’informations sur les inégalités de santé entre ethnies, territoires, genres, et celles dues aux handicaps.
• La promotion du développement de la santé au travail
La loi traite des problèmes d’emploi à travers diverses dispositions incluant les réformes des études médicales, l’amélioration de la formation des professions de santé, le soutien au modèle des soins primaires, telles que les maisons de santé et les équipes gérant les maladies chroniques, l’augmentation du financement des centres de santé de quartier, ainsi que le soutien au centre de médecine scolaire et aux dispensaires.
• La maîtrise de la croissance des dépenses de santé
Des dispositions sont destinées à instaurer un contrôle accru des cotisations d’assurance maladie et des pratiques, à mettre l’accent sur la prévention, les traitements efficaces à la réduction des fraudes aux soins et à leurs abus, à encourager la comparaison entre primes d’assurance, en vue d’accroître la concurrence et la transparence des prix.
- Postérieurement à l’ACA, le président Obama a proposé, en 2015, dans son discours sur l’État de l’Union, de lancer une initiative de médecine de précision d’un coût de 215 millions de dollars (soit environ 200 millions d’euros), qui visera à étudier les dossiers médicaux et l’ADN d’un million de volontaires et de fonctionnaires.
Une grande partie de ces dotations – soit 130 millions de dollars (120 millions d’euros) – sera alloué aux NIH, en vue de mettre en œuvre une étude à grande échelle visant à savoir comment les gènes des individus, l’environnement et le style de vie affectent leur santé, ce qui correspond à l’objet même de l’épigénétique.
Cette initiative, comprendra également l’allocation d’une dotation de 70 millions de dollars pour une recherche sur le cancer et une autre dotation de 10 millions de dollars (soit 9 millions d’euros) pour la FDA, qui a souhaité réguler les tests génomiques.
Certains experts ont vu dans cette initiative un outil destiné à freiner l’augmentation des dépenses de santé.
Un premier grand contrat a été conclu au mois de juin 2016, entre le NIH à hauteur de 142 millions de dollars – soit 130 millions d’euros – et la Mayo Clinic de Rochester, dans le Minnesota.
Cet argent servira à construire ce qui est décrit comme la plus grande biobanque de recherche, dotée d’une capacité de 33 millions de spécimens.
Compte tenu de la place importante occupée par la recherche dans nos travaux, il est apparu intéressant aux rapporteurs de faire état, à ce stade, des conditions dans lesquelles la recherche en épigénétique est organisée et financée au Canada.
Trois organismes jouent un rôle-clé dans le domaine de l’épigénétique :
- Le Consortium canadien de recherche en épigénétique, environnement et santé (CCREES) ;
- le Consortium de génomique structurale ;
- L’Institut NEOMED.
• Le Consortium canadien de recherche en épigénétique, environnement et santé (CCREES)
Créé en 2012, Le CCREES est en charge de la recherche de pointe sur le rôle de l’ADN et des interactions environnementales sur la santé des maladies humaines.
Le CCREES est le fruit d’une initiative conjointe de Génome Québec, de Génome Canada (248) et des Instituts de recherche de santé du Canada (IRSC). Ce partenariat a permis la création, au sein du CCREES, d’un programme, « Plate-forme en épigénomique », lequel sert de tremplin pour l’expertise canadienne en séquençage génomique. Le programme soutient deux centres de séquençage épigénomique et deux centres de coordination des donnés épigénomiques.
Le CCREES a perçu, en 2012, une dotation de 41 millions de dollars (soit 30 millions d’euros) pour une période de six années. Le gouvernement canadien
– par le truchement des IRSC – a versé 28,5 millions de dollars (soit 21 millions d’euros), le reste provenant de l’agence japonaise des sciences de la technologie, de Génome Colombie Britannique, du fonds de recherche du Québec – santé de Génome Québec.
• Le Consortium de génomique structurale (CGS)
Créé en juillet 2004, le CGS est un partenariat public-privé international à but non lucratif, dont l’objet est la découverte de nouveaux médicaments par la détermination des structures tridimensionnelles de protéines d’intérêt pour la médecine.
Avec plus de deux cents chercheurs basés dans des laboratoires à Toronto, au Canada, et à Oxford, en Angleterre, le CGS est la principale source d’information dans le monde sur la structure de protéines importantes dans la mise au point de nouveaux traitements contre le cancer, le diabète, l’obésité, les maladies inflammatoires et les troubles psychiatriques. Neuf sociétés pharmaceutiques et des partenaires publics, dont les IRSC, financent ce consortium. Pour 2015-2016, le budget du CGS est de 41 millions de dollars (soit 30 millions d’euros).
Tous les produits des travaux du CGS, y compris les sondes chimiques sont mis à disposition du public sans restriction quant à leur utilisation.
Dans le cadre de ce partenariat public-privé, les sociétés pharmaceutiques donnent au CGS l’accès à des répertoires de milliers de molécules à effet thérapeutique, que le CGS peut utiliser dans ses analyses pour déterminer celles permettant d’inhiber une protéine particulière.
Les chercheurs de l’industrie travaillent ensuite à optimiser les molécules prometteuses, en fonction de la correspondance de substances chimiques à la structure tridimensionnelle des protéines. Cette collaboration a mené à la conception de vingt-sept sondes chimiques (249), qui sont accessibles à la communauté scientifique.
Au titre des projets de recherche actuelle financés par les IRSC, les chercheurs du CGS se consacrent à la découverte de médicaments épigénétiques pour la création de nouveaux traitements contre les maladies inflammatoires de l’intestin et différents cancers. Selon une récente étude, ces médicaments anticancéreux pourraient améliorer les chances de survie du patient, en réduisant la fréquence de la rechute.
Il y a lieu de noter que le groupe de travail épigénétique d’Aviesan s’était penché sur la question d’adapter, en France, un organe analogue au Consortium de génétique structurelle.
Pour autant, le groupe de travail avait constaté que, si les ressources humaines existent, en revanche, une coordination nationale fait défaut, chaque équipe travaillant sur ses thématiques de manière isolée.
Fondée en 2012, l’Institut NEOMED est un organisme à but non lucratif, dont la mission est d’être un pont entre la recherche académique et la mise sur le marché de nouveaux médicaments.
Une dotation initiale de 100 millions de dollars (73 millions d’euros) avait été investie pour établir et soutenir ce centre de recherche pendant cinq ans.
Comme l’a indiqué M. Philippe Walker, chef de la direction scientifique de NEOMED, à l’origine de la création de NEOMED, il a été constaté que les laboratoires académiques n’étaient que très rarement et potentiellement capables de conduire les phases initiales de découverte des médicaments. D’où l’idée de créer un institut qui permettrait de traduire les découvertes académiques en projets qui seraient rachetés par des laboratoires pharmaceutiques ou des fonds d’investissement, le but étant évidemment d’aider le développement économique des sciences de la vie.
Parallèlement était imposé un nouveau paradigme au sein de l’industrie pharmaceutique pour les années 2000, qui a vu cette dernière abandonner tout ou partie des capacités internes de recherches précoces, afin d’utiliser les fonds ainsi libérés pour acheter des projets venant de l’extérieur et qui ne seraient plus risqués.
Ainsi, dans un schéma simplifié, la démarche de NEOMED se déroule en quatre phases :
1. NEOMED identifie une idée prometteuse dans le laboratoire de chercheurs académiques,
2. NEOMED négocie avec le laboratoire les conditions du partenariat,
3. NEOMED prend le leadership du projet et fournit des fonds et des experts industriels, y compris un directeur de projet, afin de mener ce projet à une étape qui incitera des partenaires pharmaceutiques à acheter ce projet,
4. Les fonds obtenus sont ensuite répartis entre le fonds NEOMED et le laboratoire à l’origine du projet.
Financé conjointement par l’industrie pharmaceutique, le ministère de l’économie, de la science et de l’innovation du Québec et par les Réseaux du centre d’excellence du Canada (RCE), NEOMED est parvenu à déployer, à ce jour, une activité dont les faits saillants sont :
- en février 2016, la création d’un centre d’excellence en commercialisation par Santé Canada du démarrage de la phase I clinique d’un médicament contre la douleur associée à l’arthrose ;
- en février 2016, la conclusion d’un partenariat stratégique avec Axxam Spa, pour la découverte de nouveaux médicaments pour traiter des maladies métaboliques.
NEOMED en chiffres s plus de 90 M$ en financement et contributions en nature, publiques et privées, dont 50M$ consacrés à la recherche et au développement, s cinq partenaires Pharma : AstraZeneca, Pfizer, Janssen, GSK et Purdue, s Portefeuille de neuf projets innovants à différents stades de développement, s deux programmes cliniques ciblant des besoins médicaux non comblés, s deux infrastructures exceptionnelles pour soutenir les efforts de découverte de médicaments, s vingt-six entreprises indépendantes employant 290 personnes et offrant des services en chimie médicinale, en développement de tests biologiques, en pharmacocinétique, en métabolisme, etc. |
L’entretien que les rapporteurs ont eu avec M. Philippe Walker les a confortés dans leur conviction que la distinction généralement établie entre recherche fondamentale et recherche appliquée était sans fondement, celle-ci ne pouvant exister sans celle-là.
Si les interlocuteurs des rapporteurs ont indiqué que, à la différence de la France, le législateur de la Confédération helvétique n’avait pas consacré la notion d’exposome, ils ont fait toutefois part de deux initiatives importantes :
La première, appelée Health 2030, est une initiative de médecine personnalisée réunissant le Centre hospitalier universitaire vaudois (CHUV), l’école polytechnique fédérale de Lausanne (EPFL), l’université de Lausanne (UNIL), les hôpitaux universitaires de Genève (HUG) et l’université de Genève (UNIG). En cas de succès, d’autres partenaires pourraient s’y joindre et l’initiative prendre une ampleur nationale. Ainsi, la start-up suisse Sofia Genetics pourrait participer à cette initiative. En effet, cette société s’est spécialisée dans l’analyse des milliers de données liées au séquençage d’un seul génome, son algorithme permettant de mutualiser les données et, en cas de mutation de l’ADN, d’aboutir à des diagnostics plus élaborés.
À cet égard, le Pr Didier Trono (250) a considéré qu’une telle initiative devait permettre une stratification des thérapies – notamment en ce qui concerne les cancers – car, plus les individus seront séquencés, plus les connaissances sur les maladies s’accumuleront, ce qui contribuera au développement des thérapies appropriées aux profils des patients.
En outre, en réponse à l’observation des rapporteurs selon laquelle l’évolution vers une médecine plus connectée et plus personnalisée nécessitera une révolution de l’industrie pharmaceutique, le Pr Trono a estimé que le milieu académique était fondé à lancer cette initiative sans même attendre que les groupes pharmaceutiques procèdent à cette révolution.
La seconde initiative touche à la création du Swiss Data Center dont il a été fait état précédemment. Nous renvoyons, sur ce point, aux observations antérieures.
Ainsi qu’on l’a vu précédemment, l’Union européenne a financé d’importants projets touchant non seulement à la recherche fondamentale, tels que Blueprint ou encore Epigenesys mais, en outre, elle a marqué son intérêt pour des thèmes identifiés par l’épigénétique environnementale. Il en est ainsi du projet Exposomics, qui vise à développer une nouvelle approche de l’évaluation de l’exposition au niveau des individus et des populations en caractérisant les composantes externes et internes de l’exposome et en se concentrant sur les contaminants de l’air et de l’eau au cours des périodes essentielles de la vie.
De même, le projet ESCAPE (European study of cohorts for air pollution effects), qui inclut soixante-dix mille nouveau-nés dans une douzaine de pays, a pour objet d’examiner les effets à long terme sur la santé humaine de l’exposition à la pollution de l’air en Europe. Cette étude a été justifiée par le fait que les estimations de l’impact des particules fines sur la santé des Européens, notamment, étaient trop larges.
Dans le cadre du programme Horizon 2020, la Commission européenne a lancé, dans le domaine de la santé, un appel à projets dont l’un des axes vise à développer des initiatives qui permettent de lutter contre les maladies chroniques et la promotion du vieillissement en bonne santé, tout au long de la vie.
Un autre projet a pour objectif d’évaluer et de comparer des stratégies et les interventions relatives aux maladies neurodégénératives ainsi que la qualité, l’accès et le rapport coût-efficacité des systèmes de soins de santé.
Que ce soit à travers de l’assemblée générale ou ses institutions spécialisées, l’ONU a marqué un grand intérêt pour les travaux de la recherche.
- Comme vu précédemment, l’assemblée générale a tenu un sommet de haut niveau, les 19 et 20 septembre 2011, consacré à la prévention et au contrôle des maladies non transmissibles. En cette occasion, les États membres avaient adopté une déclaration visant à mettre en œuvre des politiques de prévention et de traitement de ces maladies. L’assemblée générale s’était focalisée sur quatre grands groupes de maladies chroniques – cancer, diabète, maladies cardio-vasculaires et maladies respiratoires et sur quatre grands facteurs de risque : tabac, alcool, alimentation et scolarité, questions que la recherche a traitées.
- S’agissant des institutions spécialisées, dont l’OMS, cette dernière s’est saisie des thèmes majeurs, tels que les déterminants sociaux de la santé, pour lesquels elle avait proposé un cadre d’action en 2010, plusieurs conférences internationales s’en étant saisies ultérieurement.
- Dans la même perspective, la problématique de l’approche holistique de la santé (Health in all policies) a également été l’objet de diverses conférences internationales.
- Il y a lieu également de souligner le rôle joué par le centre international de recherche sur le cancer qui dépend de l’OMS. Comme déjà vu, son directeur, M. Christopher Wild, père de la notion d’exposome, est l’auteur d’autres importantes études. Des chercheurs du CIRC ont, quant à eux, indiqué dans une étude de 2013 que, « L’inclusion de l’épigénétique dans l’ordre du jour des ateliers du CIRC sur la concordance des tumeurs et les mécanismes de carcinogenèse, qui se sont tenus en novembre 2012, est la preuve de la reconnaissance croissante de l’importance des mécanismes épigénétiques dans la carcinogenèse. L’incorporation des mécanismes épigénétiques dans l’identification et l’évaluation des risques sera une importante contribution des programmes du CIRC » (251).
Incontestablement, les résultats accumulés par la recherche ont permis aux autorités publiques de disposer de nombreuses données susceptibles d’orienter plus efficacement leur politique de santé.
Certes, les rapporteurs n’ignorent pas que certaines recherches, loin de contribuer à l’amélioration du bien-être des populations ont pu inspirer des idées préconisant l’eugénisme ou la discrimination raciale, ou encore la stigmatisation de certains individus. Mais ils ont souhaité plutôt examiner les raisons pour lesquelles, malgré les évidences résultant des travaux des chercheurs, les politiques publiques de santé ne parviennent pas à être plus efficaces.
2. Des politiques aux effets limités
D’un côté, de nombreux dysfonctionnements affectent la mise en œuvre des politiques publiques. De l’autre, les comportements des acteurs privés s’avèrent contraires aux exigences d’une politique de santé efficace.
De nombreux dysfonctionnements affectent leur mise en œuvre. Ces dysfonctionnements ont trait à la non-pertinence des orientations budgétaires ainsi qu’à la défaillance des dispositifs institutionnels.
a. Des orientations budgétaires non pertinentes
Alors que les travaux de la recherche – qu’il s’agisse de ceux de la recherche clinique, de la DOHaD ou de l’épigénétique environnementale – insistent sur le caractère prioritaire de la politique de prévention, celle-ci demeure le parent pauvre des politiques de santé. S’y ajoutent les effets pervers s’attachant à diverses mesures.
i. La prévention, parent pauvre des politiques publiques de santé
C’est malheureusement un fait universel que l’on peut constater en France, comme dans d’autres pays.
o La France
Le tableau ci-après élaboré par l’INSEE relatif à l’évolution des dépenses courantes de santé entre 2006 et 2014 fait parfaitement écho aux critiques qui ont pu être formulées lors des deux auditions publiques de l’OPECST de 2015 quant à la faiblesse extrême de leur montant.
En effet, alors que, entre 2006 et 2014, le montant total des dépenses courantes de santé est passé de 153,7 milliards d’euros à 190,6 milliards d’euros, soit une hausse de près de 20 %, les dépenses de prévention collective ont pratiquement stagné, s’établissant à 2,2 milliards d’euros en 2006 et à 2,3 milliards d’euros en 2014, soit 1,5 % du montant total des dépenses courantes de santé.
Certes, si l’on y ajoute les dépenses de prévention individuelle, le montant total des dépenses de prévention a atteint, en 2014, 5,8 milliards d’euros. Il n’en reste pas moins, que ce montant total a fort peu augmenté, puisqu’en 2006, il s’établissait à 5,2 milliards d’euros et que, en tout état de cause, en 2014, il représente seulement environ 3 % des dépenses courantes de santé.
En second lieu, le deuxième tableau ci-après, élaboré par la Direction de la recherche, des études, de l’évaluation et des statistiques (DREES), décomposant l’affectation des dépenses de prévention collective au cours des années 2010 à 2014, fait apparaître que, dans des domaines majeurs – évoqués lors de l’audition de l’OPECST du 25 novembre 2015 – tels que l’éducation à la santé ou la prévention et la lutte contre la pollution – les dépenses ont baissé. Les dépenses d’éducation à la santé ont été ramenées de 369 millions d’euros à 334 millions d’euros, soit une diminution de près de 9,5 %. Quant aux dépenses concernant la lutte contre la pollution, elles ont diminué de 225 millions d’euros à 138 millions d’euros, soit une baisse de 38,6 %.
Dépenses courantes de santé en France en 2014 en milliards d’euros courants | |||||||||
2006 |
2007 |
2008 |
2009 |
2010 |
2011 |
2012 |
2013 |
2014 | |
Consommation de soins et de biens médicaux (CSBM) |
153,7 |
159,8 |
164,8 |
169,9 |
173,6 |
178,4 |
182,2 |
185,9 |
190,6 |
Soin aux particuliers |
113,1 |
117,4 |
121,1 |
125,5 |
128,4 |
132,2 |
135,9 |
139,6 |
142,9 |
Soins hospitaliers |
70,5 |
72,9 |
75,3 |
78,3 |
80,2 |
82,4 |
84,5 |
86,6 |
88,6 |
Secteur public |
54,4 |
56,2 |
57,9 |
60,2 |
61,7 |
63,3 |
65,0 |
66,8 |
68,3 |
Secteur privé |
16,2 |
16,6 |
17,4 |
18,0 |
18,5 |
19,1 |
19,5 |
19,8 |
20,3 |
Soins de ville |
39,5 |
41,3 |
42,4 |
43,6 |
44,3 |
45,9 |
47,4 |
48,7 |
50,0 |
Transport de malades |
3,1 |
3,3 |
3,4 |
3,6 |
3,8 |
3,9 |
4,1 |
4,3 |
4,4 |
Médicaments |
31,1 |
32,2 |
33,0 |
33,5 |
33,7 |
34,0 |
33,6 |
33,0 |
33,9 |
Médicaments autres biens médicaux |
9,4 |
10,1 |
10,7 |
10,9 |
11,6 |
12,2 |
12,7 |
13,3 |
13,8 |
Soins de longue durée (1) |
12,9 |
13,9 |
15,2 |
16,6 |
17,2 |
17,8 |
18,5 |
19,2 |
19,7 |
Services de soins et d’aide à domicile (SSAD) |
1,0 |
1,1 |
1,2 |
1,3 |
1,3 |
1,4 |
1,5 |
1,5 |
1,6 |
Soins personnes âgés en établissements |
5,0 |
5,5 |
6,2 |
7,2 |
7,6 |
7,9 |
8,3 |
8,6 |
8,8 |
Soins personnes handicapées en établissements |
6,9 |
7,3 |
7,7 |
8,0 |
8,3 |
8,5 |
8,8 |
9,0 |
9,3 |
Indemnités journalières |
10,7 |
11,0 |
11,6 |
12,1 |
12,6 |
12,8 |
12,8 |
12,8 |
13,3 |
Autres dépenses en faveur des malades |
0,3 |
0,4 |
0,4 |
6,4 |
0,5 |
0,5 |
0,6 |
0,6 |
0,6 |
Dépenses de prévention |
5,2 |
5,4 |
5,6 |
3,4 |
5,7 |
5,7 |
5,7 |
5,8 |
5,8 |
Prévention individuelle |
3,0 |
3,1 |
3,2 |
3,0 |
3,3 |
3,4 |
3,4 |
3,5 |
3,5 |
Prévention collective |
2,2 |
2,3 |
2,4 |
11,2 |
2,4 |
2,3 |
2,3 |
2,3 |
2,3 |
Dépenses en faveur du système de soins |
10,4 |
10,5 |
11,2 |
2,0 |
11,4 |
11,7 |
11,8 |
12,2 |
11,9 |
Subventions au système de soins |
2,1 |
1,7 |
1,9 |
7,5 |
2,2 |
2,2 |
2,4 |
2,6 |
2,4 |
Recherche |
7,0 |
7,2 |
7,6 |
1,8 |
7,4 |
7,5 |
7,5 |
7,6 |
7,5 |
Formation |
1,3 |
1,5 |
1,7 |
13,2 |
1,8 |
1,9 |
1,9 |
2,0 |
2,0 |
Coûts de gestion du système de santé (2) |
11,9 |
12,2 |
12,8 |
229,9 |
13,6 |
14,1 |
14,3 |
14,8 |
14,9 |
Dépenses courantes de santé |
205,2 |
213,1 |
221,6 |
11,9 |
234,6 |
241,0 |
245,8 |
251,3 |
256,9 |
En % du PIB |
11,1 |
11,0 |
11,1 |
11,9 |
11,7 |
11,7 |
11,8 |
11,9 |
12,0 |
(1) : son personne âgée ou handicapées en établissements et services de soins infirmiers à domicile. (2) : le coût de gestion des organismes complémentaires est calculé hors contribution au Fonds CMU. |
Sources : Drees, comptes nationaux de la santé - base 2010, Insee.
Dépenses de prévention en France en 2014
En millions d’euros
2010 (r) |
2011 (r) |
2012 (r) |
2013 (r) |
2014 | |
Prévention individuelle primaire |
2791 |
2800 |
2807 |
2929 |
2947 |
Vaccins |
109 |
111 |
109 |
108 |
109 |
PMI (1) - planning familial |
688 |
683 |
673 |
681 |
670 |
Médecine du travail |
1512 |
1536 |
1527 |
1599 |
1619 |
Médecine scolaire |
482 |
470 |
498 |
540 |
549 |
Prévention individuelle secondaire |
646 |
665 |
660 |
687 |
666 |
dont : | |||||
Dépistage des tumeurs |
173 |
193 |
184 |
194 |
179 |
Dépistage et lutte contre les maladies infectieuses |
208 |
212 |
208 |
216 |
209 |
Examens de santé |
181 |
180 |
182 |
184 |
183 |
Prévention collective |
2369 |
2347 |
2336 |
2277 |
2251 |
Prévention à visée comportementale |
511 |
493 |
483 |
476 |
459 |
Dont information, promotion, éducation à la santé |
369 |
353 |
344 |
343 |
334 |
Prévention à visée environnementale |
1858 |
1854 |
1852 |
1801 |
1792 |
Hygiène du milieu (2) |
530 |
538 |
533 |
536 |
553 |
Prévention des risques professionnels |
250 |
258 |
254 |
260 |
247 |
Prévention et lutte contre la pollution |
225 |
198 |
172 |
143 |
138 |
Observation veille, recherche, règlement (3) |
301 |
287 |
307 |
309 |
304 |
Urgences et crises |
-28 |
26 |
42 |
48 |
39 |
Sécurité sanitaire et l’alimentation |
582 |
546 |
544 |
505 |
512 |
Total des dépenses de prévention |
5806 |
5812 |
5803 |
5892 |
5864 |
R : données révisées.
(1) : protection maternelle et infantile.
(2) : y.c. lutte anti-vectorielle.
(3) : rédaction et mise en application des règlements concernant la veille et la sécurité sanitaire, recherche en prévention sanitaire.
Source : Drees.
o Les États-Unis
Comme déjà mentionné précédemment, l’Obama Care a, certes, institué un fonds destiné à financer les actions de prévention mais le montant des dotations qui lui a été alloué a pratiquement stagné – et même légèrement baissé – puisqu’il a été ramené de 1 milliard de dollars en 2012 à 932 millions de dollars en 2016.
En tout état de cause, les dépenses consacrées à la prévention ne représentent qu’une infime part du budget 2016, qui s’établit à 6,7 trillions de dollars, et du total des dépenses de santé, qui s’est élevé à plus de trois trillions de dollars en 2014.
o Le Canada
Comme aux États-Unis, le montant des dépenses de prévention – visant à la promotion de la santé et à la prévention des maladies – semble pratiquement stagner entre 2013 et les dépenses prévues pour 2018-2019, comme le montre le tableau ci-dessous (en milliards de dollars) :
Dépenses de prévention au Canada
2013-2014 |
2014-2015 |
2015-2016 |
2007-2017 |
2017-2018 |
2018-2019 |
Dépenses effectuées |
Dépenses effectuées |
Dépenses estimées |
Prévisions |
Prévisions |
Prévisions |
305,929 |
351,380 |
305,370 |
300,679 |
304,629 |
306,723 |
Source : Agence de santé du Canada. |
Force est de constater que, selon une situation analogue à celle des autres pays précédemment cités, les dépenses de prévention ne représentent qu’une part infime de l’ensemble des dépenses de santé – soit environ 1,4 % – lesquelles ont atteint 219,1 milliard de dollars en 2015 soit 10,3 % du PIB.
o La Suisse
Un rapport récent (252) rend bien compte du rôle mineur joué par la prévention, indiquant que le montant des dépenses qui lui étaient consacrées en 2013 atteignaient 1,54 milliard de francs suisses (soit 1,25 milliard d’euros). Ce chiffre est à rapprocher de celui des dépenses totales de santé, qui atteignait 68 milliards de francs suisses (55,3 milliards d’euros) en 2012, soit environ 11 % du PNB.
Il apparaît donc que les dépenses de prévention représentent environ 2,2 % du montant total des dépenses de santé en 2012.
Au vu de ces différentes statistiques, une conclusion s’impose : le niveau des dépenses de prévention est si dérisoire que l’on voit mal comment elles peuvent réellement contribuer un tant soit peu à la promotion de la santé et, corrélativement, à une baisse significative des dépenses de santé, dont on sait précisément, qu’elles n’ont cessé d’augmenter, dans les quatre États considérés, au cours des dix dernières années.
Bien au contraire, les dépenses de prévention et d’autres mesures s’avèrent être des sources d’effets pervers.
ii. Les effets pervers de certaines mesures
D’un côté, les politiques de prévention suscitent d’intenses débats quant à leur adéquation aux objectifs qu’elles se fixent. De l’autre, du fait des contraintes auxquelles elles se heurtent, la notion même de démocratie sanitaire risque d’être vidée de son contenu.
Que ce soit en France ou en Amérique du Nord, il existe un constat partagé qu’un rapport de la Cour des comptes (253) a formulé quant à l’insuffisante recherche d’efficience des politiques de prévention.
1/ L’inadéquation des politiques de prévention à leurs objectifs
Cette lacune majeure tient, d’une part, aux modalités de l’évaluation et, d’autre part, à la question mal résolue du retour sur investissement de la prévention.
o Les modalités de l’évaluation
L’évaluation peut en effet, être inexistante, ou insatisfaisante.
Le rapport de la Cour des comptes déplore l’absence en France d’évaluations médico-économiques en matière de santé publique, en citant, à l’appui, plusieurs exemples. Pour autant, le troisième plan cancer, notamment, prend en compte une telle évaluation, en ce qui concerne, par exemple, l’impact psychosocial de la maladie après guérison des enfants et des adolescents atteints de cancer.
Au Canada, une étude de l’Agence de la santé publique constate que de nombreuses mesures de prévention n’ont pas fait l’objet d’une étude de rentabilité économique.
En second lieu, l’évaluation peut être insatisfaisante. Ainsi, lors de l’audition publique de l’OPECST du 25 novembre 2015, Mme Marie-Aline Charles a-t-elle fait part du fait qu’il lui a fallu attendre une année pour procéder à l’évaluation d’une intervention non médicamenteuse nutritionnelle, au motif que les autorités ne savaient pas s’il convenait de la classer, ou non, parmi les recherches biomédicales. En outre, elle a fait observer que peu de chercheurs souhaitaient s’impliquer en raison du fait que la participation à de telles interventions n’est pas prise en compte dans leur évaluation.
o La question mal résolue du retour sur investissement de la prévention
Dans son rapport sur la prévention sanitaire, la Cour des comptes souligne que : « Il est commun de considérer la prévention comme un investissement, qui permettrait de générer des économies sur les dépenses de santé. Les études disponibles ne confirment pas cette approche intuitive ».
En effet, outre-Atlantique, de très nombreuses études abondent dans le sens de ces observations. C’est ainsi qu’une étude de 2010 de la revue Health affairs a calculé que, si 90 % de la population des États-Unis recouraient davantage à des soins de prévention, cela ne permettrait d’économiser que 0,2 % des dépenses de santé.
Certains expliquent ces résultats médiocres, par le coût élevé de mesures dont l’efficacité sanitaire est limitée. Ainsi une méta-analyse de 2012 a indiqué que les visites médicales annuelles des adultes en bonne santé ne réduisaient que faiblement le risque de maladies graves ou celui d’une mort prématurée. Mais le fait qu’un tiers des Américains y recourt néanmoins, représente un coût estimé à 8 milliards de dollars.
D’autres soulignent que le montant des économies susceptibles d’être réalisées varie selon la nature des outils utilisés. Le dépistage de l’hypertension et de certains cancers – ceux du côlon et du sein – sont considérés comme des bons investissements, parce que leur coût est de 25 000 dollars par an contre 100 000 dollars pour des traitements ordinaires comme l’angioplastie.
2/ L’idée de démocratie sanitaire à l’épreuve de certains arbitrages
L’avis n° 101 du Comité consultatif national d’éthique (CCNE) du 28 juin 2007 relatif aux enjeux éthiques de la contrainte budgétaire sur les dépenses de santé en milieu hospitalier résume bien la tension pouvant exister entre l’impératif de rationalisation des dépenses de santé et la nécessité de lutter contre les inégalités de santé. En effet, si « le CCNE reconnaît évidemment la légitimité d’un arbitrage dans le respect des contraintes budgétaires de l’État », il tient toutefois à préciser qu’« on ne peut pas se limiter à un équilibre comptable qui ne tiendrait compte que du passif (le coût des services), sans les mettre en balance avec l’actif qui en est la contrepartie (les bénéfices pour la collectivité ou ceux éventuellement escomptés d’un nouveau mode de calcul) ; on ne peut pas éviter non plus de prendre en compte les effets globaux, y compris les effets pervers qui peuvent survenir, lorsqu’un critère déterminé privilégie trop un mode exclusif de mesures comptables censées conduire à une meilleure maîtrise des coûts hospitaliers ».
Ces propos du CCNE doivent être combinés avec une de ses autres importantes remarques. Ainsi, le CCNE ne manque-t-il pas de relever que « notre pays présente le paradoxe de faire bénéficier ses habitants d’une espérance de vie parmi les plus élevées au monde mais de compter, en même temps, des inégalités très importantes au plan sanitaire ; l’espérance de vie des personnes les plus défavorisées se rapproche, en France, de celle de certains pays du tiers monde ».
Faisant écho aux observations du CCNE, une étude américaine citée précédemment déplore que la liaison intime entre politiques sociales et politiques de santé ne soit pas encore comprise par les décideurs publics ni par le public.
Les auteurs de cette étude observent, en effet, que la récession a rivé l’attention sur le besoin d’emploi et de croissance économique.
Or, les programmes publics destinés à remédier à l’échec du système éducatif, à la disparition des emplois et à développer les quartiers sont examinés scrupuleusement, étant donné que la crise budgétaire contraint à des réductions de dépenses en vue d’assurer l’équilibre budgétaire et d’abaisser le niveau de la dette publique.
Dans ce contexte, les auteurs estiment que défendre ces programmes exige plus que d’invoquer des arguments moraux pour les maintenir et les développer et dans lesquels il importe d’inclure les dépenses de santé.
b. La défaillance des dispositifs institutionnels
Ce deuxième aspect des dysfonctionnements affectant les politiques de santé tient, d’une part, au fait que ces dernières ne sont pas toujours bien coordonnées et, d’autre part, à ce qu’elles font défaut dans les domaines pourtant essentiels.
i. La question récurrente de la coordination des politiques publiques de santé
Dans la perspective d’une démarche holistique – qui, comme déjà souligné, est une condition nécessaire pour aborder efficacement les problématiques des déterminants sociaux de la santé et celles des inégalités de santé – la coordination des politiques publiques est une exigence essentielle de leur efficacité, tant est élevé le nombre de paramètres à prendre en compte. À cet égard, le Pr Robert Barouki a fait observer, lors de l’audition publique de l’OPECST du 25 novembre 2015, que la notion d’exposome imposait une prise en compte de l’ensemble des expositions ainsi que des politiques de santé publique cohérentes qui soient guidées par une vision globale des problèmes : « En effet, il faut, par exemple, veiller à ce que les recommandations formulées pour régler un problème n’en aggravent par un autre. Il est vrai que le diesel est mieux que l’essence sur le plan du CO2, en revanche cela est beaucoup moins bien au niveau des émissions de particules ».
À travers certaines dispositions rappelées précédemment – de la loi du 26 janvier 2016 de modernisation de notre système de santé et du décret du 18 juin 2014 portant création du comité interministériel pour la santé – les pouvoirs publics français semblent avoir pris la mesure de la nécessité d’une meilleure coordination des politiques.
Pour autant, une récente étude évoquant le décret du 18 juin 2014, considère que sa portée réelle – au regard précisément de la démarche holistique des politiques de santé – risque d’être limitée. En effet, l’auteur considère que ce qu’il appelle « l’impérialisme » du ministère de la santé – ce dernier ayant tendance à imposer souvent ses priorités à d’autres secteurs – tient à ce que les représentants de ce ministère sont plus nombreux aux réunions que ceux des autres ministères et à ce qu’ils se plaignent de l’échec des différentes tentatives pour accroître la présence à ces réunions de leurs collègues des autres départements ministériels. À l’inverse, un fonctionnaire en charge du transport routier à Paris a indiqué à l’auteur de cette étude que, compte tenu de la complexité du problème des embouteillages, il n’espérait aucune amélioration du règlement de ce problème tant que les autres secteurs de la société (employeurs publics et privés, éducation, santé, planification urbaine, etc.) n’apporteront pas leur contribution à l’examen des différents aspects de ce problème.
Il est toutefois vrai que ces obstacles ne sont pas propres à la France. Ainsi une étude ayant analysé la mise en œuvre de la démarche holistique des politiques de santé dans les États membres de l’Union européenne a constaté que rares étaient les exemples de politiques s’étant préoccupées d’équité qui aient été couronnées de succès. C’est pourquoi cette étude a estimé que, dans les États membres, la santé doit reposer sur une démarche collaborative afin qu’elle soit une finalité prise en compte par toutes les politiques.
Aux États-Unis également, malgré certains progrès, la coordination des différentes administrations reste à améliorer. Comme on l’a vu, l’Obama Care prévoit des dispositions à ce sujet. En outre, l’US departement of Housing and Urban Development, par exemple, a mis en place une instance consultative destinée à incorporer les questions de santé dans la politique fédérale du logement.
Néanmoins, l’étude précédemment citée de Mme Paula Braveman indique que la collaboration intersectorielle se heurte à diverses barrières provenant de la diversité des priorités poursuivies, des modalités de financement et des agendas des administrations.
ii. L’absence de politiques publiques dans certains domaines
Deux exemples – touchant tous les deux à l’appréciation des risques environnementaux – sont particulièrement éclairants.
Le premier concerne la régulation des substances chimiques aux États-Unis, que, comme on l’a vu précédemment, une cinquantaine de chercheurs américains souhaiterait voir réformée en raison de l’absence de contrôle des dommages causés, notamment par des polluants, au cerveau des enfants. Une telle situation vient du fait que les États-Unis ne sont pas dotés d’une réglementation aussi stricte que le règlement communautaire REACH. En effet, comme l’a rappelé un chercheur à la commission présidentielle de bioéthique (254), par le Toxic Substances Control Act, le Congrès avait, certes, prévu que l’EPA contrôlerait ou empêcherait la mise sur le marché de nombreux produits chimiques, qui présenteraient des risques pour la santé et l’environnement. Mais pour ce chercheur, dans la mesure où le Congrès a aussi demandé à l’EPA de prouver que les nouveaux produits chimiques visés présentent bien un risque déraisonnable, cette exigence a limité l’EPA dans sa capacité à rassembler l’information et à procéder à une évaluation circonstanciée de nouveaux risques éventuels.
Au demeurant, ces divergences sensibles entre les réglementations américaine et européenne ne manquent pas de susciter des craintes de certains juristes, qui redoutent les effets que le partenariat transatlantique de commerce et d’investissement pourrait avoir sur la protection des Européens si les négociations continuaient sur les bases actuelles (255).
Le second exemple, qui n’est pas sans lien avec les problèmes soulevés par l’appel des chercheurs américains, a trait à l’absence de stratégie européenne en matière de perturbateurs endocriniens, de nombreuses substances qui appartiennent à cette catégorie pouvant nuire au cerveau.
En effet, la Commission européenne devait, en principe, définir avant la fin de l’année 2013, la spécification des critères scientifiques pour la détermination des propriétés perturbant le système endocrinien, en application d’une disposition du règlement sur les biocides.
Cette définition n’ayant toujours pas été élaborée, la Suède a introduit, le 17 novembre 2015, un recours en carence contre la Commission européenne.
Par un arrêt du 16 décembre 2015, la Cour de justice a considéré que la Commission européenne avait manqué aux obligations qui lui incombent en s’abstenant d’adopter une définition des perturbateurs endocriniens.
Lors de l’audition publique de l’OPECST du 25 novembre 2015, M. Philippe Hubert a indiqué que cette absence de disposition entraînait une instabilité économique et juridique d’autant plus forte que les politiques nationales sont hétérogènes et, même, instables alors que, selon certaines estimations, l’impact global des perturbations endocriniennes en Europe a été évalué à 175 milliards d’euros.
Certes, la Commission a, depuis lors, présenté, au mois de juin 2016, des critères définissant les perturbateurs endocriniens. Ces critères se fondent sur la définition retenue par l’OMS, aux termes de laquelle est un perturbateur endocrinien toute substance ayant des effets indésirables sur la santé humaine, si elle présente un mode d’action endocrinien et s’il existe un lien de causalité entre l’effet indésirable et le mode d’action.
Mais, d’une part, cette proposition est très contestée, car pour certains, la Commission exige un niveau de preuve d’effets nocifs très difficile à atteindre. D’autre part, la proposition de la Commission prévoit d’adopter un système de dérogation fondé sur le risque et non pas sur l’évaluation du danger, ce qui pourrait fragiliser l’application des critères. En effet, alors que l’évaluation des risques permet de mesurer la nocivité des substances qui sont déjà en circulation sur le marché, en fonction de calculs prenant en compte l’exposition, l’évaluation fondée sur le danger est effectuée en amont.
Si le comportement des autorités publiques n’est pas toujours à la hauteur des exigences d’une politique de santé efficace, celui des acteurs privés n’est pas non plus exempt de reproches, tant s’en faut.
iii. Des comportements d’acteurs privés contraires aux exigences d’une politique de santé efficace
Non seulement des comportements individuels, mais aussi les stratégies d’acteurs puissants tels que l’industrie pharmaceutique, entraînent des coûts de plus en plus élevés.
o S’agissant des individus, les rapporteurs ont souligné dans leur précédent rapport pour l’OPECST sur la médecine de précision qu’il importait de promouvoir l’éducation à la santé, en vue d’une meilleure personnalisation des approches de prévention. En particulier, ils ont relevé la défiance de la France à l’encontre des messages de prévention, par exemple ceux touchant à la consommation de tabac, puisque le taux de prévalence du tabagisme s’établit à moins de 20 % au Royaume-Uni alors qu’il est de 33 % en France et qu’il ne baisse pas, contrairement à ce qui se passe chez nos voisins.
Dans un autre domaine, celui de la consommation d’alcool le récent rapport de la Cour des comptes sur les politiques de lutte contre les consommations nocives d’alcool conforte malheureusement les propres observations des rapporteurs précédemment rappelées. En effet, en dépit d’une baisse régulière depuis les années 1960, la consommation moyenne d’alcool en France, qui atteint près de 12 litres d’alcool pur par an et par habitant en 2014, demeure près de 30 % supérieure à la moyenne européenne.
Or, d’après les estimations de certains économistes, le coût social de l’alcool chaque année pour la France a été chiffré, en 2015, à 120 milliards d’euros, soit autant que pour le tabac.
À la différence de certains chercheurs qui s’interrogent sur l’opportunité de sanctionner de tels comportements – parce que, volontairement à leurs yeux, contraires aux exigences du bien-être et d’une politique de santé efficace – tant les interlocuteurs américains que des intervenants à l’audition publique de l’OPECST du 25 novembre 2015 ont écarté toute idée de sanctions. Par exemple, les professeurs Mark Rothstein et Andrew Feinberg ont préféré une action d’information auprès des personnes intéressées – des fumeurs, en l’occurrence – pour appeler leur attention sur les conséquences préjudiciables de tels comportements pour leur santé et celle de leurs descendants.
C’est à cette même fin d’information que devraient servir les observatoires sur les maladies complexes et les sciences du vivant, dont les rapporteurs proposeront la création.
o D’autres personnes privées, plus puissantes que les citoyens, telles que les entreprises de l’industrie pharmaceutique, peuvent aussi entraîner des coûts très élevés et, même, mettre en péril la solvabilité du système de protection sociale.
En effet, les auditions organisées par la commission des affaires sociales de l’Assemblée nationale au mois de juin 2016 sur le prix du médicament rejoignent parfaitement les observations que les rapporteurs avaient formulées dans leur étude précitée sur la médecine de précision, ainsi qu’au cours de leurs travaux actuels.
Les auditions de la commission des affaires sociales ont été organisées à la suite de la publication le 15 mars 2016, d’une tribune qui a relayé un appel de cent dix cancérologues hématologues demandant aux pouvoirs publics de définir un juste prix pour les médicaments du cancer et de rendre le système d’arbitrage des prix démocratique et transparent. En outre, postérieurement à cet appel, Médecins du monde a lancé, au mois de juin 2016, un appel sur le même sujet.
Ces auditions ont évoqué trois séries de problèmes :
- la spirale inflationniste et les disparités de prix qui ont marqué l’évolution du prix des médicaments innovants ;
- la part réelle de la recherche dans le développement des médicaments ;
- l’absence de transparence des conditions de fixation du prix des médicaments.
S’agissant du premier problème, le Pr Jean-Paul Vernant (256) a indiqué que l’industrie pharmaceutique définissait ses prix en fonction de ce que le marché peut payer. Ainsi, le Glivec (257) coûtait-il 30 000 dollars au début des années 2000. Mais, a précisé le Pr Vernant, comme le marché pouvait payer, le laboratoire a décidé de fixer ce prix à 60 000 puis à 80 000 dollars. Ainsi, les États-Unis paient-ils extrêmement cher les médicaments issus des innovations thérapeutiques et les pays européens, jugés moins riches par les laboratoires, payent-ils un peu moins chers.
Prenant un autre exemple, celui du Sofosbuvir, médicament contre l’hépatite C, le Pr Vernant a rappelé que le traitement coûtait 80 000 euros aux États-Unis, 42 000 euros en France – et environ le même montant dans d’autres états membres de l’Union européenne – et 800 dollars en Égypte. Le Pr Vernant a expliqué ces disparités entre le Nord et le Sud par le fait que « L’industrie pense normal de faire payer les pays riches pour les pays pauvres, et c’est vrai. Mais, le coût de production des produits est de 100 ou 150 dollars, c’est-à-dire que même en Égypte, les laboratoires font 700 dollars de bénéfices par malade. 13 millions d’Égyptiens sont malades de l’hépatite C et, même pour l’Égypte, 800 dollars représentent un coût colossal ».
Formulant un constat identique à celui du Pr Vernant, Jean-Sébastien Vialatte, co-rapporteur, a fait valoir que les laboratoires fixent les prix, non en fonction du coût de revient et de la recherche et du développement mais en fonction de la capacité des systèmes de santé à payer ces médicaments.
Ce sont donc les pouvoirs publics qui devraient fixer les prix en fonction de la réalité et non à partir de l’estimation des laboratoires au regard de la capacité des États à payer.
Évoquant ensuite la révolution ayant affecté le modèle économique de l’industrie pharmaceutique, il a souligné que la médecine étant de plus en plus personnalisée, les médicaments produits s’adressent à des groupes de patients de plus en plus étroits : « On est loin du temps des blockbusters où étaient vendus des dizaines de milliers d’antidiabétiques, d’anticholestérolémiants ».
Le Pr Jean-Paul Vernant a déclaré qu’un tel système inflationniste avait pour conséquence que mouraient les patients américains qui n’avaient pas la somme requise pour bénéficier du traitement – parce que trop riches pour percevoir une aide de l’État – ou trop pauvres pour souscrire une assurance santé personnelle. Il a précisé que cette situation avait choqué ses collègues américains, qui avaient alors publié des appels dans un grand nombre de revues médicales avant que la presse généraliste ne s’empare du sujet.
Dans d’autres pays, tels que le Royaume-Uni, les médicaments les plus coûteux ne sont plus remboursés. Par exemple, le Brentuximab, médicament utilisé en France pour soigner la maladie de Hodgkin n’est plus remboursé au Royaume-Uni, où les gens très riches peuvent l’acheter à 60 000 livres par an (soit plus de 70 000 euros), alors que meurent les gens qui ne le peuvent pas, a précisé le Pr Jean-Paul Vernant.
Fort heureusement, comme l’a souligné Mme Agnès Buzyn, présidente du collège de la Haute autorité de santé (HAS), aucun patient français n’est exclu, pour l’instant, des soins innovants au prétexte de prix prohibitifs.
Quoiqu’il en soit, le Pr Dominique Maraninchi (258) a tenu à déclarer que nous avons besoin d’avoir confiance dans la solvabilité du système de santé. C’est pourquoi, il a appelé de ses vœux une nouvelle régulation nationale pour faire diminuer ces prix exorbitants, mais aussi l’intervention d’un nouvel équilibre pour l’accès aux médicaments innovants et utiles à l’échelle mondiale.
Le second problème a concerné le rôle de la recherche, sur l’importance de laquelle les avis ont divergé sensiblement. En effet, un représentant de l’industrie a indiqué que les laboratoires consacrent une part importante de leur investissement à la recherche – de 20 % en moyenne, jusqu’à 40 % pour certains laboratoires.
En revanche, le Pr Jean-Paul Vernant a souligné que la recherche coûte de moins en moins cher, parce qu’elle est avant tout financée par les pouvoirs publics.
Enfin, un consensus s’est dégagé sur la nécessité d’une plus grande transparence et d’une démocratisation accrue de la procédure de fixation du prix du médicament. Ainsi, le Pr Dominique Maraninchi a-t-il souhaité que les travaux de la commission de transparence de la HAS – instance scientifique qui évalue les médicaments ayant obtenu une autorisation de mise sur le marché – soient au moins accessibles à tous les citoyens, grâce à une diffusion vidéo.
S’agissant du Comité économique des produits de santé (CEPS)
– organisme fixant le prix des médicaments – il a été jugé nécessaire d’assurer la représentation des usagers et des professionnels et de rendre publiques les conventions entre eux, le CEPS et les laboratoires. Enfin, le président du CEPS a invité le législateur à modifier les textes actuels, dans la mesure où ces derniers ne lui permettent pas de publier les procès-verbaux des délibérations du CEPS.
Quant à notre collègue Gérard Bapt, député, membre de l’OPECST, il a tenu à souligner qu’aucun représentant du Parlement ne siégeait ni dans la commission de transparence de la HAS, ni au sein du CEPS. Il y a là des anomalies qu’il importe de corriger, d’autant que c’est le Parlement qui vote le budget de la sécurité sociale.
*
* *
En conclusion, s’il apparaît que les travaux de la recherche peuvent constituer d’utiles outils d’aide à la décision pour les autorités publiques, d’importantes réformes doivent néanmoins être accomplies pour que ces outils portent pleinement leurs fruits. C’est l’objet des recommandations suivantes, qui tiennent compte des observations qui ont pu être formulées notamment lors de l’audition publique de l’OPECST du 25 novembre 2015
o Tirer les conséquences de la notion d’exposome :
L’exposome est l’instrument permettant la mise en œuvre d’une politique holistique de la santé, comme l’indique l’article premier de la loi du 26 juin 2016 de modernisation de notre système de santé. Pour renforcer la cohérence et la coordination des politiques sectorielles avec les objectifs de la politique de santé, il importe d’assortir tout texte législatif ou réglementaire d’une étude d’impact de ses dispositions en matière de santé.
o Améliorer les dispositifs concernant la petite enfance :
La loi du 26 janvier 2016 de modernisation de notre système de santé prévoit diverses dispositions prenant en compte l’importance de la petite enfance, dont la DOHaD a montré le rôle capital qu’elle joue dans la survenue, à l’âge adulte, de certaines pathologies.
Il s’agit de compléter ces dispositions sur des points particuliers :
- La loi de modernisation de notre système de santé fait de la Protection maternelle et infantile (PMI) un des principaux acteurs de la politique nationale de santé. Il est essentiel que les décrets d’application précisent les moyens qui lui permettent de remplir effectivement sa missions ;
- Si la loi du 26 janvier 2016 comporte des dispositions concernant l’éducation à la santé des enfants, il importe d’orienter cette éducation vers le développement de leur capital santé. Il n’existe pas de définition officielle de cette notion. Mais les remarques suivantes permettent d’avoir un aperçu de son contenu : « La santé ne serait donc plus seulement l’absence de maladie et l’état de bien-être physique et moral (selon la définition de l’OMS) mais une richesse dont nous sommes désormais comptables. En bon gestionnaires, nous nous devons donc d’opérer les investissements judicieux – cosmétiques, soins, nutrition, sport… – et de limiter drastiquement les coûts qui menacent de dilapider notre fortune – alcool, graisses, sucres, cigarettes, bronzage… » (259). À cet égard, un communiqué récent de la Fédération française de cardiologie s’est inquiété de la sédentarité précoce qui caractérise les jeunes. Faute d’une activité physique suffisante, ils ne se constituent plus un bon capital santé. Ainsi, au cours des quarante dernières années, les collégiens auraient perdu environ 25 % de leur capacité physique, selon l’étude d’un cardiologue français.
o Renforcer les instruments de la politique de prévention :
La loi de modernisation de notre système de santé comporte des dispositions visant à une meilleure coordination des politiques publiques. Il serait opportun de confier l’évaluation des interventions non médicamenteuses (par exemple, de nature nutritionnelle) à la nouvelle entité Santé publique de France – née de la fusion entre l’INVS, l’INPES et l’Établissement de préparation et de réponse aux urgences sanitaires (Eprus) (260)– conjointement, le cas échéant, avec d’autres institutions sanitaires, ce qui, comme souligné lors de l’audition publique de l’OPECST du 25 novembre 2015, permettrait d’éviter de longues discussions entre des institutions compétentes – retardant ainsi les travaux de recherche – sur la nature biomédicale ou non de ces interventions. En vue de faciliter les études dans le domaine de ces interventions, en particulier de les rendre attractives auprès des chercheurs, il serait opportun que les institutions dont ils dépendent prennent en compte leur participation à ces interventions dans leur évaluation.
o Améliorer la formation :
Il convient, d’une part, de mentionner expressément l’épigénétique et l’étude des origines développementales de la santé et des maladies (DOHaD) dans le programme des études médicales et, d’autre part, d’instaurer dans les filières de formation aux professions de santé les enseignements suivants : épigénétique, nutrigénomique, risques environnementaux et économie de la santé. S’agissant de ce dernier point, les auditions de la commission des affaires sociales de l’Assemblée nationale sur le prix du médicament ont montré que les médecins n’appréhendent pas toujours les conséquences économiques des prescriptions qu’ils délivrent.
o Améliorer l’information des patients et de l’ensemble de la société civile :
Au cours de l’audition publique de l’OPECST du 25 novembre 2015, le représentant de la Fédération des diabétiques de France avait proposé la création d’un Observatoire du diabète, qui s’ajouterait donc à l’observatoire, déjà existant, des maladies cardio-vasculaires. Plutôt que de multiplier ces observatoires, il serait préférable de créer des observatoires régionaux des maladies complexes.
Il serait également utile d’envisager l’institution de forums régionaux sur les sciences du vivant. Cette proposition tient compte de deux constats. En premier lieu, il convient de ne pas multiplier les forums, car à l’heure actuelle, il existe déjà un forum sur la biologie de synthèse à Paris, au sein du Conservatoire national des arts et métiers. À Montpellier, par exemple, l’université de Montpellier et d’autres organes de recherche (CNRS et Inserm) ont créé Génopolys, une instance d’information sur les sciences, dont l’épigénétique, qui, semble-t-il, connaît un grand succès auprès du public. Enfin, l’expansion très rapide du CRISPR-Cas9 et les problèmes éthiques en résultant conduiront très vraisemblablement à envisager la création d’espaces de discussion. C’est pourquoi, il semble préférable aux rapporteurs d’adopter une démarche globale, qui inclurait les sciences du vivant. En second lieu, comme l’a relevé le Pr Jean-Claude Ameisen lors de son audition par l’OPECST, en décembre 2011 sur le rapport du CCNE concernant le débat public sur la fin de vie, les espaces régionaux d’éthique qui auraient pu assumer cette fonction d’observatoires régionaux des sciences du vivant sont hétérogènes, en raison de la création récente de centaines d’entre eux. Il convient donc d’instituer de tels observatoires, qui permettraient d’instaurer un dialogue entre le monde académique et la société civile.
o Renforcer les instruments de pilotage de la politique du médicament :
Il importe que les pouvoirs publics tirent les conséquences des auditions organisées par la commission des affaires sociales de l’Assemblée nationale du mois de juin 2016, en améliorant la transparence et la démocratisation de la procédure de fixation du prix des médicaments.
Cette démarche nationale devrait être prolongée au plan mondial, le marché du médicament étant mondial. Il importera donc que les autorités françaises renouvellent leur initiative (261) au sein du G7, et le cas échéant au sein du G20, en vue de mettre en place un système mondial de fixation du prix du médicament qui soit plus rationnel et plus juste.
Enfin, dans cette même perspective, il importe de soutenir le développement de la recherche en permettant aux start-up de parvenir le plus rapidement possible à la commercialisation de médicaments innovants – et,
au-delà, à celle de leurs innovations dans les autres secteurs.
À cette fin, il serait nécessaire d’envisager le financement de la phase de prématuration, ce qui est actuellement hors du champ de compétence des Sociétés d’accélération du transfert de technologies (SATT). Peut-être conviendrait-il de s’inspirer de l’exemple canadien de NEOMED, déjà cité précédemment.
o Renforcer la protection de la santé environnementale :
Les rapporteurs proposrny un tel renforcement dans trois directions :
1/ En premier lieu, une étude récente du CEA-IRCM, plaide en faveur d’une évaluation urgente de l’impact sanitaire des bisphénols S et F (262), qui sont des substituts du bisphénol A. L’industrie utilise, d’après le CEA, ces deux substituts qui ne font l’objet d’aucune réglementation et dont la dangerosité n’a jamais été évaluée à ce jour.
Or, l’équipe du CEA a montré, pour la première fois en 2012, que le bisphénol A inhibe la production de testostérone à des doses équivalentes à la concentration moyenne de bisphénol A, généralement retrouvé dans le sang, les urines et le liquide amniotique. De telles conséquences sont d’autant plus préoccupantes qu’un défaut de production de testostérone pendant la vie fœtale peut entraîner un défaut de masculinisation et risque de se traduire par une altération de la production spermatique à l’âge adulte.
Reprenant le même type d’étude avec les bisphénols S et F, cette équipe a montré qu’ils réduisaient également la production de testostérone des testicules fœtaux. D’où le plaidoyer de ces chercheurs en faveur des évaluations de ces bisphénols S et F.
2/ En second lieu, il importe de mettre en place, conformément à ce qu’a prévu la stratégie nationale sur les perturbateurs endocriniens, une plate-forme – sur la base d’un partenariat public-privé – destinée à valider des essais, en vue de définir si les substances devraient ou non être classées parmi les perturbateurs endocriniens.
M. Philippe Hubert avait regretté, lors de l’audition publique de l’OPECST du 25 novembre 2015, que, jusqu’à présent, cette initiative n’ait toujours pas été mise en œuvre, d’autant qu’il n’existe pas non plus de financement européen de systèmes de validation.
3/ Enfin, il conviendrait d’envisager de soumettre l’alimentation et les médicaments à des tests de méthylation. En ce qui concerne l’alimentation, beaucoup de nutriments essentiels jouent un rôle dans la méthylation. Pour ce qui est des médicaments, le ministère de la santé a indiqué aux rapporteurs que la recherche de la méthylation des médicaments n’était pas systématique, ces derniers n’étant pas inclus dans le champ des dispositions du règlement REACH.
o Encourager la valorisation de la recherche
Pour tenir compte d’observations formulées au cours de l’audition publique de l’OPECST du 16 juin 2015 et du rapport de la Cour des comptes sur la valorisation de la recherche critiquant l’attention insuffisante portée à la nécessité de mieux valoriser les innovations, les rapporteurs préconisent d’organiser un enseignement sur le droit de la propriété intellectuelle pour les étudiants se destinant aux carrières de chercheurs, comme c’est déjà le cas en M1 et M2 à l’université de Montpellier.
Par ailleurs, il importe d’inciter les chercheurs et les institutions dont ils dépendent à mettre en œuvre une politique efficace de valorisation de leurs innovations, en intégrant celle-ci dans leur évaluation.
II. LES VOIES POUVANT CONCILIER ESSOR DE L’ÉPIGÉNÉTIQUE ET RESPECT DES NORMES ÉTHIQUES ET JURIDIQUES
Comme la biologie de synthèse, l’essor rapide de l’épigénétique pose la question de savoir comment le concilier avec le respect des normes éthiques et juridiques.
Cette question est d’autant plus essentielle que, selon le Pr Mark Rothstein, la réflexion juridique sur l’épigénome est inexistante au regard de celle sur le génome.
Pour autant, son jugement est sévère car, dans ses propres travaux, il a soulevé plusieurs problématiques très intéressantes qui confirment l’opportunité d’une réflexion sur la nécessité d’un encadrement de l’information épigénétique.
Bien que les réponses apportées soient contrastées, surtout en France, les débats font ressortir des pistes de réforme différenciées selon les domaines concernés.
A. L’OPPORTUNITÉ D’UNE RÉFLEXION SUR LA NÉCESSITÉ D’UNE DÉFINITION DE L’INFORMATION ÉPIGÉNÉTIQUE : LA DIVERSITÉ DES RÉPONSES PROPOSÉES
Les débats évoqués précédemment sur le statut scientifique de l’épigénétique au regard de la génétique influent aussi sur les débats entre juristes et bioéthiciens. Car il s’agit de savoir si, du fait de sa nouveauté, l’épigénétique doit faire l’objet d’une définition juridique particulière ou si, au contraire, une telle démarche ne s’impose pas, soit parce qu’on la considère comme un champ encore émergent, soit parce qu’elle n’est qu’une extension de la génétique.
Les débats qui se déroulent en France, comme ceux qui ont lieu à l’étranger, font apparaître des points de vue très contrastés.
L’audition publique de l’OPECST du 25 novembre 2015, comme les travaux du projet IBISS (Incorporation biologique et inégalités sociales de santé) illustrent parfaitement cette diversité des points de vue :
a. L’audition publique du 25 novembre 2015 sur les enjeux éthiques et sociétaux de l’épigénétique
Ces travaux ont révélé les ambiguïtés pouvant entourer les tentatives d’une définition juridique de l’information épigénétique tandis que les intervenants ont émis des réserves quant à une telle démarche.
i. Les ambiguïtés de la tentative de définition
Tout en développant les arguments qui, à leurs yeux, plaident en faveur d’une définition particulière de l’information épigénétique, MM. Christian Byk et Jacky Richard (263) ont convenu de la difficulté à formuler une telle définition.
C’est d’ailleurs pourquoi, ce dernier a déclaré : « Peut-on traiter l’information épigénétique comme l’information génétique ? Je crois que l’on peut répondre à la fois « oui et non » ou plus exactement « peut-être que oui et sûrement que non ».
En effet, l’un et l’autre constatent que l’information épigénétique – bien qu’elle revête un caractère sensible comme l’information génétique et bénéficie à ce titre d’un régime protecteur défini par la loi informatique et libertés et par le code de la santé publique – n’en possède pas moins des caractéristiques propres.
Ainsi, M. Byk rappelle-t-il que « Dépendant de l’environnement, les modifications épigénétiques sont dynamiques, interdépendantes, éventuellement réversibles ».
Il en résulte, à ses yeux, que « Cette différence souligne que, d’une certaine manière, ces données peuvent être plus sensibles dans leur utilisation car, si les données génétiques permettent d’identifier les individus et leurs maladies génétiques, avec bien sûr les risques de discrimination, les données épigénétiques ouvrent la voie à une possible interaction sur l’expression des gènes au regard d’une information contextuelle, mais aussi familiale, au sens de transmise. »
Pour sa part, M. Jacky Richard a déclaré également que l’information épigénétique « livre des données issues de la mise en évidence des interactions entre la biologie et l’environnement et délivre des renseignements sur les individus dans et sur leurs contextes de vie, dans et sur leur histoire personnelle ».
S’interrogeant sur les conditions dans lesquelles le droit peut appréhender cette dimension contextuelle et environnementale de l’information épigénétique, M. Richard constate que « Cette question est d’autant plus sensible et délicate que les marqueurs épigénétiques sont évolutifs, dynamiques, alors que les données génétiques sont stables ».
Or, ce sont précisément ces caractéristiques qui selon M. Byk, rendent difficile l’instauration de tout encadrement : « Mettre en place des systèmes de surveillance pour établir de possibles préventions – y compris à des fins assurantielles, de droit du travail, voire militaires, de ce type de données – est problématique, dans la mesure où il est difficile d’appréhender globalement le champ de cette question, sans savoir de quelles données épigénétiques et de quelle utilisation il est question ».
Pour autant, M. Jacky Richard a suggéré des éléments de réponse au questionnement sur l’encadrement juridique de l’information épigénétique. Ainsi, s’est-il référé aux notions de responsabilité de l’État, de responsabilité du fait des lois ou encore de responsabilité médicale, telle que celle-ci a été précisée par les avancées issues de la loi, dite « Kouchner », de 4 mars 2002 relative aux droits des malades et à la qualité des systèmes de santé.
De même a-t-il considéré que la Convention d’Aarhus de 1998, signée par la France, définit précisément ce qu’est l’information environnementale et les modalités d’un accès citoyen, droit désormais reconnu par le Conseil constitutionnel, à cette information.
Il n’en reste pas moins vrai que la position défendue par MM. Byk et Richard a suscité des réserves.
ii. Une démarche suscitant des réserves
Ces réserves sont d’ordre juridique et scientifique.
• Les réserves d’ordre juridique
Le Pr Michel Vivant (264) s’est déclaré d’autant plus réservé qu’il n’était pas certain de savoir ce qu’il faut entendre précisément par information épigénétique : « J’ai cru comprendre qu’il s’agissait d’informations contextuelles, évolutives. Peut-on vraiment les saisir à travers une définition ? ».
Au surplus, le Pr Michel Vivant s’est référé aux propos de M. Christian Byk selon lesquelles la définition de l’information épigénétique ne réglerait pas nécessairement la question de son statut juridique.
En second lieu, le Pr Michel Vivant a estimé que ce n’est pas parce que l’information est épigénétique qu’elle doit recevoir tel ou tel statut, « C’est parce qu’elle est susceptible en situation de produire tel ou tel effet de cette prise en compte par le droit ».
« Ceci signifie qu’il peut y avoir, dans un contexte, un effet de santé, que les dispositions de santé doivent alors être à même d’appréhender. Dans un autre cadre, cela posera des questions de respect de la vie privée ; dans un autre encore des questions de responsabilité politique ».
En conclusion, plutôt qu’une définition juridique définitive de la notion d’information épigénétique – dont il a craint qu’elle ne soit ni définitive, ni opérationnelle – il a préféré « une définition évolutive, donnée par les scientifiques, qui soit susceptible de constituer un élément-cadre, adopté en amont par le législateur et en aval appelé à être mis en œuvre par les juristes chargés, à des titres divers, de mettre en œuvre la loi, pour y attacher telle ou telle considération ».
Quant à Mme Christine Noiville, présidente du Haut conseil des biotechnologies, tout en déclarant que les outils juridiques existants étaient adaptés pour appréhender l’épigénétique, elle a considéré qu’une réglementation spécifique était d’autant plus difficile et délicate à envisager que l’on ne connaissait pas précisément la nature des données ou informations épigénétiques, donc les enjeux et les risques en matière de discrimination.
• Les réserves d’ordre scientifique
Mme Anne Cambon-Thomsen (265) a fait observer que, avant même de réfléchir à une éventuelle définition de l’information épigénétique, il conviendrait de revisiter la législation actuelle qui, selon elle, est très décalée au regard des progrès de la génétique, en particulier ceux liés à CRISPR-Cas9.
Au demeurant, pour tenir compte de ces progrès, la société française de génétique envisagerait de consacrer la notion d’information biologique.
Mme Béatrice de Montera (266), définissant l’épigénétique comme la « science du devenir de l’individu », a estimé que, de ce fait, il était difficile de réduire tout le savoir sur l’épigénétique à des catégories figées, qu’elles soient philosophiques, scientifiques ou juridiques. Car, « Il existe une singularité de ce devenir, qui échappe toutefois à la caractérisation scientifique, donc a fortiori juridique ».
b. Les travaux du projet IBISS (Incorporation biologique et inégalités sociales de santé)
Dans le cadre du volet juridique du projet IBISS (financé par l’ANR), des chercheuses ont conduit une étude intitulée « L’information épigénétique : un nouvel objet du droit ? » (267).
Examinant les caractères de l’information épigénétique, les auteures retiennent cinq critères qui, selon elles, permettent de différencier mutations épigénétiques et génétiques, en mettant en avant la dimension environnementale.
1. Les mutations épigénétiques sont fortement dépendantes de l’environnement.
2. À la différence des mutations génétiques qui se produisent très rarement et sont en grande partie irréversibles, les mutations épigénétiques sont dynamiques et réversibles.
3. Les modifications épigénétiques sont interdépendantes, d’où la complexité de l’épigénome.
4. Certaines modifications sont héréditaires, d’où le lien intergénérationnel.
5. Les mutations épigénétiques et génétiques ne relèvent ni de la même temporalité, ni de la même causalité, ni de la même complexité. Ainsi, la vitesse et la fréquence à laquelle des modifications se produisent à la suite d’une exposition environnementale sont d’une ampleur beaucoup plus grande que celles résultant de mutations génétiques.
Deuxièmement, la relation de causalité entre l’environnement et l’épigénome est directement liée à l’activation ou à l’inhibition de l’expression des gènes.
Troisièmement, les modifications épigénétiques sont interdépendantes. Il est donc important de considérer les interactions entre une modification biochimique spécifique et la grande probabilité des modifications ultérieures sur les parties voisines.
S’interrogeant ensuite sur le régime juridique qui pourrait être appliqué à l’information épigénétique, les auteures suggèrent qu’elle constitue une information à caractère personnel et une information familiale d’un nouveau genre.
Il s’agit d’une information personnelle d’un nouveau genre parce qu’elle détermine spécifiquement la personne dans un contexte. Comme ce contexte peut même fournir des renseignements particulièrement stigmatisants pour les individus, l’information épigénétique semble aux auteures à la fois personnelle et sensible mais se situant sur un plan différent de l’information génétique parce que, ici, l’aspect personnel n’est pas nécessairement identifiant.
L’information épigénétique est, en second lieu, une information familiale d’un nouveau genre.
Étant une réponse à l’environnement, cette information reflète l’environnement familial. Cette dimension familiale tient aussi à ce que certaines mutations épigénétiques sont aussi héritées, donc également transmissibles.
Or, à ce critère d’héritabilité s’ajoute celui de réversibilité. Ce qui signifie, pour les auteures, que l’État, les parents ou des institutions médicales (ou médico-sociales) pourraient être tenus pour responsables de la transmission de conditions épigénétiques à l’enfant (responsabilité individuelle) ou aux générations futures (responsabilité collective).
Dans l’un des articles les plus renommés qu’il a cosignés (268), le Pr Mark Rothstein indique que « Bien que l’information épigénétique et l’information génétique aient de nombreuses caractéristiques communes, elles ne sont pas identiques. Par exemple, les effets épigénétiques sont induits de l’environnement. Ainsi, pourraient-ils être regardés comme moins stigmatisants, parce qu’ils ne prendraient pas leur source dans des « mauvais gènes ». Ils peuvent être également réversibles. En outre, du fait d’effets possiblement transgénérationnels, l’épigénétique peut être assimilée à la génétique. Finalement, c’est simplement une question de sémantique. De nombreux décideurs publics et le public profane supposeront de façon inappropriée que l’épigénétique n’est qu’une facette de la génétique ».
Lors de l’entretien avec les rapporteurs, le Pr Mark Rothstein a élargi son propos à la dimension éthique et sociétale de l’épigénétique.
Il leur a présenté les six points qu’il avait abordés à l’occasion d’un exposé devant le National Institute of Health (NIH) sur cette problématique :
1. Justice et environnement
Les recherches qu’il a effectuées, lui ont permis de constater que les populations les plus touchées par les substances ayant des effets épigénétiques étaient les plus vulnérables, parce que non seulement elles sont les plus pauvres mais aussi parce que, par ailleurs, faute d’avoir accès au système de santé, leur niveau de santé est des plus précaires. Dès lors, du point de vue éthique, la question est de savoir s’il existe une obligation morale de protéger ces populations.
En outre, s’y ajoute la question des effets transgénérationnels liés à de telles situations.
Dans ce contexte, il importe que soient réglementées les expositions aux substances ayant des effets épigénétiques si l’on veut prévenir ces dégâts.
2. Responsabilité personnelle et responsabilité collective
Évoquant les informations épigénétiques disponibles sur les fumeurs, le Pr Rothstein s’est demandé si pesait sur les fumeurs une responsabilité plus importante, à savoir celle de cesser de fumer ou de ne pas fumer dans l’espace public. Il en est de même des fumeurs dont les enfants souffrent des effets épigénétiques liés à la consommation de tabac.
Le Pr Rothstein a estimé que ce n’est pas la responsabilité individuelle qu’il faut privilégier. Il conviendrait, en effet, de donnerl’ensemble des informations aux intéressés sur les risques encourus avant de mettre en cause leurs responsabilités. Il relève donc de la responsabilité collective – celle des autorités publiques et des institutions médicales – de soustraire les fumeurs aux sources d’exposition, en leur communiquant les informations suffisantes sur les risques encourus.
3. Vie privée et accès aux données personnelles
Ce thème revêt deux aspects : le respect de la vie privée au regard des exigences de la recherche et le respect de la vie privée en matière de soins de santé.
Cette question est d’autant plus importante que l’épigénome fournit un volume d’autant plus considérable d’informations médicales sur les personnes qu’un système électronique de recueil des données médicales est actuellement mis au point. Il s’agira ainsi d’un dossier personnalisé électronique des malades.
Le Pr Rothstein a souligné que la protection des données est, aux États-Unis, une source de préoccupation, en raison des risques de stigmatisation et de discrimination. À cet égard, il a indiqué qu’une seule loi – la GINA (Genetic Information Non Discrimination Act) de 2008 – existe en matière de données génétiques et s’applique aux seuls domaines de l’emploi et de l’assurance-maladie. Mais il y a beaucoup de domaines non régis par une loi et dans lesquels les risques de discrimination sont possibles.
Quant à Me Robyn Shapiro, avocate spécialisée dans la protection des données, elle a fait observer que, bien que la loi fédérale interdise aux fournisseurs de soins de divulguer des informations identifiantes, sauf consentement, elle craint que de telles dispositions ne suffisent pas pour encadrer, par exemple, les initiatives de Google dans le domaine de la santé.
En effet, selon elle, la loi est censée protégée l’information personnelle, détenue par les fournisseurs de soins. Toutefois, si cette information est divulguée, c’est son détenteur qui sera protégé et non l’information. C’est pourquoi, elle qualifie la situation actuelle de « bricolage législatif ».
S’agissant de l’équilibre à établir entre la nécessaire protection des données personnelles et la possibilité pour les chercheurs d’y accéder, le Pr Rothstein a indiqué que, comme cette question n’est pas résolue, certains, dont lui-même et ses collègues, proposent des pistes de réforme. Dans un premier cas de figure, les chercheurs auraient accès au dossier médical personnalisé, si la recherche est menée dans la même université ou le même hôpital.
Le Pr Rothstein a toutefois précisé que cette proposition suscitait des controverses.
Dans un second cas de figure, le consentement des patients serait sollicité, lesquels accepteraient ou refuseraient de divulguer leurs données personnelles. Sur ces points, le Pr Rothshein a précisé qu’il a mené des recherches comparatives au plan international, qui font apparaître que, dans certains pays, les personnes donnent un consentement général valable pour les recherches futures.
4. Accès aux soins
Le Pr Rothshein a déclaré aux rapporteurs avoir proposé l’accès des plus vulnérables aux soins que permettent les découvertes de la génétique. Il a toutefois convenu qu’une telle proposition sera difficile à mettre en œuvre, du fait du coût élevé des nouveaux services, ce qui empêchera les personnes, mêmes couvertes par des assurances sociales, d’y accéder.
5. Égalité
Ce dernier point inclut tous les autres précédemment évoqués, en raison des liens existant entre eux. À cet égard le Pr Rothshein a évoqué la notion de droits civiques qui est apparue aux États-Unis dans les années 1960, et qui a conduit à l’adoption des lois interdisant la discrimination.
Or, si ces lois reposent sur l’identité biologique des individus, le Pr Rothshein a toutefois estimé qu’une telle idée n’était pas recevable du point de vue épigénétique. Ce qui pose, dès lors, la question de l’adoption d’un nouveau modèle de protection. Celui en faveur duquel il plaide viserait à promouvoir la diversité et l’amélioration de la santé des individus en assurant leur accès à la santé, ce qui permettrait de garantir le respect des droits de l’Homme.
Mais le Pr Rothshein a toutefois déclaré qu’une telle vision ne recueillait aucun consensus aux États-Unis.
En conclusion, après avoir indiqué avoir participé aux travaux du projet IBISS, le Pr Rothshein a souligné que, sur les sujets qu’il a abordés, les États-Unis accusent un retard en comparaison de nombreux pays, en particulier la France.
D’autre part, en réponse à la question sur la recommandation qu’il adresserait en priorité au législateur, il a déclaré qu’il tenterait de le convaincre de l’importance de contrôler l’environnement car, en prévenant les expositions dangereuses, les autorités limitent le risque de devoir prendre des mesures correctrices a posteriori.
Dans une étude consacrée au rôle que peut jouer l’épigénétique dans la médecine personnalisée, Mme Ruth Chadwick et M. Alan Connor, professeurs à l’université de Cardiff, posent la question de savoir si l’épigénétique soulève de nouveaux problèmes éthiques.
Ils indiquent que l’information épigénétique offre la possibilité de prédire le risque de maladie. Mais ils constatent toutefois que certains de ces risques – tels que ceux liés à la collecte et au stockage de données personnelles – sont, par leur nature, assimilés à ceux liés aux données génétiques.
Étudiant différents aspects sociétaux, ces auteurs émettent des observations nuancées. Car, d’un côté, ils considèrent que l’épigénétique peut aggraver les problèmes déjà existants d’inégalités sociales. En outre, ils estiment que, en matière de santé, il est essentiel de s’attacher à examiner ce que peuvent faire les institutions responsables en faveur de la solidarité et des soins dont pourraient bénéficier les personnes victimes de dommages épigénétiques.
Mais, de l’autre côté, ils soutiennent que les débats concernant la réponse sociétale à apporter aux personnes non encore nées au titre du préjudice épigénétique – résultant de facteurs environnementaux – susceptibles de limiter leurs capacités futures, existe depuis longtemps en liaison avec la question du changement génétique, dans le contexte de l’eugénisme, par exemple. Ici, l’épigénétique ajoute un nouveau niveau de complexité.
En effet, les agents environnementaux toxiques causant des dommages épigénétiques représentent un défi important étant donné que chacun est ainsi exposé à de telles pollutions causées par ses ancêtres, tout comme les générations futures seront exposées aux agents toxiques émis aujourd’hui.
Mais, selon les auteurs, il faut considérer qu’il n’y a là rien de nouveau. De tels dommages sont connus depuis longtemps. Nous acquérons simplement un savoir sur des mécanismes récurrents reconnus, à travers lesquels le dommage prend effet.
Au total, les auteurs estiment que, à certains points de vue, l’épigénétique ne semble pas poser de nouveaux problèmes éthiques, mais, seulement plus compliqués, s’agissant des questions qu’ils ont abordées touchant à la génétique.
Une étude récente du Pr Daniel Garcia San José (269) sur les nouveaux défis posés par l’épigénétique dans le domaine des droits fondamentaux, insiste sur le fait que les normes nationales, communautaires et internationales ne prennent pas suffisamment en compte de tels défis.
Pour le Pr Garcia San José, la spécificité de l’information que l’épigénétique apporte concernant un individu est liée à la question de la propriété des droits fondamentaux concernés. Étant une information intime et, de ce fait, devant être protégée – parce qu’elle touche à la vie privée commune et à l’information génétique – il apparaît que – grâce aux bases du Big Data et du traitement informatique de ces données – l’épigénétique ouvre l’accès à des informations sensibles sur les individus, leurs familles et sur un groupe plus large, auquel appartiennent les individus, par exemple, un groupe ethnique ou racial.
Le Pr Garcia San José appelle aussi l’attention sur les risques de violation du principe de non-discrimination, qui peuvent intervenir dans les relations entre employeurs et employés ou encore être le fait des compagnies d’assurance, par exemple, à l’occasion des tests destinés à savoir si les salariés peuvent être affectés par certaines maladies liées à leurs conditions de travail.
Tout en rappelant que les tribunaux européens et espagnols condamnent les infractions à l’interdiction faite aux employeurs d’accéder aux informations génétiques concernant leurs salariés, le Pr Garcia San José considère néanmoins que l’approche de ces juridictions n’apparaît pas satisfaisante dans le domaine de l’épigénétique.
Ainsi, imagine-t-il le cas où l’employeur demande à ses salariés de fournir volontairement leurs données concernant leurs habitudes alimentaires ou leurs loisirs. Il se peut que certains salariés veuillent fournir ces informations, s’ils pratiquent du sport et ont un mode de vie sain. Toutefois d’autres salariés pourraient se sentir mal à l’aise en révélant de telles informations.
En effet, l’auteur estime que, bien qu’il s’agisse d’informations communiquées volontairement, le simple fait d’autoriser l’employeur à les demander, risque de confronter les récalcitrants à la stigmatisation et à la discrimination.
Car ces derniers peuvent être convaincus du principe bien connu que « quiconque ne veut pas communiquer ses données personnelles a, sans aucun doute, quelque chose à dissimuler ».
Ces risques existent également dans les compagnies d’assurance et au sein des caisses d’assurance-maladie.
Pour l’ensemble de ces raisons, le Pr Garcia San José souhaite jeter les bases d’un cadre, qui consacrerait les principes suivants :
a) Le principe de l’intégrité des personnes et la protection de la dignité et de l’identité des êtres humains dans toute recherche biomédicale impliquant des interventions sur ces derniers, comme les tests génétiques, le traitement des données personnelles et d’échantillons biologiques d’origine humaine utilisées dans la recherche.
b) Le principe d’autodétermination des individus, comme base du consentement spécifique et antérieur à l’obtention de l’information épigénétique.
c) Le respect du principe de non-discrimination et du principe de confidentialité par toute personne accédant aux informations personnelles d’autrui.
d) Le principe de liberté de la recherche scientifique équilibrée par les autres principes fondamentaux toujours sous contrôle par un organisme indépendant prenant en considération les aspects éthiques.
Au total, il apparaît que ces propositions sont similaires – tout au moins dans leur esprit – à celles des normes européennes, qu’il s’agisse du règlement général sur la protection des données du 25 avril 2016 ou de la Convention d’Oviedo du 4 avril 1997 sur les droits de l’Homme et la biomédecine, et à celles consacrées en droit français – la loi informatique et libertés, la loi du 26 janvier 2016 de modernisation de notre système de santé et la loi du 7 octobre 2016 pour une République numérique.
Quoiqu’il en soit, ces différents débats montrent qu’il existe des possibilités différenciées de réformes législatives applicables à l’épigénétique.
B. LES POSSIBILITÉS DIFFÉRENCIÉES DE RÉFORMES LÉGISLATIVES
Ces réformes sont susceptibles de revêtir deux aspects : une extension des législations existantes à l’épigénétique ou une adaptation de ces dernières aux particularités de l’épigénétique.
1. L’extension à l’épigénétique des législations existantes
Ces législations ont trait, pour l’essentiel, à la protection des données à caractère personnel et au droit des brevets.
a. La protection des données à caractère personnel
Enjeu majeur, cet objectif doit concilier différentes exigences, auxquelles les dispositions du droit communautaire et du droit français ont tenté de répondre.
i. Un objectif devant harmoniser plusieurs exigences
Ces exigences concernent la nécessité de prévenir les atteintes aux droits fondamentaux et de satisfaire aux besoins de la recherche.
• La nécessité de prévenir les atteintes aux droits fondamentaux
Étant des informations sensibles et potentiellement identifiantes, ainsi que l’ont montré les débats cités plus haut, les informations épigénétiques sont, comme les informations génétiques, susceptibles d’être confrontées à de telles dérives.
La première de ces dérives est un risque de leur mésusage. Sur ce point, le CCNE a appelé l’attention, dans un récent avis (270), sur les problèmes posés par diverses entreprises de séquençage de populations entières ou de très grandes cohortes dont, par exemple, l’initiative « Precision Medicine » lancée par le président Obama. Ainsi s’inquiète-t-il « des critères sur lesquels sont sélectionnées des personnes participant à des projets comme ceux mis en place au Royaume-Uni ou aux États-Unis, notamment en termes de catégorisation de populations et de respect des règles de non-discrimination sur des bases génétiques ». C’est d’ailleurs pourquoi le CCNE soulève une autre interrogation : « L’ampleur et leur volonté d’ouverture sur l’ensemble de la société ne conduisent-elles pas d’emblée au-delà des frontières entre recherche et médecine, vers une remise en cause possible de ce que nous entendons comme notre vie privée ? ».
Au demeurant, cette remise en cause de la vie privée risque de se traduire par son anéantissement du fait de l’intervention des GAFA (acronyme pour Google-Amazon-Facebook et Apple) dans ce qu’on appelle la médecine « Big Data » connectée, alors même que – comme le relève le CCNE – ces opérateurs n’ont pas de tradition de travail avec les médecins et les biologistes.
Cette idée d’anéantissement de la vie privée est d’autant moins hypothétique, que le CCNE rappelle que les révélations d’Edgar Snowden ont mis en lumière l’existence de programmes de collecte de renseignements à grande échelle auprès des entreprises du numérique telles que Google, Facebook, Amazon, Twitter et Apple, qui accordent aux agences américaines de renseignements un accès privilégié aux données qu’elles stockent.
Ces mêmes entreprises du numérique peuvent contribuer à une seconde dérive quant à la violation du consentement éclairé. En droit français, par exemple, une disposition de la loi informatique et libertés du 6 janvier 1978 prévoit que, dans le cadre d’une recherche dans le champ de la génétique le consentement exprès de la personne – qu’il s’agisse des échantillons ou des données génétiques – est requis et doit porter sur une fin médicale ou scientifique précise.
Pour autant, comme les rapporteurs ont eu l’occasion de le déplorer auprès de plusieurs de leurs interlocuteurs, ce principe du consentement éclairé, destiné à permettre aux patients de prendre une décision en s’appuyant sur un vrai dialogue au cours duquel le médecin doit s’assurer que le patient a bien compris les risques de l’essai clinique auquel il participe, se réduit de plus en plus souvent à un document contractuel liant la relation entre le médecin et le patient. Or, ainsi que Me Robyn Shapiro l’a indiqué, l’application du principe du consentement éclairé donne lieu à de nombreux litiges aux États-Unis parce que les patients ne comprennent pas les informations qui leur sont fournies, tandis que les médecins ne communiquent pas.
À cet égard, Me Shapiro a rappelé aux rapporteurs le cas de cette tribu amérindienne de l’Arizona auprès de laquelle des échantillons de sang avaient été prélevés, en principe en vue de recherches sur le diabète. Le formulaire du consentement ayant toutefois été imprécis, ces échantillons ont, en fait, été utilisés pour des recherches sur la schizophrénie, ce qu’un tribunal a condamné précisément pour violation du consentement éclairé.
C’est également le risque d’un mésusage des données collectées par Google dans le cadre d’un contrat passé avec le même National Health Service (NHS) du Royaume-Uni qui suscite de vives inquiétudes. Aux termes de ce contrat, Deepmind, la filiale de Google est, en principe, chargé d’améliorer la surveillance des patients atteints de maladies rénales (271).
Or, ce ne sont pas seulement les dossiers de ces patients qui ont été transmis à Deepmind mais également ceux d’autres patients ; ces fichiers contiennent des données ultrasensibles remontant jusqu’à cinq années : résultats d’examens, indications d’overdose, avortements, VIH mais aussi des rapports quotidiens de l’hôpital sur l’activité du patient.
Dans ce contexte, on ignore pourquoi Deepmind aurait accès à des données au-delà du système, de détection des insuffisances rénales.
En second lieu, la critique la plus fréquemment formulée est que les patients n’ont pas été informés de ce partenariat et n’ont donc pas donné leur accord pour transférer leurs données à Deepmind. Mais le NHS a souligné que ce type de partenariat était courant et qu’il en existait déjà mille cinq cents – ce qui ne permettait pas de demander l’accord explicite des patients pour chacun d’entre eux.
Le NHS fait également valoir que cet accord comporte des garde-fous. Les données sont anonymisées, hébergées sur le territoire britannique et ne peuvent être utilisées par d’autres entités de Google, Deepmind devant, pour sa part, effacer sa copie à l’expiration de l’accord, prévue à la fin du mois de septembre 2017.
Enfin, certains juristes ont invoqué le fait que cet accord relèverait des exceptions liées à la recherche médicale.
Si, en droit français notamment, les traitements portant sur des données génétiques ne peuvent être mis en œuvre sans une autorisation, celle-ci n’est, toutefois, pas requise s’ils le sont par des médecins ou des biologistes et sont nécessaires aux fins de la médecine préventive, de diagnostics médicaux ou de l’administration de soins ou de traitements (272).
De même, la loi du 5 mars 2012 relative aux recherches impliquant la personne humaine (273) dispose-t-elle que l’examen des caractéristiques génétiques d’une personne à des fins de recherche scientifique peut être réalisé à partir d’éléments du corps de cette personne prélevés à d’autres fins, lorsque cette personne, dûment informée de ce projet de recherche n’a pas exprimé son opposition.
On voit donc que le législateur a souhaité concilier respect des droits fondamentaux de la personne et besoins des chercheurs.
Cet équilibre est, au demeurant, d’autant plus nécessaire que, comme l’a fait observer une étude américaine récente, le contexte actuel, marqué par une tendance à limiter l’accès aux données, peut entraver l’activité des petits laboratoires et des chercheurs isolés.
C’est la raison pour laquelle les réformes législatives récentes, tout en mettant l’accent sur la sauvegarde des droits fondamentaux s’efforce néanmoins en parallèle, de tenir compte des nécessités de la recherche.
ii. Les orientations des réformes législatives récentes
Que ce soit aux plans national ou communautaire, des réformes récentes tentent de parvenir à cet équilibre.
La loi du 26 janvier 2016 de modernisation de notre système de santé et la loi du 7 octobre 2016 pour une République numérique ont introduit d’importantes dispositions visant à renforcer les droits fondamentaux des patients.
Il en est ainsi du régime du dossier médical partagé (DMP). En application de l’article 86 de la loi du 26 janvier 2016, chaque professionnel de santé y reporte les éléments diagnostiques et thérapeutiques nécessaires à la coordination des soins de la personne prise en charge.
C’est sous réserve du consentement exprès de cette dernière, ou de son représentant légal qu’est créé le DMP.
En outre, cette personne pourra à tout moment prendre connaissance des éléments contenus dans ce dossier.
S’agissant des droits reconnus aux chercheurs, l’article 193 de la loi du 26 janvier 2016, prévoit qu’ils pourront accéder aux données du système national des données de santé – lequel centralise les données des bases existantes en matière sanitaire et médico-sociale – selon deux modalités différentes :
- les données pour lesquelles aucune identification n’est possible seront accessibles et réutilisables par tous en open data ;
- les données potentiellement identifiantes pourront être utilisées sur autorisation de la CNIL à des fins de recherche ou d’évaluation d’intérêt public dans le domaine de la santé.
Quant à la loi pour une République numérique modifiant l’article premier de la loi informatique et libertés, elle consacre le droit à l’autodétermination informationnelle. Ce droit, qui s’inspire d’un droit similaire dégagé par la Cour constitutionnelle allemande traduit la nécessaire maîtrise par l’individu de ses données.
À travers cette disposition, le législateur français anticipe l’incorporation en droit national du règlement général sur la protection des données (RGPD) du 27 avril 2016.
• La législation communautaire
Le règlement général sur la protection des données renforce, en effet, les droits de la personne dont les données à caractère personnel sont l’objet d’un traitement. Ces droits renforcés permettent aux personnes d’exercer un plus grand contrôle sur ces données à caractère personnel, notamment en prévoyant :
- la nécessité d’obtenir de la personne qu’elle indique clairement qu’elle consent au traitement des données. Outre le fait que le consentement ne saurait jamais être implicite ou général, il doit être prouvé par le responsable du traitement ;
- le droit à une information complète sur le traitement des données, exprimée de façon claire et simple quel qu’en soit le support ;
- le droit d’être informé en cas de violation de ses données personnelles ;
- le droit à l’effacement ou « droit à l’oubli » ;
- le droit à la limitation du traitement, en particulier, afin de permettre à la personne concernée de faire valoir ses droits en justice ;
- le droit à la portabilité des données en cas de changement de fournisseur de services ;
- le droit d’opposition, en particulier pour encadrer le profilage.
Ainsi que certains commentateurs l’ont fait observer, ce sont donc onze droits qui sont désormais reconnus à la personne au lieu des trois actuels droits de la loi Informatique et libertés : opposition au traitement sous réserve de motifs légitimes, accès/communication et rectification/suppression des données.
Même si, pour l’heure, les dépôts de brevets sont peu nombreux, comme l’indiquait Mme Isabelle Hegedüs (274) lors de l’audition publique de l’OPECST du 25 novembre 2015, il apparaît que, selon ses propres observations : « Les inventions ne présentent pas une nature différente de celle à laquelle nous sommes confrontés dans d’autres domaines de la médecine ». Il en est ainsi de certaines demandes de brevets portant sur les médicaments.
Ces substances agissent de même manière épigénétique sur la méthylation ou la déméthylation de l’ADN ou en modifient les histones par le biais de molécules chimiques, donc de la même manière que d’autres types de médicaments agissant par d’autres voies. Or, il est courant en médecine, d’utiliser des médicaments de synthèse.
Par conséquent le domaine de l’épigénétique ne revêt, en l’occurrence, aucune spécificité.
Mme Hegedüs n’a pas non plus relevé de particularités en ce qui concerne les brevets portant sur des techniques de criblage ou sur des tests in vitro. Les premiers sont relatifs à des cultures cellulaires permettant d’étudier les effets en matière de thérapie épigénétique de différentes molécules, afin de déterminer celles qui sont susceptibles d’avoir une action à visée thérapeutique.
Les secondes concernent, par exemple, des vecteurs utilisés pour le transport au sein de la cellule, d’actifs épigénétiques, afin d’étudier les mécanismes intervenant lorsque l’actif arrive au cœur de la cellule.
De même encore, Mme Hegedüs a-t-elle précisé que, dans le domaine de l’épigénétique comme dans tout autre, sont exclues de la brevetabilité toutes les étapes – thérapeutiques, chirurgicales ou diagnostiques – effectuées in vivo.
Il apparaît donc clairement que l’INPI applique aux inventions épigénétiques les critères classiques de brevetabilité – que ce soit la nouveauté, l’activité inventive ou l’application industrielle.
2. L’adaptation de certaines législations aux particularités de l’épigénétique
Deux exemples peuvent être cités ici, dans lesquels les particularités de l’épigénétique pourraient nécessiter des adaptations de la législation : le premier concerne certains aspects de la responsabilité en droit américain et, le second, l’appréciation des risques environnementaux dans le cas du règlement REACH.
a. Les limites du régime de la responsabilité pour faute du droit américain
Le régime de la Tort law du droit américain exige de la victime qu’elle apporte la preuve que le préjudice dont elle se plaint résulte directement des actions du défendeur.
Or, des juristes ont souligné les limites de ce régime de responsabilité, en particulier en ce qui concerne les dommages résultant de l’exposition à des agents environnementaux. Dans de tels cas, il peut être difficile de prouver que l’exposition à un produit particulier a entraîné des effets épigénétiques négatifs.
Dans le cadre du régime actuel de responsabilité pour faute, le préjudice n’est reconnu que lorsqu’il affecte un individu au niveau cellulaire ou supra-cellulaire. Ainsi, les mutations épigénétiques dues à une exposition chimique ne seraient pas considérées comme préjudiciables, à moins de causer des effets négatifs observables – ce qui pose problème, puisque les modifications épigénétiques peuvent être dépourvues d’effets cellulaires notables pendant plusieurs années ou, dans certains cas, pendant des générations.
D’autres difficultés s’y ajoutent tenant notamment à la question de savoir si les entreprises pourraient être considérées comme responsables des modifications épigénétiques seulement lorsque celles-ci ont causé un préjudice ou lorsque la preuve est apportée de l’apparition d’une quelconque modification épigénétique.
Enfin, certains juristes ont souligné qu’il serait d’autant plus malaisé d’identifier et de prouver la faute d’une entreprise déterminée que le fait dommageable pourrait n’être pas uniquement imputable aux produits fabriqués par cette entreprise.
Certains ont, en effet, fait valoir que chacun d’entre nous est exposé à tant de produits et de substances chimiques différentes – ce qu’on appelle l’effet cocktail – qu’il est difficile d’établir un seul lien de causalité et de responsabilité.
Pour l’ensemble de ces raisons, une partie de la doctrine juridique américaine a souhaité que ce système de responsabilité soit modifié, afin que puissent donner lieu à réparation les effets épigénétiques dommageables résultant de l’exposition à des agents environnementaux.
b. Le réexamen nécessaire du règlement REACH au regard de l’appréciation des effets épigénétiques des produits toxiques.
La nécessité d’une telle réflexion est soulignée par l’intervention même de Mme Alexandra Langlais au cours de l’audition publique de l’OPECST du 25 novembre 2015.
En effet, dans des propos très nuancés, Mme Langlais a formulé trois hypothèses :
- selon la première, le règlement REACH tiendrait déjà compte d’une partie des effets épigénétiques. Ainsi fait-elle observer que l’obligation faite aux producteurs ou à l’importateur de prouver l’innocuité de son produit n’ignore pas complètement les phénomènes épigénétiques, bien que ceux-ci ne soient pas visés en tant que tels ;
- la deuxième hypothèse envisage une modification de la législation existante, Mme Langlais se référant sur ce point, au cas des nano matériaux. En effet, l’article L523-1 du code de l’environnement tel qu’il a été introduit par la loi du 12 juillet 2010 portant engagement national pour l’environnement, impose des obligations d’information de l’autorité administrative et du public aux fabricants, importateurs ou distributeurs de substances à l’état nanoparticulaire ;
- enfin, dans une troisième hypothèse, il s’agirait de prévoir une législation spécifique. Mme Langlais s’est demandé si les phénomènes épigénétiques ne pourraient pas être aussi assimilés aux substances, telles que celles visées à l’annexe 14 du règlement REACH. Ce sont des substances préoccupantes nécessitant une autorisation avant une mise sur le marché et sur lesquelles pèse une obligation de substitution. Pour autant, une telle solution impliquerait de savoir s’il est possible de définir des substances à effets épigénétiques.
En ce qui concerne ce dernier point, il doit être rappelé toutefois qu’une étude de chercheurs américains, citée précédemment, a précisément souhaité que les données épigénétiques puissent être incorporées dans l’appréciation des risques de cinq métaux particulièrement toxiques – l’arsenic, le cadmium, le chrome, le plomb et le mercure – du fait des effets épigénétiques qu’ils induiraient(275), en ce qui concerne donc la méthylation de l’ADN, les modifications d’histones et l’expression des ARN non codants.
*
* *
Qu’il s’agisse des interventions de juristes lors de l’audition publique de l’OPECST du 25 novembre 2015 ou des entretiens que les rapporteurs ont eus outre-Atlantique, notamment, il apparaît donc que, pour les pouvoirs publics mais également pour les autres acteurs concernés – publics et chercheurs – la protection des données personnelles et l’appréciation des risques environnementaux constituent deux enjeux majeurs soulevés par l’essor de l’épigénétique.
C’est pourquoi, pour ce qui est du premier enjeu, les rapporteurs souhaiteraient que, préalablement à la mise en place du plan France Médecine génomique 2025, le Gouvernement saisisse le Comité consultatif national d’éthique (CCNE), afin que ce dernier procède à un débat public en vue d’examiner les problèmes éthiques et juridiques que pourrait poser cette initiative, au regard, en particulier, des observations que le CCNE a formulées sur des projets comparables dans son avis n° 124 du 21 janvier 2016.
Car s’il ne saurait être question, dans l’esprit des rapporteurs, de s’opposer à un tel projet, lequel va, au demeurant, dans le même sens que l’une des recommandations formulées dans le rapport de l’OPECST sur la médecine de précision, il importe néanmoins, de toute évidence, de garantir le respect des droits fondamentaux. À cet égard, comme déjà mentionné, plusieurs dispositions législatives nationales et communautaires y ont appelé : la loi du 26 janvier 2016 relative à la modernisation de notre système de santé, la loi du 7 octobre 2016 pour une République numérique et le règlement général de protection des données du 27 avril 2016.
En raison des mêmes préoccupations, il semble également opportun aux rapporteurs de reprendre ici une autre proposition émise dans le rapport de l’OPECST sur la médecine de précision, appelant à la ratification du protocole additionnel à la Convention sur les droits de l’Homme et la biomédecine relatif aux tests génétiques à des fins médicales, signé par la France en décembre 2011.
En second lieu, en ce qui concerne l’appréciation des risques, il convient de prévenir tout retard de l’encadrement juridique au regard de l’essor de l’épigénétique.
Dans cette perspective, il paraîtrait nécessaire que les autorités françaises demandent à la Commission européenne de procéder à une étude sur les effets épigénétiques induits éventuellement par les produits chimiques et d’autres agents toxiques qui leur sont associés et d’envisager, le cas échéant, une modification du règlement REACH ou une législation ad hoc.
L’épigénétique est-elle une nouvelle logique du vivant ? À l’évidence, cette question, qui est l’une de celles ayant dominé les travaux des rapporteurs, a divisé leurs interlocuteurs et continue de susciter des débats puisqu’une récente étude encore s’est demandé si l’épigénétique redéfinissait le paradigme de la génétique moléculaire (276). Comme cela a été le cas pour d’autres disciplines, dont les contours ne sont pas stabilisés, il est probable, que tout en continuant son essor, se poursuivront les controverses sur la définition et le statut scientifique de l’épigénétique.
Quoi qu’il en soit, il apparaît essentiel que la génétique et l’épigénétique s’enrichissent de leurs apports et progrès respectifs. Il y va non seulement de l’intérêt de la science fondamentale mais aussi de celui de la France, qui compte des équipes de renommée mondiale. À cet égard, les rapporteurs sont résolument convaincus de la nécessité de soutenir la recherche fondamentale, laquelle joue un rôle moteur dans le développement de la recherche appliquée, tant les liens entre les deux composantes sont étroits, comme l’illustre parfaitement la place majeure occupée par la recherche translationnelle dans le domaine de l’épigénétique.
Les pouvoirs publics, ainsi que le montrent d’ailleurs les initiatives que prendra le Gouvernement dans le cadre du plan France Médecine Génomique 2025, par exemple, doivent s’y montrer d’autant plus attentifs que le nombre – appelé à croître – de patients atteints des maladies dites de civilisation, aura pour effet d’alourdir davantage les dépenses de santé.
Mais il est clair que, si les pouvoirs publics veulent limiter la hausse des dépenses de santé, il leur faudra aussi tirer profit de la démarche holistique offerte par l’épigénétique afin de mieux piloter leur politique de santé. Il y a là des gisements potentiels d’économies, ce qui est loin d’être négligeable à l’heure où les pouvoirs publics s’efforcent de rationaliser les dépenses de santé, et des voies susceptibles de persuader les populations d’adhérer d’elles-mêmes et de façon active à l’objectif de développement durable de la santé. Ce qui suppose également que nul ne soit exclu de l’accès aux nouvelles thérapies qui seront le fruit des avancées de l’épigénétique, sauf à réduire à un vœu pieux la notion de démocratie sanitaire, pourtant consacrée par la loi du 26 janvier 2016 de modernisation de notre système de santé.
Car celle-ci ne pourra constituer réellement l’un des piliers de l’État de droit du XXIe siècle que si l’essor de l’épigénétique se concilie harmonieusement avec le respect des normes éthiques et juridiques. Il s’agit là d’une ardente obligation pour les pouvoirs publics, les chercheurs et les personnes privées les plus puissantes – c’est-à-dire les entreprises multinationales.
I. développer l’enseignement et la recherche en épigénétique
1. Créer une section d’épigénétique au sein du Conseil national des universités ;
Plusieurs de nos interlocuteurs se sont plaints du cloisonnement persistant des disciplines au sein de l’Université française, ce qui va à l’encontre de la nature interdisciplinaire de l’épigénétique.
C’est pourquoi il est proposé que, au sein du Conseil national des universités, instance chargée du recrutement et de la carrière des professeurs d’université et des maîtres de conférences, soit créée une section d’épigénétique qui sera compétente pour le recrutement et la gestion des carrières d’enseignants de diverses disciplines.
2. Instituer un enseignement en épigénétique dès le premier cycle des études scientifiques ;
Hormis certaines exceptions – et, ce, à la différence des pays anglo-saxons, par exemple – l’épigénétique est rarement enseignée dès le premier cycle des études scientifiques.
Il importe d’y remédier afin que les étudiants puissent avoir, le plus tôt possible, une vision intégrative de la biologie à travers l’épigénétique.
3. Prévoir des enseignements sur l’épigénétique, les origines développementales de la santé et des maladies (DOHaD), la nutrigénomique, les risques environnementaux et sur l’économie de la santé dans les filières de formation des professions de santé ;
Lors de l’audition publique du 25 novembre 2015, plusieurs intervenants ont critiqué l’absence de mention de ces disciplines dans les programmes d’études – notamment ceux des futurs médecins – alors que certaines d’entre elles, comme la nutrigénomique et la DOHaD, permettent, comme l’épigénétique, d’avoir une vision intégrative de la biologie et de la santé. Il importe donc d’y remédier.
4. Développer l’enseignement et la recherche en chimie médicale, en biologie des systèmes, en toxicologie et en biostatistique ;
Il s’agit de disciplines souffrant de très sérieuses insuffisances – et, même, de quasi-inexistence – tant en ce qui concerne l’enseignement que la recherche, alors qu’elles jouent un rôle essentiel dans l’essor de l’épigénétique.
Lors de l’audition publique du 16 juin 2015, des intervenants ont souligné que c’est la chimie médicale qui permet à l’épigénétique d’apporter sa contribution à la pharmacologie. Or, non seulement l’enseignement de la chimie médicale est pratiquement inexistant en France mais, en outre, la France, faute d’avoir investi dans la recherche en chimie médicale, accuse un retard considérable dans la fabrication des produi