N° 949 - Rapport d'information de M. Pieyre-Alexandre Anglade déposé par la commission des affaires européennes portant observations sur les proposition de loi organique et proposition de loi relatives à la lutte contre les fausses informations (n° 772 et n° 799)




N° 949

______

ASSEMBLÉE NATIONALE

CONSTITUTION DU 4 OCTOBRE 1958

QUINZIÈME LÉGISLATURE

Enregistré à la Présidence de l'Assemblée nationale le 16 mai 2018.

RAPPORT D’INFORMATION

DÉPOSÉ

PAR LA COMMISSION DES AFFAIRES EUROPÉENNES (1)

portant observations sur les proposition de loi organique et proposition de loi relatives à la lutte contre les fausses informations (nos 772 et 799)

ET PRÉSENTÉ

PAR M. Pieyre-Alexandre ANGLADE,

Député

——

(1) La composition de la commission figure au verso de la présente page.

La Commission des affaires européennes est composée de : Mme Sabine THILLAYE, présidente ; MM. Pieyre-Alexandre ANGLADE, Jean-Louis BOURLANGES, Bernard DEFLESSELLES, Mme Liliana TANGUY, vice-présidents ; Mme Sophie AUCONIE, M. André CHASSAIGNE, Mmes Marietta KARAMANLI, Danièle OBONO, secrétaires ; MM. Damien ABAD, Patrice ANATO, Mme Aude BONO-VANDORME, MM. Éric BOTHOREL, Vincent BRU, Mmes Fannette CHARVIER, Yolaine de COURSON, Typhanie DEGOIS, Marguerite DEPREZ-AUDEBERT, M. Benjamin DIRX, Mmes Coralie DUBOST, Françoise DUMAS, MM. Pierre-Henri DUMONT, Alexandre FRESCHI, Bruno FUCHS, Mmes Valérie GOMEZ-BASSAC, Carole GRANDJEAN, Christine HENNION, MM. Michel HERBILLON, Alexandre HOLROYD, Mme Caroline JANVIER, MM. Christophe JERRETIE, Jérôme LAMBERT, Mmes Constance LE GRIP, Nicole LE PEIH, MM. Jean-Claude LECLABART, Ludovic MENDES, Thierry MICHELS, Christophe NAEGELEN, Damien PICHEREAU, Jean-Pierre PONT, Joaquim PUEYO, Didier QUENTIN, Mme Maina SAGE, MM. Raphaël SCHELLENBERGER, Benoit SIMIAN, Éric STRAUMANN, Mmes Michèle TABAROT, Alice THOUROT.

SOMMAIRE

___

Pages

I. FACE À LA DIFFUSION MASSIVE DE FAUSSES INFORMATIONS, L’UNION EUROPÉENNE PROPOSE UNE APPROCHE DE RESPONSABILISATION DES PLATEFORMES NUMÉRIQUES 7

A. DE NOUVEAUX OUTILS ENTRAÎNENT DE NOUVELLES RESPONSABILITÉS : LE RÔLE DES PLATEFORMES EN LIGNE 7

1. Des innovations de rupture propres à favoriser la liberté d’information qui ne sont pas dénuées d’effets pervers 7

2. Les modalités de diffusion des fausses informations 8

3. Un régime de responsabilité des plateformes inadapté 9

B. PROTÉGER LA SINCÉRITÉ DU SCRUTIN 12

1. Les fortes inquiétudes relatives aux scrutins récents… 12

2. …ont entraîné une prise de conscience des institutions européennes 14

3. L’initiative européenne s’inscrit dans une action internationale de plus grande ampleur 15

C. LA COMMISSION EUROPÉENNE PROPOSE UNE RIPOSTE GRADUÉE FACE À CE PHÉNOMÈNE D’AMPLEUR 16

1. Une approche globale valorisée par les experts de haut niveau 16

2. Une initiative destinée à favoriser l’autorégulation… 17

3. …qui n’exclut pas la possibilité de recourir à une forme de régulation 20

II. S’ARMER DANS LA GUERRE DE LA DÉSINFORMATION : UN ENSEMBLE D’OUTILS POUR UNE RÉPONSE GLOBALE ET INCLUSIVE 22

A. LES RÉPONSES NATIONALES PEUVENT ÊTRE EFFICACES MAIS NE SUFFISENT PAS 22

B. LA RÉPONSE EUROPÉENNE DOIT ÊTRE GLOBALE ET S’ADAPTER À LA DIVERSITÉ DES RISQUES 23

C. LA SINCÉRITÉ DU SCRUTIN DOIT ÊTRE, EN TOUT ÉTAT DE CAUSE, ABSOLUMENT PRÉSERVÉE 24

TRAVAUX DE LA COMMISSION 25

INTRODUCTION

Mesdames, Messieurs,

L’entrée dans l’ère de la post-vérité n’est en rien une fatalité, et toute forme de relativisme en la matière doit être fermement combattue. Les informations ne se valent en effet pas toutes, il n’existe pas de juste milieu entre une rumeur et un fait authentique, dûment vérifié grâce à des procédures journalistiques conformes à de stricts principes déontologiques.

La question des fausses informations n’est pas nouvelle, en témoigne la loi sur la liberté de la presse de 1881, abondamment citée dans les débats qui entourent les propositions de loi examinées ici. La diffusion de fausses nouvelles avec l’intention manifeste de nuire est donc déjà identifiée et sanctionnée, dans le cadre des « délits contre la chose publique ». Le monde a toutefois largement changé. La rapidité et l’ampleur avec lesquelles les fausses informations peuvent être diffusées nécessitent une réaction rapide, compte tenu des enjeux.

Les périodes électorales sont des moments particulièrement propices à l’adhésion d’un nombre important de citoyens aux fausses informations. De nombreux contenus sont alors partagés et le débat public qui se tient à ce moment-là rend moins lisible la frontière entre ce qui relève de l’opinion, fût-elle erronée, et d’une tentative avérée de saper la confiance des citoyens envers leurs institutions, la presse et le processus démocratique dans son ensemble.

Si la procédure de référé qui est établie dans les propositions de loi semble proportionnée, votre rapporteur estime que la réponse au problème de la désinformation ne peut s’arrêter aux frontières nationales. Les tentatives de déstabilisation des élections ou des référendums aux États-Unis, au Royaume-Uni, en France ou encore en Italie, dont il est difficile d’estimer l’impact, en témoignent. Ces tentatives sont directement liées à des stratégies d’influence que développent des États tiers à dessein : il s’agit ni plus ni moins que de remettre en cause la cohésion européenne. Ces menaces extérieures sont connues, elles ont été identifiées à plusieurs reprises. La réponse ne peut être qu’européenne.

S’armer face à une forme de guerre hybride que mènent à l’Europe dans son ensemble des organes publics et privés, sous contrôle étatique ou non, suppose une réponse d’ensemble, qui ne se fonde pas uniquement sur la répression. L’action des plateformes en ligne, sur lesquelles les fausses informations se répandent le plus vite sans qu’aucune vérification ne puisse servir de filtre initial, est cruciale. À ce titre, les obligations de transparence que comprennent les propositions de loi seront un outil supplémentaire entre les mains des citoyens pour savoir qui finance des contenus politiques sponsorisés, et dans quel but.

Mais, comme le montre la communication de la Commission européenne du 26 avril dernier, l’action vertueuse des plateformes ne peut se suffire à elle-même, compte tenu de la rapidité de diffusion des fausses informations. Même l’action du juge, aussi rapide soit-elle, ne peut permettre de supprimer tous les contenus nocifs. C’est donc par l’éducation aux médias numériques, le maintien d’une forme de diversité des points de vue médiatiques et la promotion des médias garantissant l’authenticité des informations communiquées que l’Union européenne peut lutter plus efficacement contre les fausses informations.

Ce combat est crucial, notamment dans la perspective des échéances à venir. Les élections européennes qui se tiendront en 2019 doivent permettre de choisir la forme que prendra l’Union européenne dans les dix ans à venir. Or l’accumulation de scrutins nationaux ainsi que la méconnaissance de nombreux citoyens sur ce que fait et ce qu’est l’Union européenne constituent un terreau favorable à la propagation de fausses informations. Votre rapporteur estime donc que le partage d’expérience et la lutte de tous les États membres contre les stratégies de déstabilisation du scrutin sont la condition sine qua non pour en garantir la sincérité.

Le caractère nocif de la diffusion de fausses informations, dans un contexte électoral comme dans les secteurs économiques ou financiers par ailleurs, est établi de longue date, notamment en droit national. C’est ainsi que la loi du 29 juillet 1881, abondamment citée dans cette matière, comporte des dispositions, dans ses chapitres IV et V, destinées à réprimer les discours sciemment erronés, diffamatoire, injurieux ou provocants.

Ce cadre juridique fermement établi souffre toutefois d’une forme d’inadéquation avec le contexte actuel, en raison des évolutions technologiques récentes. Les enjeux ne concernent désormais pas tant les contenus délibérément illicites que les fausses informations, qui n’ont jamais été aussi nombreuses, aussi savamment élaborées ni diffusées avec autant de vecteurs différents. L’accès de la grande majorité des citoyens européens à un vaste champ d’informations en ligne signifie également le retrait des médiateurs habituels, qui servaient de filtre reconnu et propres à garantir l’authenticité des informations. Il en va désormais différemment, compte tenu de l’érosion de la confiance des citoyens tant dans les institutions publiques que dans les médias traditionnels.

C’est pourquoi votre rapporteur estime que les nouveaux intermédiaires de l’information, à commencer par les plateformes en ligne, doivent accepter de se conformer à des obligations à la mesure de leur rôle actuel dans la diffusion des informations, et, partant, de l’animation du débat public.

Internet a largement modifié les modalités d’accès à l’information : une part de plus en plus importante des jeunes utilisent les médias en ligne comme unique source d’information. Ainsi, en 2016, selon un baromètre européen, les réseaux sociaux et les moteurs de recherche étaient les biais privilégiés de recherche de l’information pour 57 % des utilisateurs au sein de l’Union européenne.

Dans sa communication (1), la Commission européenne démontre que l’apparition de nouveaux acteurs dans le cadre des médias, tels que les plateformes d’agrégation d’informations, qui visent à minimiser le temps de recherche des utilisateurs et privilégient la quantité à la qualité des informations fournies, a contribué à un accès facilité des utilisateurs à une grande quantité d’actualités. Cette concurrence s’exerce aux dépens des éditeurs d’information traditionnels, de telle sorte qu’entre 2010 et 2014, le revenu total de ces acteurs traditionnels a chuté de 13 %, soit 9,47 milliards d’euros.

Les possibilités de manipuler l’information se sont également multipliées, puisqu’il est possible de créer de fausses nouvelles qui paraissent de plus en plus « authentiques ». Ces informations peuvent être elles-mêmes diffusées plus facilement par le biais d’algorithmes qui renforcent la polarisation des idées, les modèles publicitaires récompensant les contenus les plus partagés ainsi que des outils tels que les « bots » (2), les faux comptes ou encore les « usines à troll » (3).

La Commission européenne a mis en place un groupe d’experts à haut niveau pour la conseiller sur la manière de lutter contre la désinformation. Le rapport (4), rendu le 12 mars 2018, insiste notamment sur l’idée que la lutte contre les fausses nouvelles ne peut se faire au détriment de la liberté d’expression dans son ensemble. Au contraire, le soutien à la recherche, à une plus grande transparence vis-à-vis des citoyens, notamment pour ce qui est des données publiques, doit être assuré en permanence.

La problématique relative aux fausses informations emporte d’abord un problème de définition. Ainsi que le suggère le Conseil d’État, dans son avis sur les propositions de loi, la préservation d’une bonne information des citoyens doit dépasser la seule question des fausses nouvelles. Si l’on suit la jurisprudence de la Cour de Cassation en la matière, les « fausses nouvelles » désignent des nouvelles se rattachant à un fait précis et circonstancié, non encore divulgué et dont le caractère mensonger est établi de façon objective. Or, les contenus intentionnellement faux qui circulent sur les plateformes numériques dépassent largement la seule sphère des informations « non encore divulguées ». Il semble donc à votre rapporteur qu’il est plus pertinent de retenir comme critère unique la notion de « fausses informations », dès lors que la diffusion massive de celles-ci et l’intention formellement établie de nuire au bon déroulement du scrutin en font des menaces pour les intérêts fondamentaux de la Nation.

Les stratégies de désinformation s’appuient donc sur toute forme d’information fausse, incorrecte ou susceptible d’induire en erreur, destinée à provoquer intentionnellement un mal public ou à assurer une forme de profit. Les fausses informations ne comprennent toutefois pas les contenus illégaux, désignés comme tels dans le droit national, tels que la diffamation, les propos haineux et l’incitation à la violence. De la même manière, cette définition exclut les erreurs, la satire ainsi que la parodie. La difficulté juridique propre à la lutte contre la diffusion de fausses informations tient au caractère hybride de leur statut : si elles ne sont pas illicites en soi, les stratégies de désinformation qui s’appuient sur la saturation de l’espace public sont particulièrement nocives pour nos sociétés. Cette désinformation vise à provoquer une déstabilisation publique intentionnelle et miner ainsi la confiance des citoyens envers leurs institutions publiques. La diffusion de fausses informations suit souvent un but idéologique, voire géopolitique. Si la désinformation n’est pas illicite en tant que telle, elle peut participer d’une stratégie globale, à l’initiative d’un acteur, public ou privé.

Or, les citoyens européens, malgré un haut degré d’éducation, propice au développement de l’esprit critique, sont particulièrement vulnérables à la diffusion des fausses informations, tout d’abord en raison de la prégnance du phénomène. Ainsi, l’un des eurobaromètres les plus récents (5) montre que plus de la moitié des personnes qui ont répondu, déclarent voir ou entendre au moins une fausse information par semaine. De plus, 85 % des personnes ont identifié les fausses nouvelles comme un problème dans leur pays, au moins jusqu’à un certain point.

Le droit européen ne reconnaît qu’à la marge la notion de plateforme, pourtant abondamment utilisée par la Commission européenne dans sa communication relative à la lutte contre les fausses informations. Ces acteurs du numérique tombent dans le régime de droit commun établi par la directive 2000/31/CE, dite directive « e-commerce », qui distingue les acteurs du numérique en deux catégories : les éditeurs et les hébergeurs passifs.

La définition du statut d’hébergeurs par le directive « commerce électronique »

Article 12 Simple transport (" Mere conduit ")

1. Les États membres veillent à ce que, en cas de fourniture d'un service de la société de l'information consistant à transmettre, sur un réseau de communication, des informations fournies par le destinataire du service ou à fournir un accès au réseau de communication, le prestataire de services ne soit pas responsable des informations transmises, à condition que le prestataire :

a) ne soit pas à l'origine de la transmission ;

b) ne sélectionne pas le destinataire de la transmission et

c) ne sélectionne et ne modifie pas les informations faisant l'objet de la transmission.

2. Les activités de transmission et de fourniture d'accès visées au paragraphe 1 englobent le stockage automatique, intermédiaire et transitoire des informations transmises, pour autant que ce stockage serve exclusivement à l'exécution de la transmission sur le réseau de communication et que sa durée n'excède pas le temps raisonnablement nécessaire à la transmission.

3. Le présent article n'affecte pas la possibilité, pour une juridiction ou une autorité administrative, conformément aux systèmes juridiques des États membres, d'exiger du prestataire qu'il mette un terme à une violation ou qu'il prévienne une violation.

Article 13 Forme de stockage dite " caching "

1. Les États membres veillent à ce que, en cas de fourniture d'un service de la société de l'information consistant à transmettre, sur un réseau de communication, des informations fournies par un destinataire du service, le prestataire ne soit pas responsable au titre du stockage automatique, intermédiaire et temporaire de cette information fait dans le seul but de rendre plus efficace la transmission ultérieure de l'information à la demande d'autres destinataires du service, à condition que :

a) le prestataire ne modifie pas l'information ;

b) le prestataire se conforme aux conditions d'accès à l'information ;

c) le prestataire se conforme aux règles concernant la mise à jour de l'information, indiquées d'une manière largement reconnue et utilisées par les entreprises ;

d) le prestataire n'entrave pas l'utilisation licite de la technologie, largement reconnue et utilisée par l'industrie, dans le but d'obtenir des données sur l'utilisation de l'information

et

e) le prestataire agisse promptement pour retirer l'information qu'il a stockée ou pour en rendre l'accès impossible dès qu'il a effectivement connaissance du fait que l'information à l'origine de la transmission a été retirée du réseau ou du fait que l'accès à l'information a été rendu impossible, ou du fait qu'un tribunal ou une autorité administrative a ordonné de retirer l'information ou d'en rendre l'accès impossible.

2. Le présent article n'affecte pas la possibilité, pour une juridiction ou une autorité administrative, conformément aux systèmes juridiques des États membres, d'exiger du prestataire qu'il mette fin à une violation ou qu'il prévienne une violation.

Article 14 Hébergement

1. Les États membres veillent à ce que, en cas de fourniture d'un service de la société de l'information consistant à stocker des informations fournies par un destinataire du service, le prestataire ne soit pas responsable des informations stockées à la demande d'un destinataire du service à condition que :

a) le prestataire n'ait pas effectivement connaissance de l'activité ou de l'information illicites et, en ce qui concerne une demande en dommages et intérêts, n'ait pas connaissance de faits ou de circonstances selon lesquels l'activité ou l'information illicite est apparente ou

b) le prestataire, dès le moment où il a de telles connaissances, agisse promptement pour retirer les informations ou rendre l'accès à celles-ci impossible.

2. Le paragraphe 1 ne s'applique pas lorsque le destinataire du service agit sous l'autorité ou le contrôle du prestataire.

3. Le présent article n'affecte pas la possibilité, pour une juridiction ou une autorité administrative, conformément aux systèmes juridiques des États membres, d'exiger du prestataire qu'il mette un terme à une violation ou qu'il prévienne une violation et n'affecte pas non plus la possibilité, pour les États membres, d'instaurer des procédures régissant le retrait de ces informations ou les actions pour en rendre l'accès impossible.

Article 15 Absence d'obligation générale en matière de surveillance

1. Les États membres ne doivent pas imposer aux prestataires, pour la fourniture des services visée aux articles 12, 13 et 14, une obligation générale de surveiller les informations qu'ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites.

2. Les États membres peuvent instaurer, pour les prestataires de services de la société de l'information, l'obligation d'informer promptement les autorités publiques compétentes d'activités illicites alléguées qu'exerceraient les destinataires de leurs services ou d'informations illicites alléguées que ces derniers fourniraient ou de communiquer aux autorités compétentes, à leur demande, les informations permettant d'identifier les destinataires de leurs services avec lesquels ils ont conclu un accord d'hébergement.


Toutefois, ainsi que l’indique le considérant 42 de cette directive, les dérogations en matière de responsabilité qu’elle prévoit « ne couvrent que les cas où l’activité du prestataire de services dans le cadre de la société de l’information est limitée au processus technique d’exploitation et de fourniture d’un accès à un réseau de communication sur lequel les informations fournies sont transmises ou stockées temporairement (…) Cette activité revêt un caractère purement technique, automatique et passif qui implique que le prestataire de services de la société de l’information n’a pas la connaissance ni le contrôle des informations transmises ou stockées. »

Or, de nombreux chercheurs, à l’instar du professeur Pierre Sirinelli (6), spécialiste de la question des droits d’auteurs, ont remis en cause cette distinction entre éditeurs et hébergeurs passifs. Peut-on considérer encore aujourd’hui que les plateformes ne mènent aucune activité éditoriale et que l’hébergement des contenus se fait de manière uniquement « technique, automatique et passive » ? Le débat est encore vif aujourd’hui, compte tenu du fait que ce régime peut également favoriser l’émergence de plateformes européennes d’une taille conséquente. Toutefois, votre rapporteur estime que des obligations supplémentaires à raison des contenus qu’elles hébergent peuvent être imposées aux plateformes, étant donnés à la fois leur taille, leur rôle dans la diffusion de l’information, souvent accompagné d’une certaine forme d’éditorialisation et de classement des contenus référencés, ainsi que l’inefficacité actuelle des seuls règlements internes à ces entreprises.

Votre rapporteur attend dans tous les cas les conclusions de la mission menée par Mme Laëtitia Avia sur le cadre européen actuel du régime de responsabilité civile et pénale des plateformes. Le débat relatif à ce régime devra être ouvert, même si les formes actuelles de leur responsabilité doivent être préservées, qu’il y ait ou non modification de la directive « e-commerce ».

De nombreux exemples récents de scrutins influencés ou perturbés par des campagnes organisées de fausses informations légitiment également l’action de l’Union européenne et des États membres pour garantir la sincérité du scrutin. Qu’il s’agisse des élections américaines de 2016, du référendum sur le Brexit au Royaume-Uni, ou même des tentatives de déstabilisation des élections présidentielle et législative françaises de 2017, le phénomène de diffusion massive de fausses informations en vue d’altérer la bonne tenue des scrutins est par nature transfrontière.

Les facteurs de déstabilisation des sociétés européennes sont multiples. En premier lieu, les acteurs politiques, internes ou externes à l’Union européenne, peuvent suivre chacun une stratégie qui s’appuie sur le brouillage de ce qui peut être considéré comme une information authentique ou non. Il est à noter, à ce titre, que le Foreign Office britannique, a initié une réponse au sein des enceintes multilatérales aux stratégies de déstabilisation de gouvernements étrangers, à commencer par le gouvernement russe. Il apparaît qu’à l’intérieur même de l’Union européenne, tous les mouvements politiques n’ont pas nécessairement un respect égal pour le droit des citoyens à une bonne information. Les entreprises de média peuvent par ailleurs elles-mêmes contribuer au brouillage de l’information : il ne faut en effet en aucun cas oublier que la propagation de fausses informations peut avoir tout autant une source publique qu’une source privée. Enfin, les plateformes, qui éditorialisent toujours d’avantage leurs contenus, doivent pouvoir répondre de leur mode de fonctionnement. Les propositions de loi qui font l’objet des observations subséquentes reprennent les préoccupations de la Commission européenne.

Le problème est toutefois loin de ne concerner que les démocraties européennes. Les auditions que la Délégation au renseignement du Sénat américain a tenues sur les problèmes rencontrés lors de la campagne présidentielle de 2016 sont particulièrement éclairantes pour mesurer l’ampleur des fausses informations en ligne. Sur le réseau Twitter, par exemple, lors d’un recensement effectué entre le 1er septembre et le 15 novembre 2016, 1 % des comptes ayant publié des contenus en lien avec la campagne présidentielle ont pu être identifiés comme originaires de Russie. Il a été estimé qu’un tiers de ces comptes étaient fondés sur des processus automatisés, appelés « bots ». De la même manière, les services du Sénat ont estimé qu’onze mille vidéos sur la plateforme Youtube pouvaient être directement liées à une tentative d’influence du scrutin par une puissance étrangère.

Les représentants des plateformes qui ont été interrogés ont chacun fait part des efforts que leurs entreprises menaient pour éviter la répétition de ce type de problème. À ce titre, M. Kent Walker, Senior Vice-President de Google a expliqué que Google News avait mis en place des équipes de décodage, ainsi qu’un outil de labellisation des informations vérifiées. De plus, afin de permettre aux utilisateurs d’accéder plus facilement aux informations relatives aux contenus politiquement sponsorisés, le représentant de l’entreprise s’est engagé à fournir un rapport relatif à la transparence de leurs plateformes. Ce rapport doit notamment contenir des informations sur l’identité des personnes physiques ou morales finançant la mise en ligne de contenus sponsorisés, ainsi que sur le montant de ces financements. C’est précisément ce que vise l’article L 163-1 nouveau du code électoral, introduit par la proposition de loi ordinaire.

M. Colin Stretch, représentant de Facebook, a quant à lui détaillé les efforts du réseau social via l’embauche d’un plus grand nombre de modérateurs - ils sont déjà près de 10 000 à travailler pour l’entreprise - la mise en place de restrictions publicitaires plus importantes, et des exigences plus grandes vis-à-vis des personnes physiques et morales qui achètent des espaces publicitaires.

Les plateformes américaines sont donc déjà sensibles à la nécessité d’informer les utilisateurs et les électeurs en profondeur, pour ce qui est des contenus les plus politiques. La Commission européenne estime toutefois, dans sa communication exposée ci-dessous, que ces acteurs n’ont toujours pas réussi à mettre en place un schéma efficace de lutte contre la désinformation des citoyens.

La Commission européenne a progressivement évolué dans son approche de l’espace numérique. Si la mise en place d’un marché unique du numérique, aussi intégré que possible, faisait partie de l’un des dix axes du programme de Jean-Claude Juncker, il est désormais acquis que la circulation de l’information sur internet doit respecter un certain nombre de principes, à commencer par ceux garantis par la Charte des droits fondamentaux. Celle-ci consacre notamment la liberté d’expression en son article 11(7), qui comprend le respect pour la liberté de la presse et du pluralisme, ainsi que la possibilité pour les citoyens d’exprimer leurs opinions et de recevoir des informations sans aucune interférence des autorités publiques, de nature à remettre en cause la validité de ces informations. Or, elle a acquis une force juridique comparable à celle des Traités depuis l’entrée en vigueur du Traité de Lisbonne et constitue désormais une source importante de la jurisprudence de la Cour de Justice de l’Union européenne.

Le Parlement européen a également alerté la Commission européenne sur la nécessité de réviser, au moins dans un premier temps d’une manière informelle, la responsabilité des plateformes, à l’aune de leur rôle dans la diffusion des informations en ligne. En particulier, la résolution du 15 juin 2017 (8) « souligne qu’il est important de prendre des mesures pour empêcher la propagation de fausses informations ;

« invite les plateformes en ligne à fournir à leurs utilisateurs des outils leur permettant de rapporter les fausses informations de sorte que les autres utilisateurs puissent être informés de la remise en question de la véracité de ce contenu ;

« insiste, en parallèle, sur le fait que le libre-échange des opinions est essentiel à la démocratie et que le droit au respect de la vie privée s’applique aussi dans la sphère des réseaux sociaux ;

« rappelle la valeur d’une presse libre en ce qui concerne l’offre d’informations fiables aux citoyens. »

Ce sont des principes que partage votre rapporteur et qui animent les propositions de loi qui font l’objet des présentes observations.

Compte tenu de la menace que la propagation des fausses informations, ainsi que la stratégie d’acteurs publics et privés visant à diminuer la confiance du public envers leurs institutions, faisaient peser sur leurs processus démocratiques, un certain nombre d’États et d’organisations internationales ont signé une déclaration conjointe (9). Les signataires, dont l’OSCE et les Nations Unies, ont reconnu, le 3 mars 2017, la prévalence grandissante d’actions de désinformation massive, issues d’acteurs étatiques et non-étatiques et rappelé que les États avaient pour obligation de promouvoir, protéger et soutenir la diversité des médias. Ils ont notamment rappelé les principes suivants :

- les États ne peuvent imposer de restriction à la liberté d’expression que d’une manière conforme au droit international, et en particulier, que si elle est appuyée sur le droit et appliquée de manière proportionnée ;

- ces restrictions peuvent interdire l’incitation à la haine et à la violence, ainsi qu’à la discrimination ;

- ces critères s’appliquent de manière transfrontière, de telle sorte que sont protégés les médias opérant à l’étranger ainsi que ceux qui atteignent la population de l’État donné ;

- les intermédiaires ne doivent jamais être considérés comme responsables d’un contenu issu d’un tiers, si ce n’est lorsqu’ils refusent d’obéir à un ordre adopté en accord avec un organe indépendant, impartial, tel qu’une juridiction, et qu’ils en ont la capacité technique.

Pour ce qui relève plus spécifiquement de la désinformation et de la propagande, la déclaration dispose que, si la prohibition générale de la diffusion de l’information fondée sur une définition vague ou ambiguë des fausses informations est incompatible avec le droit international, les acteurs publics ne devraient pas fabriquer, encourager ou financer la dissémination de nouvelles dont on sait, avec un degré de certitude suffisant, qu’elles sont fausses. À l’inverse, il incombe aux États de diffuser des informations vérifiées et dignes de foi, notamment sur les sujets d’intérêt public tels que les questions économiques ou de santé publique. Enfin, la déclaration appelle les intermédiaires à soutenir la recherche et le développement pour des solutions technologiques appropriées à la désinformation et à la propagande, dont les utilisateurs pourraient faire un usage, sur une base volontaire.

Dans sa lettre de mission de mai 2017, le Président Jean-Claude Juncker demandait notamment à la commissaire Mariya Gabriel, en charge de l’économie et de la société numériques, de « rendre compte des problèmes que les plateformes en ligne posent à nos démocraties en matière de désinformation et d'amorcer une solution européenne à ces problèmes. » Le groupe d’experts mandaté par la Commission a reçu pour mission de la conseiller pour mener à bien cette politique. Ses conclusions rejettent toute forme de censure technique. La fragmentation de l’internet, qui pourrait résulter de la mise en place de mesures nationales destinées à protéger les citoyens de la propagation des fausses nouvelles, ne pourrait qu’altérer en profondeur la capacité de ces mêmes citoyens à bénéficier d’un vaste champ d’informations en ligne.

Les membres du groupe ont privilégié une réponse tridimensionnelle : des recommandations à court terme, visant à répondre aux problèmes les plus pressants, des éléments de long terme pour améliorer la résilience des sociétés européennes vis-à-vis de ce phénomène et un cadre légal pour vérifier l’efficacité des outils et les améliorer, le cas échéant, selon une méthode appuyée sur des preuves. Cet ensemble s’appuie sur cinq piliers, qui vont bien au-delà du champ de la lutte contre la propagation des fausses informations :

- une plus grande transparence pour les nouvelles en ligne, impliquant notamment un partage de données adéquat et respectueux de la vie privée ;

- une éducation aux médias et à l’information, pour aider les utilisateurs à naviguer dans l’environnement des médias numériques ;

- le développement d’outils pour permettre aux utilisateurs et aux journalistes de faire face à la désinformation ;

- la préservation de la diversité et de la soutenabilité de l’écosystème médiatique au sein des États membres ;

- la promotion de la recherche sur l’impact de la désinformation en Europe, en vue d’améliorer la capacité des acteurs publics à prendre des mesures efficaces.

C’est pourquoi, dans un premier temps, le rapport a encouragé la Commission européenne à suivre une approche d’autorégulation des plateformes numériques. Cette approche devrait notamment impliquer un ensemble d’acteurs autour d’un code des bonnes pratiques : les plateformes, les organisations de médias et d’informations, les journalistes, les créateurs de contenu indépendant et l’industrie publicitaire.

La communication de la Commission européenne se fonde d’abord sur l’échec qu’elle impute aux plateformes en ligne dans la lutte contre la propagation des fausses nouvelles. Ces plateformes n’auraient ainsi pas su répondre au défi posé par la manipulation à mauvais escient de leur architecture et de la diffusion rapide des contenus qu’elles permettent.

La protection du processus électoral, tel que le proposent les propositions de loi relatives à la lutte contre les fausses informations, demeure bien évidemment du domaine du droit national. La Commission européenne estime toutefois, dans sa communication, que la dimension transfrontière de la désinformation implique nécessairement une approche européenne, afin d’assurer une protection efficace et coordonnées de l’ensemble des citoyens de l’Union européenne, ainsi que le bon fonctionnement des institutions elles-mêmes. C’est pourquoi la Commission européenne s’intéresse en particulier aux phases électorales, comprises à la fois comme un élément fondamental des démocraties européennes, mais aussi comme un moment de vulnérabilité particulière des sociétés à la manipulation en ligne. Compte tenu de l’abondance d’informations dans les périodes électorales, il est difficile d’entreprendre une vérification exhaustive de l’ensemble des contenus circulant en ligne. Or, selon un rapport de la fondation Freedom house (10), des stratégies de déstabilisation des électeurs à une large échelle ont pu être recensées dans 18 pays, ces dernières années.

En vue de garantir la bonne tenue des élections européennes de 2019, des efforts ont déjà été effectués, sous l’égide du Groupe de Coopération établi par la directive NIS (11), pour échanger les bonnes pratiques entre États membres, eu égard à la cybersécurité et à la gestion des systèmes d’information utilisés à des fins électorales. La Commission a également établi une recommandation le 14 février 2018 « visant à̀ renforcer le caractère européen des élections au Parlement européen de 2019 et à rendre leur conduite plus efficace ». Dans ce cadre, la Commission a notamment souligné que, « compte tenu des risques pour le processus électoral, observés lors de récentes élections et campagnes électorales, de faire l’objet de cyberattaques et de campagnes de désinformation, il convient d’encourager le partage d’expériences entre États membres sur les questions y afférentes. »

Ces efforts vont se prolonger tout au long de l’année 2018 afin de parvenir à un ensemble de recommandations pratiques sur la manière dont les États membres peuvent garantir au mieux la sincérité du scrutin et la liberté d’information pendant la période électorale. Votre rapporteur ne peut que soutenir ces efforts, compte tenu de l’expérience des élections présidentielle et législative en France, en 2017, qui ont vu fleurir des tentatives de déstabilisation du corps électoral par le biais de la désinformation.

Rejetant la possibilité de toute solution unique ou facile, la Commission européenne estime donc qu’il convient :

- d’améliorer la transparence concernant l’origine de l’information et la manière dont celle-ci est produite, financée, diffusée et ciblées, pour permettre aux citoyens d’y accéder en connaissance de cause ;

- de promouvoir la diversité de l’information, afin que les citoyens puissent exercer leur esprit critique ; cela implique notamment de soutenir le journalisme de qualité, l’éducation aux médias et le rééquilibrage des relations entre créateurs et distributeurs ;

- de renforcer la crédibilité des informations en donnant une indication sur leur fiabilité, par des outils numériques ;

- de mettre en place des solutions de long terme, inclusives, qui réclament la coopération de l’ensemble des autorités publiques, des plateformes en ligne, des publicitaires, des journalistes ainsi que des groupes de médias.

Selon la Commission européenne, les failles des plateformes en ligne relèvent avant tout du manque de transparence sur les contenus « sponsorisés », sur la publicité politique, ainsi que sur l’usage de salariés ou de robots pour influencer les informations en ligne.

Forte de ce constat, la Commission demande avant tout aux plateformes d’agir rapidement et efficacement pour protéger les utilisateurs de toute forme de désinformation. Votre rapporteur estime en effet que si les plateformes ne peuvent être tenues responsable seules de la prolifération des fausses informations et qu’un régime général de responsabilité ne pourrait s’appliquer aisément, compte tenu de la diversité d’acteurs et de leur rôle dans l’accessibilité des informations dans leur ensemble, il leur incombe d’agir aussi vite que possible lorsqu’une faille leur est connue. Une première forme de responsabilité leur incombe au titre de l’article L. 111-7 du code de la consommation. Les opérateurs de plateforme en ligne doivent en effet « délivrer au consommateur une information loyale, claire et transparente », notamment sur « l’existence d'une relation contractuelle, d'un lien capitalistique ou d'une rémunération à son profit, dès lors qu'ils influencent le classement ou le référencement des contenus, des biens ou des services proposés ou mis en ligne. »

Mais votre rapporteur estime que la responsabilité des plateformes dépasse la seule lettre du droit actuel, à l’échelle nationale et européenne. Elles ont un rôle central pour assurer un environnement numérique sûr, protéger les utilisateurs de la désinformation et leur permettre d’accéder à des opinions politiques diverses.

C’est pourquoi la Commission propose le développement d’un Code des bonnes pratiques ambitieux, appuyé sur les principaux principes exposés ci-dessus par le rapport du groupe d’experts à haut niveau, qui impliquerait un certain nombre d’actions concrètes. Votre rapporteur retient notamment les suivantes, définitoires d’une nouvelle forme de responsabilité des plateformes à l’égard des contenus qu’elles diffusent :

- améliorer considérablement le contrôle des placements de publicité, notamment afin de réduire les recettes des vecteurs de désinformation, et restreindre les options de ciblage pour la publicité à caractère politique ;

- garantir la transparence au sujet des contenus sponsorisés, en particulier de la publicité à caractère politique et de la publicité engagée ; cette mesure devrait être complétée par des référentiels contenant des informations complètes sur les contenus sponsorisés, telles que l’identité réelle du sponsor, les montants dépensés et les critères de ciblage utilisés ; il conviendrait de mettre en place des mécanismes similaires pour permettre aux utilisateurs de comprendre les raisons pour lesquelles ils ont été ciblés par une publicité donnée ;

- faciliter l’évaluation des contenus par les utilisateurs au moyen d’indicateurs de la fiabilité des sources de contenu basés sur des critères objectifs et approuvés par les associations de médias d’information, conformément aux principes et aux processus journalistiques, à la transparence en matière de propriété des médias et à la vérification de l’identité ;

- établir des systèmes et des règles clairs de marquage en ce qui concerne les robots et veiller à ce que les activités de ces derniers ne puissent pas être confondues avec des interactions humaines ;

- fournir aux utilisateurs des outils de personnalisation et d’interaction en ligne pour leur permettre de découvrir plus facilement des contenus et d’accéder plus aisément à des sources d’information différentes offrant des points de vue contrastés ; fournir aux utilisateurs des outils aisément accessibles pour signaler des cas de désinformation ;

- fournir à des organismes fiables de vérification des faits et à des universités (notamment via les interfaces de programmation d’applications) un accès aux données des plateformes, tout en veillant au respect de la vie privée des utilisateurs, du secret commercial et de la propriété intellectuelle, de façon à leur permettre de mieux comprendre le fonctionnement des algorithmes utilisés et de mieux analyser et surveiller la dynamique de la désinformation et son incidence sur la société.

La Commission propose par ailleurs de renforcer la lutte contre la désinformation par la mise en place d’un réseau européen d’organes chargés de vérifier la véracité des faits ainsi que d’une plateforme européenne en ligne destinée à soutenir l’effort de ces organes. Dans le cadre du programme Horizon 2020, la Commission propose enfin d’user de nouvelles technologies, dont l’intelligence artificielle ou la « blockchain », pour améliorer la capacité de tout citoyen à accéder à des informations correctes ainsi qu’à une diversité de points de vue.

Cet ensemble de principes doit aboutir, après la convocation d’un forum plurilatéral sur la désinformation, comprenant notamment les plateformes en ligne, le secteur de la publicité et les grands annonceurs, les médias et les représentants de la société civile, à un code européen de bonnes pratiques contre la désinformation d’ici la fin juillet 2018, en vue de produire des effets mesurables d’ici octobre 2018.

La Commission se réserve le droit, après évaluation de la mise en place du code de conduite, ainsi que de la réaction des plateformes, de proposer à terme une réglementation ferme. La Commissaire Mariya Gabriel a notamment insisté sur le fait que le plan proposé par la Commission impliquait la coopération de l’ensemble des parties prenantes : « Nous invitons l'ensemble des acteurs, en particulier les plateformes et les réseaux sociaux - dont la responsabilité est évidente -, d'agir sur le fondement d'un plan d'action visant à définir une approche européenne commune de sorte que les citoyens aient les moyens d'agir et soient efficacement protégés contre la désinformation. Nous allons suivre de près les progrès accomplis et éventuellement proposer de nouvelles mesures d'ici le mois de décembre, notamment des mesures de nature réglementaire, en cas de résultats insatisfaisants (12). »

Votre rapporteur estime qu’il est en effet de bonne méthode que d’évaluer à court terme les progrès effectués par les plateformes en ligne, mais de conserver la capacité d’agir vite en cas d’insuffisance avérée. Il pourrait en aller de la sincérité du scrutin pour les élections européennes de 2019, qui s’avèrent cruciales pour décider du visage de l’Union européenne pour la prochaine décennie. C’est pourquoi votre rapporteur salue également l’initiative parlementaire constituée des deux propositions de loi examinées : il s’agit d’un effort proportionné et adéquat pour faire face, dans des circonstances particulières, aux stratégies de désinformation et de déstabilisation. Votre rapporteur se réjouit également de constater la concomitance des efforts français et européen en la matière.

Les propositions de loi sur lesquelles votre rapporteur présente ses observations rejoignent une tendance générale des États membres de l’Union européenne à renforcer leur arsenal juridique pour faire face aux tentatives de désinformation massive, en ligne.

C’est ainsi qu’en Allemagne, la loi relative à la modération des contenus (Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken), entrée en vigueur le 1er janvier 2018, oblige les plateformes à supprimer dans un délai de 24 heures, non seulement les contenus haineux et violents, mais aussi les fausses informations dont il est estimé qu’elles participent d’une entreprise de propagande. Cette obligation se fait sous peine d’une amende de 50 millions d’euros. Les 24 heures ne s’appliquent que pour les contenus qui violent la loi de manière évidente, le délai pour les autres contenus, plus ambigus, est porté à sept jours.

Dans le contexte des élections législatives qui se tinrent en mars 2018, l’Italie s’est également dotée d’outils destinés à lutter contre la propagation de fausses nouvelles. Outre un projet de loi porté par le Parti Démocrate, un site d’information a été ouvert pendant les deux derniers mois de la campagne, sur lequel les citoyens qui le souhaitaient pouvaient signaler toute information qui leur paraissait fausse. Le cas échéant, un démenti était publié sur le site de la police postale et sur les réseaux sociaux.

Enfin, au Royaume-Uni, la Chambre des communes a initié une enquête parlementaire sur la propagation des fausses informations, en janvier 2017. C’est ainsi que le Dr Karol Lasok, British Queen's counsel barrister, a estimé que le Representation of the People Act de 1983 et le Political Parties, Elections and Referendums Act de 2000 soient amendés de telle sorte qu’ils puissent appréhender correctement le problème des fausses informations, disséminées en vue d’influencer malhonnêtement le résultat d’une campagne politique.

Dans le même temps, une « National Security Communication Unit » a été mise en place par le Gouvernement afin de contrer directement leur diffusion en ligne. Elle doit notamment identifier et répertorier les « narrations alternatives », dont 31 ont été recensées lors de l’attaque de Salisbury.

Il existe donc un ensemble d’initiatives nationales, dont les propositions de loi ici examinées participent. Si votre rapporteur salue le fait que le problème des fausses informations dans le contexte électoral ait été pleinement compris, il demeure que seule une réponse coordonnée européenne serait à même de contrer efficacement la dissémination des fausses nouvelles, notamment dans le futur contexte des élections européennes de 2019.

Votre rapporteur salue la première réponse que la Commission européenne propose face aux fausses informations, notamment dans sa dimension inclusive et globale. Les sanctions et la suppression des fausses informations, dans le contexte actuel, ne sauraient suffire pour lutter efficacement en faveur d’un accès sécurisé à des informations authentiques et crédibles. C’est pourquoi votre rapporteur estime qu’il serait possible d’aller plus loin à l’échelle européenne, par le biais de différents instruments :

- en premier lieu, dans le cadre de l’effort européen en faveur de la protection des données, qui s’est traduit, outre le Règlement Général de Protection des Données, par des propositions de règlement sur la protection des données dans le cadre des télécommunications, la Commission européenne pourrait encourager l’éducation aux médias numériques. Ainsi, dans la perspective du prochain Cadre Financier Pluriannuel, le programme Europe Créative pourrait utilement intégrer le financement de programmes nationaux d’éducation numérique et soutenir les projets menés dans ce sens par les ONG, les associations ou les start-ups ;

- ensuite, prolonger l’idée de la labellisation des contenus authentiques en s’appuyant sur la « Journalism Trust Initiative », initiée en avril par l’association Reporters sans frontières. Le réseau des organes chargés de vérifier la teneur des informations, proposé par la Commission européenne, pourrait ainsi identifier les médias respectant des principes déontologiques stricts dans la gestion de leurs informations et dans la communication de celles-ci au public ;

- enfin, la lutte contre les stratégies externes de désinformation du public pourrait passer par le renforcement des compétences de la East Stratcom Task Force.

Cette cellule de communication stratégique à destination de l'Europe orientale placée sous la responsabilité de la haute représentante/vice-présidente, Mme Mogherini, a été créée à la suite d'une décision du Conseil européen de mars 2015, afin « de contrer les campagnes de désinformation menées par la Russie ». Cette task force agit au sein du Service européen pour l’action extérieure depuis septembre 2015, et communique efficacement sur les politiques de l'UE auprès de son voisinage oriental, renforce l'environnement médiatique global dans les pays du voisinage oriental, y compris en soutenant la liberté des médias et en renforçant les médias indépendants et améliore la capacité de l'UE à prévoir les activités de désinformation pro-Kremlin, à s'y attaquer et à sensibiliser le public à celles-ci. Votre rapporteur estime que la tâche de ce groupe d’action est cruciale, notamment pour assurer la cohésion au sein de l’Union européenne, à l’heure où certains partenaires d’Europe centrale peuvent constituer des proies faciles pour des acteurs cherchant à les déstabiliser. Elle intervient de manière parfaitement complémentaire aux stratégies nationales évoquées.

Au-delà du seul exemple de cette task force, votre rapporteur estime que l’ensemble de la Division de la communication stratégique au sein du SEAE doit être renforcée, afin que cette dernière devienne une unité à part entière. Pour ce faire, il conviendrait notamment que son mandat soit élargi et un budget suffisant lui soit consacré. Le prochain cadre financier pluriannuel de l’Union européenne doit conforter cette orientation.

Les propositions de loi organique et ordinaire relatives à la lutte contre la désinformation visent à juste titre, dans le chapitre Ier, les périodes électorales, ouvertes avec le décret de convocation des électeurs. Mais si nombre de scrutins nationaux ont pu être récemment pervertis par des acteurs publics et privés dont l’intention était de biaiser le débat public, les élections européennes de 2019 pourraient s’avérer bien plus vulnérables encore.

En effet, le champ d’action, les instruments de politique publique ainsi que les résultats obtenus par l’action européenne demeurent trop mal connus des citoyens. À ce titre, votre rapporteur estime qu’une initiative comme les Consultations citoyennes, lancées dans l’ensemble des États membres pour faire participer les citoyens au débat sur l’avenir de l’Europe, ne peuvent qu’être saluées. Mais l’éloignement des institutions européennes et la faible pédagogie qui est engagée sur l’Union européenne dans son ensemble peuvent démultiplier l’effet des campagnes de désinformation. Cela est d’autant plus vrai que les élections qui se tiendront en mai 2019 cumuleront 27 scrutins nationaux, qui seront autant de portes d’entrées possibles pour les organes de désinformation.

C’est pourquoi votre rapporteur estime que les propositions de loi françaises doivent pouvoir s’appliquer à ce scrutin. Mais il convient surtout, outre les recommandations de la Commission européenne en matière de partage d’expérience entre les États membres, que ceux-ci puissent assurer « la résilience des élections contre les menaces informatiques sans cesse plus complexes, parmi lesquelles la désinformation en ligne et les cyberattaques ». À ce titre, votre rapporteur sera particulièrement attentif à la décision de la Commission européenne en octobre 2018, après un premier bilan de l’action des plateformes contre les tactiques de désinformation.

TRAVAUX DE LA COMMISSION

La Commission s’est réunie le mercredi 16 mai 2018, sous la présidence de Mme Sabine Thillaye, Présidente, pour examiner le présent rapport d’information.

Mme la présidente Sabine Thillaye. L’interruption des travaux de l’Assemblée ne nous avait pas permis de procéder plus tôt à la désignation du rapporteur pour observations et je remercie M. Pieyre-Alexandre Anglade d’avoir bien voulu établir son rapport dans des délais très contraints.

M. Pieyre-Alexandre Anglade, rapporteur. Ce rapport d’observations sur les projets de loi relatifs à la lutte contre les fausses informations témoigne de ce que notre Commission peut apporter une dimension européenne au débat qui va s’ouvrir à l’Assemblée nationale. C’est une pratique qu’il faut poursuivre pour de nombreux sujets.

Toutes les informations ne se valent pas. Ce constat ne date pas d’hier, mais ce qui est nouveau en revanche, c'est la caisse de résonance que constitue Internet. Aujourd’hui, pour 40 000 euros, vous pouvez lancer des opérations de propagande politique sur les réseaux sociaux ; pour 5 000 euros, vous pouvez acheter 20 000 commentaires haineux ; et pour 2 600 euros, vous pouvez acheter 300 000 followers sur Twitter. À ce prix-là, des sites entiers, des pages Facebook, des fils Twitter colportent des fausses informations et sèment le trouble dans l’esprit de nos concitoyens. Ce prix-là, c’est celui du passage dans l’ère de la post-vérité, où les fondations, les valeurs et l’avenir de notre vie démocratique sont plus que jamais menacés. Parce qu’à ce prix, la relation de confiance qui existe entre les citoyens et leurs élus se trouve sapée, et les populismes et complotismes de toutes sortes irriguent nos sociétés, dans un contexte de grands bouleversements économiques et sociaux, de divisions politiques marquées, de manque de confiance dans les institutions et de manque de sens pour l’Union européenne.

Derrière ces fausses informations, il y a parfois une véritable stratégie politique, financée parfois par des États tiers, visant à déstabiliser nos démocraties. Et l’Europe est en première ligne. Les exemples récents de périodes électorales déstabilisées ne manquent pas – au Royaume-Uni, en Catalogne et en Italie notamment – et l’origine géographique des fauteurs de trouble est souvent la même : le voisinage immédiat de l’Union européenne.

Face à cette guerre hybride qui expose les peuples européens à des peurs irrationnelles et à l’obscurantisme, la réponse se doit d’être globale et inclusive. Dans cette perspective, les propositions de loi que nous examinerons dans les semaines à venir visent à fournir des éléments de réponse, sachant qu’en période électorale en particulier, la frontière entre ce qui sépare l’opinion de sa manipulation est poreuse.

L’action des plateformes en ligne, sur lesquelles les fausses informations se répandent le plus vite, est à ce titre cruciale. Et les obligations de transparence que comprennent les propositions de loi seront un outil supplémentaire entre les mains de nos concitoyens pour savoir qui finance des contenus politiques sponsorisés, et dans quel but.

Mais j’estime que la réponse au problème de la désinformation ne peut s’arrêter aux frontières nationales. Le problème des fausses informations, global par essence, doit faire l’objet d’une réponse européenne commune, d’un socle commun sur lequel les États membres pourront s’appuyer pour leurs stratégies nationales. La récente communication de la Commission européenne est d’ailleurs prometteuse, dans la mesure où elle conserve sa capacité d’action européenne en cas d’insuffisance avérée des progrès effectués par les plateformes en ligne.

Par ailleurs, je propose au sein de mon rapport de renforcer les moyens et capacités d’action du Service Européen d’Action Extérieure (SEAE), et en particulier, de l’East Stratcomm task force. Ce groupe d’action, intégré au SEAE, s’attache à préserver les pays d’Europe centrale et orientale de toute forme d’ingérence extérieure, susceptible de saper la confiance des citoyens envers leurs institutions. La tâche de ce groupe d’action est cruciale, notamment pour assurer la cohésion au sein de l’Union européenne, à l’heure où certains partenaires d’Europe centrale peuvent constituer des proies faciles pour des acteurs cherchant à les déstabiliser. Il faudra élargir les compétences du SEAE dans ce domaine.

Mais, par-delà sa dimension européenne, la réponse à apporter aux fausses informations doit être inclusive et dépasser le seul stade de la répression. Toutes les sociétés, tous les pays, ne sont pas égaux face aux fausses informations. Le niveau d'éducation, la culture démocratique, les inégalités, jouent un rôle décisif dans leur degré de propagation. C’est donc aussi et surtout par l’éducation aux médias numériques que l’Union européenne peut lutter plus efficacement contre les fausses informations. C’est pourquoi je considère dans mon projet de rapport que le programme Europe Créative pourrait participer au financement des programmes nationaux d’éducation numérique et soutenir les projets menés dans ce sens par les ONG, les associations ou les start-up.

Par ailleurs, parmi les fragilités structurelles de nos sociétés, il en est une qui est particulièrement importante : c’est la transformation inachevée du secteur de la presse vers le numérique. Afin de maintenir la diversité des points de vue médiatiques et la promotion des médias garantissant l’authenticité des informations communiquées, il est de notre ressort de protéger et de valoriser le secteur de la presse. L’enjeu est considérable, puisqu’il s’agit de protéger le pluralisme des médias, la diversité d’opinion et leur corollaire, la liberté d’expression.

Dans cette optique, je formule deux propositions dans ce projet de rapport :

- d’une part, prolonger l’idée de la labellisation des contenus authentiques en s’appuyant sur la « Journalism Trust Initiative », initiée en avril par l’association Reporters sans frontières, afin d’identifier les médias respectant des principes déontologiques stricts dans la gestion de leurs informations ;

- d’autre part, soutenir l’idée d’une aide financière européenne au secteur de la presse, afin d’accompagner l’évolution du secteur vers le numérique. Cette transition n’est pas achevée, nous devons y travailler.

Le combat européen contre les fausses informations est crucial, surtout dans la perspective des échéances à venir. Les élections européennes qui se tiendront en 2019 doivent permettre aux Européens de choisir la forme que prendra l’Union européenne dans les dix ans à venir, à un moment où les désordres internationaux sont nombreux et où l’Union doit être une force politique. Or, l’accumulation de scrutins nationaux ainsi que la méconnaissance de nombreux citoyens sur ce que fait et ce qu’est l’Union européenne constituent un terreau favorable à la propagation de fausses informations, durant cette période électorale. Les institutions européennes doivent y travailler, à l’instar de ce que fait le Parlement européen. J’estime que le partage d’expérience et la lutte de tous les États membres contre les stratégies de déstabilisation du scrutin sont la condition sine qua non pour en garantir la sincérité. L’Union européenne est à un moment charnière de sa construction. La cohésion de l’Union européenne pour garantir la sincérité des scrutins ne se négocie pas. Dès aujourd’hui, la mobilisation nationale et européenne contre les fausses informations doit être entière, afin d’offrir à la vie démocratique européenne des lendemains sereins. C’est la condition d’un débat apaisé pour 2019.

Je vous remercie.

L’exposé du rapporteur a été suivi d’un débat.

Mme la présidente Sabine Thillaye. Merci pour ce rapport très intéressant. Vous avez évoqué dans votre intervention la possibilité d’aides financières à la presse pour inciter les éditeurs de presse à renforcer leur offre numérique. N’y a-t-il pas un risque vis-à-vis du droit de la concurrence ? Pouvez-vous nous préciser sous quelles formes ces aides pourraient être versées par l’Union européenne ?

Mme Typhanie Degois. Je remercie à mon tour le rapporteur pour sa présentation de la problématique des fausses informations. J’attire votre attention sur la prudence avec laquelle nous devons user de l’expression « fausses informations ». Il est parfois difficile de faire une distinction claire entre fausses informations, informations manipulées ou encore discours de propagande. Dans l’action politique, il est courant d’user d’exagérations ou de procédés polémiques que l’on pourrait facilement qualifier de « fausses informations ».

Lors d’une récente audition, M. Maurice Lévy, PDG de Publicis, a cité l’exemple des États Unis où une organisation professionnelle de journalistes a mis au point une procédure de « cotation » des médias et sites d’information sur internet. Les lecteurs sont ainsi informés de la qualité journalistique des informations présentées par tel ou tel organe d’information grâce à la présence de logos allant du rouge au vert selon la qualité des informations présentées. Serait-il possible de s’inspirer de cette expérience pour parvenir à une labellisation des sites d’information ou des médias ?

M. Bruno Gollnish, membre du Parlement européen. J’ai écouté le rapporteur avec une grande attention et je regrette qu’il n’ait pas abordé la seule véritable question, à savoir les fausses informations sciemment diffusées par des États. Étant le représentant d’un des courants de pensée accusés de colporter de fausses nouvelles et d’encourager le populisme, il est assez logique que je ne partage pas l’analyse du rapporteur.

Lorsque j’évoque la question des fausses informations étatiques, je ne parle pas des méthodes de propagande des dictatures mais bien de pratiques courantes dans de grandes démocraties comme les États Unis qui, par exemple, sont entrés en guerre lors des six derniers grands conflits sur la base de fausses informations, manipulant délibérément leur opinion publique et leur pouvoir législatif. Faut-il rappeler la guerre hispano-américaine en 1898, l’entrée en guerre des États-Unis lors des première et deuxième guerres mondiales, la guerre du Vietnam que j’ai eu la naïveté de soutenir croyant qu’il s’agissait d’abord de lutter contre le communisme, ainsi que les deux guerres du Golfe, qui ont donné lieu à des manipulations grossières des opinions publiques occidentales ?

Pour prendre un autre exemple qui concerne la France, on pourrait citer les tirs de missiles en avril dernier, en coopération avec d’autres États pour réagir contre l’utilisation par l’État syrien d’armes chimiques prohibées, à l’encontre de sa propre population. On se demande pourquoi Bashar al-Assad, le Président syrien, utiliserait de tels procédés alors qu’il est en position de force depuis ses victoires contre Daesch. Une délégation russe à La Haye a récemment démontré que les prétendus enfants gazés, que les médias occidentaux ont montrés pour émouvoir les opinions publiques, n’avaient subi aucune blessure provenant d’armes chimiques.

L’Union européenne devrait plutôt protéger ceux qui ont payé un lourd tribut personnel à la manifestation d’informations dérangeantes, je veux parler d’Edward Snowden et de Julian Assange, contraints de se réfugier dans des Ambassades, alors que l’Union européenne aurait dû leur accorder l’asile politique. Cette attitude est une véritable honte pour l’Union européenne !

M. Pieyre-Alexandre Anglade, rapporteur. Je ne doute nullement de votre culture historique mais je n’ai pas la même lecture que vous de certains faits que vous venez d’évoquer, au sujet des États Unis par exemple.

Je partage en revanche votre souci de tenir compte des fausses informations véhiculées par des puissances étatiques et, comme je l’ai indiqué, il me paraît important de renforcer les moyens d’action de l’Union européenne qui s’attache, grâce notamment à l’East Stratcomm task force, intégrée au Service Européen d’Action Extérieure, à préserver les pays d’Europe centrale et orientale de toute forme d’ingérence extérieure, susceptible de saper la confiance des citoyens envers leurs institutions.

Pour répondre à la question relative à la labellisation des médias et plateformes d’information, certaines initiatives ont déjà été prises comme par exemple en France où certains journaux, à l’instar du quotidien Le Monde ont mis au point un protocole pour évaluer le professionnalisme des moyens d’information en évaluant leur transparence, leur indépendance éditoriale et leurs méthodes d’investigation. L’ONG Reporters sans frontières a proposé de créer un label européen inspiré par les mêmes principes.

Concernant les aides financières pour encourager la presse à enrichir son offre numérique, il existe déjà des possibilités de soutiens via le programme « Europe créative » mais il faudrait renforcer les moyens de ce programme. Au-delà des aides matérielles à accorder aux moyens d’information pour les rendre plus robustes, il faut aussi travailler au plan pédagogique notamment à l’adresse des jeunes générations pour bien faire la distinction entre les différentes interprétations que l’on peut faire à partir d’un même fait et l’existence d’informations qui inventent ou altèrent les faits.

M. Jean-Pierre Pont. Je remercie à mon tour le rapporteur pour sa présentation. Je voudrais vous faire part de mes inquiétudes sur le développement de ces fausses informations qui, pour une grande part, ne sont jamais démasquées et continuent à se répandre, poursuivant leur travail de sape. Vous proposez de labelliser les sites d’information, mais comment se prémunir contre certains labels qui risquent d’être fantaisistes ? Je voudrais vous interroger sur l’importance des fausses informations touchant au domaine économique ou de l’innovation. Avez-vous constaté des évolutions préoccupantes dans ces domaines ?

Mme Marguerite Deprez-Audebert. J’ai apprécié l’équilibre de votre présentation, mais je ne partage pas votre recommandation relative à la presse qui devrait selon vous accélérer son passage au numérique. Je tiens à dire ici en tant qu’élue d’une zone rurale où la couverture internet n’est pas toujours de bonne qualité que l’offre de la presse papier doit être maintenue. Il faut diversifier l’offre éditoriale et contribuer à la solidité économique des organes de presse, sans chercher à renforcer les fractures générationnelles. Certaines catégories de populations sont très attachées à la presse papier et ne profiteront pas d’une offre tout numérique. La labellisation des contenus ne me parait pas une solution efficace, il faut plutôt contribuer à ce que des organes de presse diversifiés et payants puissent perdurer car le journalisme professionnel est le vrai garant de la qualité de l’information diffusée.

M. Alexandre Holroyd. Je voudrais évoquer la question des États étrangers qui soutiennent des organes de presse dans d’autres États pour accroître leur influence de manière indirecte. Comment appréhender cette réalité qui semble de plus en plus courante ? De même, certaines radios, comme Radio Sputnik, sont créées pour avoir une action de propagande à destination d’un public étranger. Faut-il chercher à encadrer de telles pratiques ?

M. Pieyre-Alexandre Anglade, rapporteur. Je suis également très attaché aux journaux traditionnels sous forme papier. Cependant, la transition numérique offre un nouveau champ des possibles qu’il faut prendre en compte.

Le recours à un collège rassemblant des représentants de différents organes de presse devrait offrir la garantie nécessaire à la labellisation des nouvelles. La « Journalism Trust Initiative », lancée par Reporters sans frontières me semble donc offrir une bonne garantie en la matière.

Les menaces émanant de certains organes de presse, financés par des États à des buts de propagande sont difficiles à canaliser. Elles visent à déstabiliser les démocraties. La France a été la cible de telles menaces qui renvoient directement à la question de l’éducation des jeunes en matière de consommation des médias.

Mme la présidente Sabine Thillaye. Je m’interroge sur la distinction entre fausse nouvelle et manipulation de l’information. Comment se définit une fausse nouvelle ? Qui détermine si une information est une fausse nouvelle ?

M. Pieyre-Alexandre Anglade, rapporteur. C’est le juge qui aura la charge de déterminer dans un délai de quarante-huit heures si une information est une fausse nouvelle, dans le cadre d’une procédure de référé. Selon la jurisprudence de la Cour de cassation, une fausse nouvelle se rattache à un fait précis et circonstancié qui n’a pas déjà été divulgué. Les contenus intentionnellement faux, qui circulent sur les plateformes numériques, dépassent largement la sphère des nouvelles non encore divulguées. C’est la raison pour laquelle le projet de loi a retenu la notion de « fausses informations » plutôt que celle de « fausses nouvelles ».

À l’issue du débat, la commission a autorisé la publication de ce présent rapport.

1 () Communication de la Commission « Lutter contre la désinformation en ligne : une approche européenne » COM(2018) 236 final.

2 () Les « bots » sont définis par la Commission comme des services automatisés.

3 () Les « usines à troll » sont des faux comptes, des profils fabriqués de toutes pièces, n’appartenant pas à des personnes réelles et parfois orchestrés à une échelle massive.

4 () « A multi-dimensional approach to disinformation. Report of the independent High level Group on fake news and online disinformation. »

5 () Eurobaromètre de février 2018 mené auprès de 26 000 citoyens européens.

6 () Rapport d'étape de la mission sur la révision de la directive 2001/29/CE sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information.

7 () « Liberté d'expression et d'information

1. Toute personne a droit à la liberté d'expression. Ce droit comprend la liberté d'opinion et la liberté de recevoir ou de communiquer des informations ou des idées sans qu'il puisse y avoir ingérence d'autorités publiques et sans considération de frontières.

2. La liberté des médias et leur pluralisme sont respectés. »

8 () Résolution du Parlement européen du 15 juin 2017 sur les plateformes en ligne et le marché unique numérique (2016/2276(INI)).

9 () Joint Declaration on Freedom of Expression and « Fake News », Disinformation and Propaganda.

10 () Freedom on the net 2017 report. Manipulating Social Media to Undermine Democracy.

11 () Directive (UE) 2016/1148 du Parlement européen et du Conseil du 6 juillet 2016 concernant des mesures destinées à assurer un niveau élevé commun de sécurité des réseaux et des systèmes d'information dans l'Union.

12 () Commission européenne, communiqué de presse, 26 avril 2018.

Retour haut de page