Inventaire des dernières menaces législatives sur la liberté d'expression — Marc Rees

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Inventaire des dernières menaces législatives sur la liberté d'expression

Intervenant : Marc Rees

Lieu : Capitole du Libre - Toulouse

Date : novembre 2019

Durée : 1 h 3 min

Visualiser la vidéo

Licence de la transcription : Verbatim

Illustration :

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription : MO

Description

Panorama des derniers textes publiés en Europe et en France avec accent mis sur :
- La proposition de loi Avia contre « la haine en ligne »
- La directive sur le droit d'auteur
- La directive relative aux services de médias audiovisuels
Autant de menaces pesant sur la liberté d'expression sur les plateformes comme Twitter, YouTube et les autres. Explications des rouages législatifs, éclairage synthétique sur les risques, identifications de points concrets.

Transcription

Je voulais d’abord vous remercier d’être venus pour écouter ce panorama des menaces sur les libertés numériques et je voulais aussi remercier Capitole du Libre d’avoir organisé cet échange et tous les autres échanges qui sont concomitants ou qui ont lieu avant, après.
Je m’appelle Marc Rees, je suis rédacteur en chef de Next Inpact, je suis journaliste depuis trop longtemps et je m’intéresse aux questions des libertés numériques sous un angle strictement juridique donc qui peut être un petit peu embêtant, mais en réalité ces questions-là sont fondamentales et je vous invite d’ailleurs hautement à suivre tous les débats parlementaires qui concernent ce champ-là parce que les conséquences peuvent être extrêmement dramatiques dans la vie quotidienne, dans la vraie vie de chacun d’entre nous.
L’an dernier j’étais déjà venu pour vous parler des petits secrets de la copie privée qui est un autre de mes sujets favoris. Cette année je vais un peu me renouveler et je voudrais évoquer ce panorama des menaces sur les libertés numériques. Pourquoi évoquer ce sujet-là ? Parce que les menaces potentielles ou en tout cas avérées sont extrêmement nombreuses actuellement. On a un déluge de textes qui tombent de tous les côtés et ce n’est pas du tout simple d’essayer de suivre tout cela, surtout lorsqu’on est derrière son écran, qu’on essaye de suivre, ce n’est vraiment pas du tout simple. Je vais essayer de vous faire une espèce de survol de ces différents textes et vous n’hésiterez pas à me poser des questions, si vous voulez évidemment.

Retour sur la responsabilité des hébergeurs

Avant cela, pour que vous puissiez comprendre la suite, je voudrais faire un petit rappel sur cette notion de responsabilité des hébergeurs, ce qui va vous permettre un petit peu de comprendre d’où on est parti et où on va.
D’abord c’est quoi un hébergeur ? Vous en connaissez tout plein. Vous connaissez Facebook, Twitter, Instagram, Snaschat, YouTube, Dailymotion, tout ce que vous voulez. Don c’est un site, un service en ligne, dont la mission est d’héberger, d’abriter des contenus qui sont fournis par des internautes pour éventuellement les mettre à disposition des autres. Lorsqu’on a un acteur comme OVH qui fait du stockage de données ou WeTransfer aussi, là à chaque fois on est face à des hébergeurs.
Quel est le régime de responsabilité qui s’impose à eux ? L’objectif qui avait été assigné par la législation en vigueur était triple. J’ai mis là, ce fut de garantir un retrait des contenus illicites, également assurer le respect de la liberté d’expression et celle d’information et aussi protéger la liberté du commerce et la libre concurrence. C’est une espèce de triple impératif qui a commandé la législation qui a donc été consacrée par une directive appliquée en 2000, la directive sur le commerce électronique, et qui a été transposée en France par une loi qui s’appelle la loi sur la confiance dans l’économie, la loi LCEN, en 2004.
L’idée c’est quoi ? C’est de poser comme grand principe qu’un hébergeur n’est pas responsable des contenus illicites transmis par un internaute, par contre, une fois alerté, s’il décide de conserver le contenu illicite, à ce moment-là il devient quelque part complice de ce contenu. Voilà l’équilibre qui a été trouvé.
Plusieurs principes ont été posés par cette législation, ça a été de dire pas de filtrage généralisé, c’est-à-dire qu’on ne peut pas ordonner à YouTube, Twitter ou autre ou OVH, WeTransfer, qui vous voulez, de se lancer dans une espèce de chasse à l’octet illicite, on ne peut pas, on n’a pas le droit.
Deuxième principe qui a été consacré par la loi, ça a été la conservation des données des contributeurs. La loi impose que durant une année, YouTube comme les autres, conserve durant un an les données de connexion, aussi les données d’identification des internautes qui sont venus apporter une vidéo d’un chat qui tombe. Pendant un an. Pourquoi ? Parce que s’il s’avèrerait que ce chat qui tombe c’est finalement un contenu illicite, eh bien les autorités ont la possibilité de poursuivre éventuellement cette personne-là.
Troisième principe, le retrait illicite. C’est-à-dire que lorsqu’un juge décide, estime que cette vidéo d’un chat qui tombe c’est un contenu illicite, s’il y a un jugement qui dit que c’est illicite, l’hébergeur doit retirer ce contenu-là. On a un vrai jugement avec respect du contradictoire.
Quatrième principe c’est le retrait des contenus manifestement illicites. Là ça change un petit peu, on veut essayer de gagner en efficacité. Comment ? Lorsqu’on a un contenu dont l’illicéité, c’est un mot que je vais utiliser assez souvent, est évidente, à ce moment-là l’hébergeur, dès lors qu’il est alerté, eh bien il doit le retirer. Vous comprenez bien que lorsqu’on parle d’un contenu manifestement illicite, et c’est le Conseil Constitutionnel qui a imposé ce filtre-là, eh bien il faut qu’il y ait un contenu dont l’illicéité est évidente, frappante. L’exemple type c’est celui d’une image pédo-porno, je n’en ai pas là, mais si je vous diffuse une image pédo-porno vous allez rapidement comprendre que ce contenu-là a peut-être un petit problème, même clairement un problème. Par contre, si je prends ma guitare, je joue un morceau et je vous dis : « Est-ce que ça c’est manifestement illicite ou pas ? » Vous n’en savez rien. Pourquoi vous n’en savez rien ? D’abord parce que vous ne connaissez pas l’ensemble des œuvres qui ont été créées à l’échelle de la planète, vous ne savez pas si c’est une contrefaçon. Autre chose, vous ne savez même pas si le morceau, que j’ai pompé en prenant des tablatures sur Internet, à l’origine était original, parce que l’originalité c’est quand même ce qui caractérise, ce qui conditionne la protection par le droit d’auteur. Vous n’en savez rien. Vous, si vous êtes hébergeur on vous dit : « Là il y a un fichier mp3, un fichier avi ou ce que vous voulez, qui est complètement illicite, retirez-le ! » Est-ce que c’est manifestement illicite ? Je n’en sais rien moi, je n’ai pas une base de connaissances de l’ensemble des œuvres protégées, je n’en sais rien du tout. Donc allez voir le juge et si le juge estime qu’effectivement c’est illicite, à ce moment-là il m’ordonnera et moi, à la lecture du jugement, je supprimerai le contenu. Voilà comment ça marche.

Vous comprenez bien que ce statut-là a un petit peu agacé nos amis les ayants droit. Pourquoi ? Parce qu’il y a cette contrainte du manifestement illicite, un fichier mp3 manifestement illicite, difficile ! Et c’est aussi, pour les ayants droit, l’obligation de notifier, c’est-à-dire d’alerter ou de lancer des procédures œuvre par œuvre, donc c’est un boulot qui est coûteux en temps, en argent et aussi en publicité. Un procès ça fait du bruit. Vous voyez !
Ce statut d’hébergeur qui était là aussi pour garantir la liberté d’expression et d’information, qui sont quand même un peu importantes aujourd’hui, eh bien il a toujours agacé les ayants droit qui ont cherché mille solutions pour le remettre en cause.

Ça ce sont les grands principes que je vous ai exposés : pas de filtrage généralisé, conservation des données, retrait des contenus illicites ordonné par un juge ou retrait des contenus manifestement illicites ou à l’illicite évidente comme les contenus pédo-pornos.

L’article 17, ex-article 13 de la directive sur le droit d’auteur

Et c’est à où je débouche sur l’article 17, ex-article 13 de la directive sur le droit d’auteur où les ayants droit sont arrivés au nirvana. Pourquoi ? Parce qu’ils ont créé une incise dans ce régime de responsabilité, une bulle, une exception : dès lors qu’un hébergeur vient stocker un grand nombre d’œuvres et qu’il met à disposition, qu’il organise aussi, et ce à des fins lucratives, dès lors qu’on remplit toutes ces conditions-là et on les remplit très facilement, eh bien ils ont créé un régime de responsabilité qui s’écarte totalement de celui de la directive de 2000, ce que je vous ai expliqué tout à l’heure.
Article 17, comment il fonctionne ? Je me suis amusé à faire ce schéma-là, ça c’est l’article 17 et je vous invite aussi à voir le schéma qu’avait fait, schéma concurrent mais complémentaire, qu’avait fait Pierre Beyssac qui avait aussi tenté de mettre en image ce fameux article qui est compliqué. Dites-vous simplement que lorsqu’on a un hébergeur qui stocke beaucoup de contenus protégés par le droit d’auteur, on a un hébergeur qui organise ces contenus-là – la notion d’organisation est extrêmement floue – dès lors qu’il opère à des fins lucratives, non pas associatives, eh bien il s’engage dans l’enfer. L’enfer c’est quoi ? C’est que l’article 13, ou article 17 dans la nouvelle numérotation, nous dit que l’hébergeur est responsable immédiatement des contenus illicites qui viendraient à être stockés à la demande d’un internaute.
Je ne sais pas si vous réalisez ! Je ne sais pas si, dans la salle, il y a des personnes qui travaillent dans l’hébergement, ça voudrait dire que vous ayez une surveillance comme ça, proactive, de l’ensemble des octets envoyés par les internautes, vos clients, vos lecteurs ou que sais-je et que vous puissiez, comme ça, comparer, savoir exactement si telle image, telle photo, telle vidéo, tel son, est protégé par le droit d’auteur, est une contrefaçon. À ce moment-là je le supprime parce que sinon je risque moi aussi d’être embêté devant la juridiction. Cette responsabilité directe, qui est posée en fait comme principe, sort complètement du régime que je vous ai exposé tout à l’heure, de la directive de 2000 sur le commerce électronique, puisqu’on a une responsabilité cette fois-ci qui est directe, elle n’est plus conditionnée, on sort complètement de la logique du « manifestement illicite ».
De deux choses l’une, soit l’hébergeur, un hébergeur comme YouTube, soit l’hébergeur comme YouTube arrive à signer un accord de licence avec les sociétés de gestion collective pour protéger l’ensemble des œuvres du catalogue qui compte des millions et des millions de contenus, donc s’il signe un deal pour licéiter ces contenus-là, il n’y a pas de souci.
Autre hypothèse, c’est celle où il n’y a pas d’accord de licence, c’est-à-dire qu’on reste sur un statut d’hébergeur tout à fait classique, à ce moment-là, l’hébergeur sera responsable directement de ces contenus-là, sauf s’il parvient à démontrer qu’il a fait œuvre de best effort, qu’il a mis en œuvre les meilleurs efforts possibles et inimaginables pour tenter de signer un accord de licence avec les ayants droit et également qu’il respecte l’obligation de retrait, c’est-à-dire que dès lors qu’on lui notifie un contenu, il le retire tout de suite. Voilà le régime. C’est un régime d’exception en cas, on est donc ici, en bleu, en cas d’absence d’accord de licence.

11’ 25

Après, il y a une exception dans l’exception. J’espère que je ne vous perds pas. C’est pour les plateformes qui ont un certain âge, une certaine richesse ou une certaine popularité. Toutes les plateformes qui ont plus de trois ans ou dont le chiffre d’affaires dépasse dix millions d’euros, à ce moment-là elles, elles ont des obligations spécifiques. En cas d’absence de licence avec les ayants droit, elles ont l’obligation de mettre un filtre à l’upload, donc elles ont une base de connaissances, le catalogue des ayants droit, et elles doivent comparer l’ensemble des œuvres qui sont mises en ligne par les internautes et piler, tuer, supprimer les tentatives de mise en ligne. Première obligation.
Deuxième obligation : pour les plateformes qui ont plus de trois ans d’âge ou plus de dix millions d’euros de chiffre d’affaires, obligation de retirer un contenu qui a déjà été notifié. C’est-à-dire que moi je mets un mp3 en ligne, il est retiré parce qu’il est illicite, en plus de quoi la plateforme a l’obligation de surveiller l’ensemble des tentatives de remise en ligne qui sont faites par l’ensemble des internautes, de ses clients, des lecteurs de ce que vous voulez, pour les retirer, donc ça s’impose la mise en œuvre d’une liste noire. C’est une notice instant down(???), c’est-à-dire qu’on me notifie et moi je dois faire en sorte que le contenu reste down, reste sous terre et ne soit jamais remis en ligne. C’est du filtrage. Souvent cet article 17 ou 13 a été présenté comme une arme anti-Google, mais regardez bien les critères. C’est pour ça que ceux qui ont dépeint et qui se sont dit « finalement ce n’est pas si grave l’article 13 ou l’article 17 », regardez bien les critères : c’est toutes les plateformes de plus de trois ans d’âge. Donc un petit hébergeur qui aurait plus de trois ans d’âge, trois ans d’âge plus un jour, eh bien il tombe dedans, même s’il ne s’appelle pas Google.
Et on a un dernier cas, ce sont toutes les plateformes, cette fois-ci, qu’elles aient un jour d’âge ou un mois ou un an ou trois ans, toutes les plateformes qui ont plus de cinq millions de visiteurs uniques, ça peut aller assez vite, plus de cinq millions de visiteurs uniques par mois, elles, elles sont astreintes à une obligation de notice instant down, c’est-à-dire que si on les notifie, on leur dit « ce contenu-là est illicite », elles ont l’obligation de mettre en place une liste noire et d’empêcher la remise en ligne de tous les contenus qui ont été dénoncés.

C’est un régime qui est extrêmement lourd, grave, et qui fait fonctionne sur le filtrage.

Pendant tous les débats, moi et d’autres, on a tenté de signaler cette existence de filtrage et, en face, les ayants droit nous disaient : « Mais non, il n’y a pas de filtrage, ce n’est pas vrai, c’est faux ! » Je me rappelle même que Jean-Marie Cavada, lors d’un vote intermédiaire avait twitté en disant « ça y est, super, le filtrage est enfin adopté à l’échelle européenne ». Il est eurodéputé, favorable à la directive. Finalement il s’est rendu compte que son wording n’était pas super politiquement acceptable, donc il a vite supprimé son tweet. Évidemment on a des captures !

Par la suite, lorsque la directive a été enfin votée et enfin publiée au Journal officiel, on a le gouvernement qui s’est félicité que le filtrage allait être enfin industrialisé, ils ne l’ont dit comme ça, ils l’ont dit avec des fleurs et des mots et du parfum. Même Emmanuel Macron, lors d’un échange sur YouTube, a expliqué que c’était une forme de blocage qui allait être mise en œuvre et que tout allait très bien. Sauf que tout va très bien ? Pas si sûr.

Je ne vous l’ai pas dit, mais il y a des exceptions en haut à droite, en bleu, article 17 ou 13, il ne s’applique pas aux encyclopédies à but non lucratif, ni aux fermes de dépôts éducatives ou scientifiques sans but lucratif, ni aux plateformes de développement et de partage de logiciels libres, il ne s’applique pas à ces secteurs-là. Mais il s’applique ailleurs. Je veux dire par là qu’une image par exemple sur Wikipédia – certes Wikipédia tombe dans l’exception, il n’y a pas de souci –, mais le monde du Libre est aussi calibré pour faire en sorte d’assurer une dissémination extrêmement vaste des œuvres pour nourrir la collectivité, eh bien une image qui sort de Wikipédia et qui va sur un site commercial parce que sa licence l’autorise, et ce n’est pas grave, eh bien pouf ! elle tombe dans l’article 17. L’article fonctionnera sur les images libres qui seront hébergées par des plateformes commerciales.

Et là où ça devient aussi très compliqué, ce sont les œuvres composites. On a des personnes qui font des vidéos très bien, absolument génialissimes, où elles vont faire une espèce de patchwork de contenus récupérés à droite à gauche pour créer une nouvelle œuvre. Le problème c’est que l’algorithme est aussi intelligent qu’un grille-pain : on est plus proche du grille-pain que de l’être humain sur un algorithme. L’algorithme va voir ça, ça va matcher, eh bien signal d’alarme, on supprime. Donc c’est du filtrage.

Donc les contraintes qui sont imposées par ces dispositifs sont complètement ahurissantes, mais le texte est voté, donc c’est trop tard. C’est une directive. Lorsqu’on a une directive, eh bien il faut la transposer. On a une loi sur l’audiovisuel, j’ai sorti l’avant-projet il y a quelques semaines sur Next Inpact, la loi va être bientôt présentée en Conseil des ministres et après déposée à l’Assemblée nationale ou au Sénat. Ensuite on a le parcours législatif habituel, mais c’est voté. Donc la France n’a pas d’autre choix que de lancer, de mettre en œuvre ce dispositif-là. Je ne sais pas ce que ça va donner si ce n’est qu’on aura des cas de « surcensure » qui vont être patents. Évidemment, la directive va sanctionner les cas de défaut de censure : « Comment ? Vous, hébergeur, vous rentrez dans les conditions, vous stockez un grand nombre d’œuvres, à titre lucratif, vous les organisez en plus à des fins lucratives, eh bien vous tombez sous l’article 17 et vous n’avez pas supprimé une œuvre alors que vous auriez dû le faire puisque vous rentrez dans les différentes conditions. Donc moi je vous attaque. » Ça, en cas de défaut de censure, il pourrait y avoir des condamnations.
Mais en cas de « surcensure », c’est-à-dire une censure qui est totalement illégitime, et je peux vous garantir que pour ceux qui ont des comptes Facebook ça arrive très souvent, eh bien là on n’a pas de sanction, on n’a pas de sanction du tout.
Certes le texte, pour le coup, est intéressant parce qu’il organise une forme d’appel, c’est-à-dire que l’internaute pourra contester la décision qui a été prise par notre grille-pain, pardon, notre algorithme de filtrage pour dire « attendez, moi j’ai des droits dessus, c’est mon œuvre donc votre algorithme fonctionne n’importe comment ! » Ça c’est intéressant, vous allez me dire que c’est bien, sauf que le dispositif, cette forme d’appel interne d’abord il supposera que vous soyez calibré juridiquement, ce n’est pas donné à tout le monde, je ne mets pas en doute vos compétences, mais vous avez face à vous des juristes chevronnés qui travaillent dessus depuis des années et pour se battre et apporter des arguments solides, eh bien il faut des reins. Et quand on est adolescent, qu’on a reçu une vidéo comme ça sur YouTube ou peu importe la plateforme, ce n’est pas sûr qu’on puisse braver le fer, comme ça, avec ce genre d’acteur. Et puis surtout, cette procédure d’appel, cette forme d’appel devant ces acteurs elle se fait après coup, à posteriori, après la censure. Donc le contenu sera retiré.

La directive SMA

La loi en question, avec l’article 17, qui va être transposée c’est la loi sur l’audiovisuel qui va consacrer notamment la fusion, enfin une espèce de fusion entre le CSA et l’Hadopi, ça s’appelle l’Arcom [Autorité de régulation des communications audiovisuelles et numériques], on va avoir une nouvelle autorité qui va s’appeler l’Arcom, qui est, en fait, un CSA déguisé : l’Arcom c’est le CSA mais qui va récupérer les compétences de l’Hadopi. Ce texte-là, en plus, va consacrer une autre transposition c’est la transposition de la directive SMA, Services de médias audiovisuels. Vous allez me dire oui et alors ? Et alors ? Dans ce cadre-là, des nouveaux pouvoirs vont être attribués à ce qui est aujourd’hui le CSA pour réguler les contenus en ligne. En fait le CSA, ici, gagne un cran qu’il a toujours voulu poursuivre, c’est celui de pouvoir réguler les contenus sur les plateformes type YouTube.

Comment va se passer cette régulation-là ? Jusqu’à présent sa régulation se limitait aux chaînes commerciales sur YouTube. On a eu un cas, le cas Des Recettes Pompettes, je ne sais pas si vous connaissez cette chaîne sur YouTube, je vois des têtes qui font oui, qui consiste à interviewer une personnalité et puis à picoler. Sauf qu’à un moment donné eh bien la biologie fait son œuvre et on est bourré, donc ça devient drôle, parait-il. Le CSA a considéré que c’était une chaîne commerciale et là ça rentrait dans le périmètre de ses compétences, donc il avait asséné une sèche mise en demeure, doigt en l’air, etc.
Demain, avec la transposition de la directive SMA, les compétences du CSA vont s’étendre même aux contenus gênés par l’utilisateur. Ça veut dire par là que votre vidéo perso, votre chat qui tombe, etc., ça va pouvoir être contrôlé et rectifié par le CSA s’il le désire. Le champ des compétences est extrêmement vaste puisque dedans on a la protection de l’enfance, celle de l’adolescence, on a tout ce qui peut nuire à l’épanouissement physique ou mental des internautes, etc. Plein de critères, comme ça, qui sont assez flous et qui vont permettre au CSA de dire « là on a un contenu problématique, il faut le supprimer ou le réagencer », je ne sais pas comment ça va marcher.
De la même façon, le CSA pourra imposer des contraintes d’accès à des contenus qui sont considérés plutôt réservés aux majeurs. Si vous tapez, je ne sais pas, homme nu ou femme nu sur YouTube, je peux vous garantir que vous trouvez des trucs, eh bien le CSA pourra dire « tiens , là on a un contenu qui est problématique parce que les mineurs peuvent y accéder donc verboten, mettez un filtre, mettez quelque chose ». Et là ça change complètement la nature de la relation qu’on avait jusqu’à présent avec le web et on avait peut-être cette naïveté de considérer qu’Internet c’était autre chose qu’une télévision, qu’un écran, qu’une fenêtre de télévision. En réalité, au niveau régulation, on voit que la régulation type celle qu’on a aujourd’hui sur les vieilles chaînes de télévision à la papa, eh bien elle se répand sur Internet. On arrive tout doucement à faire d’Internet un écran de télévision, en tout cas sous l’angle de la régulation. Après je ne sais pas, au niveau des moyens, comment le CSA va pouvoir gérer ça, ils ont déjà du mal avec Hanouna apparemment alors qu’Internet c’est un peu vaste, mais bon ! Le problème c’est que ça peut arriver n’importe où n’importe quand. Directive SMA.

22’ 40

La proposition de loi AVIA contre la HAINE en ligne