Inventaire des dernières menaces législatives sur la liberté d'expression — Marc Rees - Capitole du Libre 2019

Capture d'écran - Marc Rees - Capitole du Libre 2019

Titre : Inventaire des dernières menaces législatives sur la liberté d'expression
Intervenant : Marc Rees
Lieu : Capitole du Libre - Toulouse
Date : novembre 2019
Durée : 1 h 3 min
Visualiser la vidéo
Licence de la transcription : Verbatim
Illustration : capture d'écran de la vidéo
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Panorama des derniers textes publiés en Europe et en France avec accent mis sur :
- la proposition de loi Avia contre « la haine en ligne »
- la directive sur le droit d'auteur
- la directive relative aux services de médias audiovisuels
Autant de menaces pesant sur la liberté d'expression sur les plateformes comme Twitter, YouTube et les autres. Explications des rouages législatifs, éclairage synthétique sur les risques, identifications de points concrets.

Transcription

Je voulais d’abord vous remercier d’être venus pour écouter ce panorama des menaces sur les libertés numériques et je voulais aussi remercier Capitole du Libre d’avoir organisé cet échange et tous les autres échanges qui sont concomitants ou qui ont lieu avant, après.
Je m’appelle Marc Rees, je suis rédacteur en chef de Next Inpact, je suis journaliste depuis trop longtemps et je m’intéresse aux questions des libertés numériques sous un angle strictement juridique donc qui peut être un petit peu embêtant, mais en réalité ces questions-là sont fondamentales ; d’ailleurs je vous invite hautement à suivre tous les débats parlementaires qui concernent ce champ-là parce que les conséquences peuvent être extrêmement dramatiques dans la vie quotidienne, dans la vraie vie de chacun d’entre nous.
L’an dernier j’étais déjà venu pour vous parler des petits secrets de la copie privée1 qui est un autre de mes sujets favoris. Cette année je vais un peu me renouveler et je voudrais évoquer ce panorama des menaces sur les libertés numériques. Pourquoi évoquer ce sujet-là ? Parce que les menaces potentielles ou en tout cas avérées sont extrêmement nombreuses actuellement. On a un déluge de textes qui tombent de tous les côtés et ce n’est pas du tout simple d’essayer de suivre tout cela, surtout lorsqu’on est derrière son écran, qu’on essaye de suivre, ce n’est vraiment pas du tout simple. Je vais essayer de vous faire une espèce de survol de ces différents textes et vous n’hésiterez pas à me poser des questions, si vous le voulez évidemment.

Retour sur la responsabilité des hébergeurs

Avant cela, pour que vous puissiez comprendre la suite, je voudrais faire un petit rappel sur cette notion de responsabilité des hébergeurs, ce qui va vous permettre un petit peu de comprendre d’où on est parti et où on va.
D’abord c’est quoi un hébergeur ? Vous en connaissez tout plein. Vous connaissez Facebook, Twitter, Instagram, Snapchat, YouTube, Dailymotion, tout ce que vous voulez. Don c’est un site, un service en ligne, dont la mission est d’héberger, d’abriter des contenus qui sont fournis par des internautes pour éventuellement les mettre à disposition des autres. Lorsqu’on a un acteur comme OVH qui fait du stockage de données ou WeTransfer aussi, là, à chaque fois, on est face à des hébergeurs.
Quel est le régime de responsabilité qui s’impose à eux ? L’objectif qui avait été assigné par la législation en vigueur était triple. J’ai mis là, ce fut de garantir un retrait des contenus illicites, également assurer le respect de la liberté d’expression et celle d’information et aussi protéger la liberté du commerce et la libre concurrence. C’est une espèce de triple impératif qui a commandé la législation qui a donc été consacrée par une directive appliquée en 2000, la directive sur le commerce électronique, et qui a été transposée en France par une loi qui s’appelle la loi sur la confiance dans l’économie numérique, la loi LCEN2, en 2004.
L’idée c’est quoi ? C’est de poser comme grand principe qu’un hébergeur n’est pas responsable des contenus illicites transmis par un internaute, par contre, une fois alerté, s’il décide de conserver le contenu illicite, à ce moment-là il devient quelque part complice de ce contenu. Voilà l’équilibre qui a été trouvé.
Plusieurs principes ont été posés par cette législation, ça a été de dire pas de filtrage généralisé, c’est-à-dire qu’on ne peut pas ordonner à YouTube, Twitter ou autre ou OVH, WeTransfer, qui vous voulez, de se lancer dans une espèce de chasse à l’octet illicite. On ne peut pas, on n’a pas le droit.
Deuxième principe qui a été consacré par la loi, ça a été la conservation des données des contributeurs. La loi impose que durant une année, YouTube comme les autres, conserve durant un an les données de connexion, les données d’identification aussi des internautes qui sont venus apporter une vidéo d’un chat qui tombe. Pendant un an. Pourquoi ? Parce que s’il s’avérerait que ce chat qui tombe c’est finalement un contenu illicite, eh bien les autorités ont la possibilité de poursuivre éventuellement cette personne-là.
Troisième principe, le retrait illicite. C’est-à-dire que lorsqu’un juge décide, estime que cette vidéo de chat qui tombe c’est un contenu illicite, s’il y a un jugement qui dit que c’est illicite, l’hébergeur doit retirer ce contenu-là. On a un vrai jugement, avec respect du contradictoire.
Quatrième principe, c’est le retrait des contenus manifestement illicites. Là ça change un petit peu, on veut essayer de gagner en efficacité. Comment ? Lorsqu’on a un contenu dont l’illicéité, c’est un mot que je vais utiliser assez souvent, est évidente, à ce moment-là l’hébergeur, dès lors qu’il est alerté, eh bien il doit le retirer. Vous comprenez bien que lorsqu’on parle d’un contenu manifestement illicite, et c’est le Conseil Constitutionnel qui a imposé ce filtre-là, eh bien il faut qu’il y ait un contenu dont l’illicéité est évidente, frappante. L’exemple type c’est celui d’une image pédo-porno, je n’en ai pas là, mais si je vous diffuse une image pédo-porno vous allez rapidement comprendre que ce contenu-là a peut-être un petit problème, même clairement un problème. Par contre, si je prends ma guitare, je joue un morceau et je vous dis : « Est-ce que ça c’est manifestement illicite ou pas ? » Vous n’en savez rien. Pourquoi vous n’en savez rien ? D’abord parce que vous ne connaissez pas l’ensemble des œuvres qui ont été créées à l’échelle de la planète, vous ne savez pas si c’est une contrefaçon. Autre chose, vous ne savez même pas si le morceau que j’ai pompé en prenant des tablatures sur Internet à l’origine était original, parce que l’originalité c’est quand même ce qui caractérise, ce qui conditionne la protection par le droit d’auteur. Vous n’en savez rien. Vous, si vous êtes hébergeur on vous dit : « Là il y a un fichier mp3, un fichier avi ou ce que vous voulez, qui est complètement illicite, retirez-le ! » Est-ce que c’est manifestement illicite ? Je n’en sais rien moi, je n’ai pas une base de connaissances de l’ensemble des œuvres protégées, je n’en sais rien du tout. Donc allez voir le juge et si le juge estime qu’effectivement c’est illicite, à ce moment-là il m’ordonnera et moi, à la lecture du jugement, je supprimerai le contenu. Voilà comment ça marche.

Vous comprenez bien que ce statut-là a un petit peu agacé nos amis les ayants droit. Pourquoi ? Parce qu’il y a cette contrainte du manifestement illicite ; un fichier mp3 manifestement illicite, difficile ! Et c’est aussi, pour les ayants droit, l’obligation de notifier, c’est-à-dire d’alerter ou de lancer des procédures œuvre par œuvre, donc c’est un boulot qui est coûteux en temps, en argent et aussi en publicité. Un procès ça fait du bruit. Vous voyez !
Ce statut d’hébergeur qui était là aussi pour garantir la liberté d’expression et d’information, qui sont quand même un peu importantes aujourd’hui, eh bien il a toujours agacé les ayants droit qui ont cherché mille solutions pour le remettre en cause.

Ça ce sont les grands principes que je vous ai exposés :
pas de filtrage généralisé,
conservation des données,

retrait des contenus illicites ordonné par un juge ou retrait des contenus manifestement illicites ou à l’illicéité évidente comme les contenus pédo-pornos.

L’article 17, ex-article 13 de la directive sur le droit d’auteur

C’est à où je débouche sur l’article 17, ex-article 13 de la directive sur le droit d’auteur, où les ayants droit sont arrivés au nirvana. Pourquoi ? Parce qu’ils ont créé une incise dans ce régime de responsabilité, une bulle, une exception : dès lors qu’un hébergeur vient stocker un grand nombre d’œuvres et qu’il met à disposition, qu’il organise aussi, et ce à des fins lucratives, dès lors qu’on remplit toutes ces conditions-là et on les remplit très facilement, eh bien ils ont créé un régime de responsabilité qui s’écarte totalement de celui de la directive de 2000, ce que je vous ai expliqué tout à l’heure.
Article 17, comment il fonctionne ? Je me suis amusé à faire ce schéma-là, ça c’est l’article 17 et je vous invite aussi à voir le schéma concurrent mais complémentaire qu’avait fait Pierre Beyssac qui avait aussi tenté de mettre en image ce fameux article qui est compliqué. Dites-vous simplement que lorsqu’on a un hébergeur qui stocke beaucoup de contenus protégés par le droit d’auteur, qu'on a un hébergeur qui organise ces contenus-là – la notion d’organisation est extrêmement floue – dès lors qu’il opère à des fins lucratives, non pas associatives, eh bien il s’engage dans l’enfer. L’enfer c’est quoi ? C’est que l’article 13, ou article 17 dans la nouvelle numérotation, nous dit que l’hébergeur est responsable immédiatement des contenus illicites qui viendraient à être stockés à la demande d’un internaute.
Je ne sais pas si vous réalisez ! Je ne sais pas si, dans la salle, il y a des personnes qui travaillent dans l’hébergement, ça voudrait dire que vous ayez une surveillance comme ça, proactive, de l’ensemble des octets envoyés par les internautes, vos clients, vos lecteurs ou que sais-je, et que vous puissiez, comme ça, comparer, savoir exactement si telle image, telle photo, telle vidéo, tel son, est protégé par le droit d’auteur, est une contrefaçon. À ce moment-là je le supprime parce que sinon je risque moi aussi d’être embêté devant la juridiction. Cette responsabilité directe, qui est posée en fait comme principe, sort complètement du régime que je vous ai exposé tout à l’heure, de la directive de 2000 sur le commerce électronique, puisqu’on a une responsabilité cette fois-ci qui est directe, elle n’est plus conditionnée, on sort complètement de la logique du « manifestement illicite ».
De deux choses l’une, soit l’hébergeur, un hébergeur comme YouTube, soit l’hébergeur comme YouTube arrive à signer un accord de licence avec les sociétés de gestion collective pour protéger l’ensemble des œuvres du catalogue qui compte des millions et des millions de contenus, donc s’il signe un deal pour licéiter ces contenus-là, il n’y a pas de souci.
Autre hypothèse, c’est celle où il n’y a pas d’accord de licence, c’est-à-dire qu’on reste sur un statut d’hébergeur tout à fait classique, à ce moment-là, l’hébergeur sera responsable directement de ces contenus-là, sauf s’il parvient à démontrer qu’il a fait œuvre de best effort, qu’il a mis en œuvre les meilleurs efforts possibles et inimaginables pour tenter de signer un accord de licence avec les ayants droit et également qu’il respecte l’obligation de retrait, c’est-à-dire que dès lors qu’on lui notifie un contenu, il le retire tout de suite. Voilà le régime. C’est un régime d’exception en cas, on est donc ici, en bleu, en cas d’absence d’accord de licence.

Après, il y a une exception dans l’exception. J’espère que je ne vous perds pas. C’est pour les plateformes qui ont un certain âge, une certaine richesse ou une certaine popularité. Toutes les plateformes qui ont plus de trois ans ou dont le chiffre d’affaires dépasse dix millions d’euros, à ce moment-là elles, elles ont des obligations spécifiques. En cas d’absence de licence avec les ayants droit, elles ont l’obligation de mettre un filtre à l’upload, donc elles ont une base de connaissances, le catalogue des ayants droit, et elles doivent comparer l’ensemble des œuvres qui sont mises en ligne par les internautes et piler, tuer, supprimer les tentatives de mise en ligne. Première obligation.
Deuxième obligation : pour les plateformes qui ont plus de trois ans d’âge ou plus de dix millions d’euros de chiffre d’affaires, obligation de retirer un contenu qui a déjà été notifié. C’est-à-dire que moi je mets un mp3 en ligne, il est retiré parce qu’il est illicite, en plus de quoi la plateforme a l’obligation de surveiller l’ensemble des tentatives de remise en ligne qui sont faites par l’ensemble des internautes, de ses clients, des lecteurs, de ce que vous voulez, pour les retirer, donc ça impose la mise en œuvre d’une liste noire. C’est une notice and stay down, c’est-à-dire qu’on me notifie et moi je dois faire en sorte que le contenu reste down, reste sous terre et ne soit jamais remis en ligne. C’est du filtrage. Souvent cet article 17 ou 13 a été présenté comme une arme anti-Google, mais regardez bien les critères. C’est pour ça que ceux qui ont dépeint et qui se sont dit « finalement ce n’est pas si grave l’article 13 ou l’article 17 », regardez bien les critères : c’est toutes les plateformes de plus de trois ans d’âge. Donc un petit hébergeur qui aurait plus de trois ans d’âge, trois ans d’âge plus un jour, eh bien il tombe dedans, même s’il ne s’appelle pas Google.
Et on a un dernier cas, ce sont toutes les plateformes cette fois-ci, qu’elles aient un jour d’âge ou un mois ou un an ou trois ans, toutes les plateformes qui ont plus de cinq millions de visiteurs uniques par mois, ça peut aller assez vite, elles, elles sont astreintes à une obligation de notice and stay down, c’est-à-dire que si on les notifie, on leur dit « ce contenu-là est illicite », elles ont l’obligation de mettre en place une liste noire et d’empêcher la remise en ligne de tous les contenus qui ont été dénoncés.
C’est un régime qui est extrêmement lourd, grave, et qui fait fonctionne sur le filtrage.

Pendant tous les débats on a tenté, moi et d’autres, de signaler cette existence de filtrage et, en face, les ayants droit nous disaient : « Mais non, il n’y a pas de filtrage, ce n’est pas vrai, c’est faux ! » Je me rappelle même que Jean-Marie Cavada, lors d’un vote intermédiaire avait twitté en disant « ça y est, super, le filtrage est enfin adopté à l’échelle européenne ». Il est eurodéputé, favorable à la directive. Finalement il s’est rendu compte que son wording n’était pas super politiquement acceptable, donc il a vite supprimé son tweet. Évidemment on a des captures !

Par la suite, lorsque la directive a été enfin votée et enfin publiée au Journal officiel, on a le gouvernement qui s’est félicité que le filtrage allait être enfin industrialisé, ils ne l’ont dit comme ça, ils l’ont dit avec des fleurs et des mots et du parfum. Même Emmanuel Macron, lors d’un échange sur YouTube, a expliqué que c’était une forme de blocage qui allait être mise en œuvre et que tout allait très bien. Sauf que ! Tout va très bien ? Pas si sûr.

Je ne vous l’ai pas dit, mais il y a des exceptions en haut à droite, en bleu, article 17 ou 13, il ne s’applique pas aux encyclopédies à but non lucratif, ni aux fermes de dépôts éducatives ou scientifiques sans but lucratif, ni aux plateformes de développement et de partage de logiciels libres, il ne s’applique pas à ces secteurs-là. Mais il s’applique ailleurs. Je veux dire par là qu’une image par exemple sur Wikipédia – certes Wikipédia tombe dans l’exception, il n’y a pas de souci –, mais le monde du Libre est aussi calibré pour faire en sorte d’assurer une dissémination extrêmement vaste des œuvres pour nourrir la collectivité. Eh bien une image qui sort de Wikipédia et qui va sur un site commercial parce que sa licence l’autorise, et ce n’est pas grave, eh bien pouf ! elle tombe dans l’article 17. L’article fonctionnera sur les images libres qui seront hébergées par des plateformes commerciales.

Et là où ça devient aussi très compliqué, ce sont les œuvres composites. On a des personnes qui font des vidéos très bien, absolument génialissimes, où elles vont faire une espèce de patchwork de contenus récupérés à droite à gauche pour créer une nouvelle œuvre. Le problème c’est que l’algorithme est aussi intelligent qu’un grille-pain : on est plus proche du grille-pain que de l’être humain sur un algorithme. L’algorithme va voir ça, ça va matcher, eh bien signal d’alarme, on supprime. Donc c’est du filtrage.

Donc les contraintes qui sont imposées par ces dispositifs sont complètement ahurissantes, mais le texte est voté, donc c’est trop tard. C’est une directive. Lorsqu’on a une directive, eh bien il faut la transposer.
On a une loi sur l’audiovisuel, j’ai sorti l’avant-projet il y a quelques semaines sur Next INpact, la loi va être bientôt présentée en Conseil des ministres et après déposée à l’Assemblée nationale ou au Sénat. Ensuite on a le parcours législatif habituel, mais c’est voté. Donc la France n’a pas d’autre choix que de lancer, de mettre en œuvre ce dispositif-là. Je ne sais pas ce que ça va donner si ce n’est qu’on aura des cas de « surcensure » qui vont être patents. Évidemment, la directive va sanctionner les cas de défaut de censure : « Comment ? Vous, hébergeur, vous rentrez dans les conditions, vous stockez un grand nombre d’œuvres, à titre lucratif, vous les organisez en plus à des fins lucratives, eh bien vous tombez sous l’article 17 et vous n’avez pas supprimé une œuvre alors que vous auriez dû le faire puisque vous rentrez dans les différentes conditions. Donc moi je vous attaque. » Ça, en cas de défaut de censure, il pourrait y avoir des condamnations.

Mais en cas de « surcensure », c’est-à-dire une censure qui est totalement illégitime, et je peux vous garantir que pour ceux qui ont des comptes Facebook ça arrive très souvent, eh bien là on n’a pas de sanction, on n’a pas de sanction du tout.
Certes le texte, pour le coup, est intéressant parce qu’il organise une forme d’appel, c’est-à-dire que l’internaute pourra contester la décision qui a été prise par notre grille-pain, pardon, notre algorithme de filtrage pour dire « attendez, moi j’ai des droits dessus, c’est mon œuvre donc votre algorithme fonctionne n’importe comment ! » Ça c’est intéressant, vous allez me dire que c’est bien, sauf que le dispositif, cette forme d’appel interne, d’abord il supposera que vous soyez calibré juridiquement, ce n’est pas donné à tout le monde ! Je ne mets pas en doute vos compétences, mais vous avez face à vous des juristes chevronnés qui travaillent dessus depuis des années et pour se battre et apporter des arguments solides, eh bien il faut des reins. Et quand on est adolescent, qu’on a reçu une vidéo comme ça sur YouTube ou peu importe la plateforme, ce n’est pas sûr qu’on puisse braver le fer, comme ça, avec ce genre d’acteur. Et puis surtout, cette procédure d’appel, cette forme d’appel devant ces acteurs elle se fait après coup, à posteriori, après la censure. Donc le contenu sera retiré.

La directive SMA

La loi en question, avec l’article 17, qui va être transposée c’est la loi sur l’audiovisuel qui va consacrer notamment la fusion, enfin une espèce de fusion entre le CSA [Conseil supérieur de l'audiovisuel] et l’Hadopi [Haute autorité pour la diffusion des œuvres et la protection des droits sur Internet], ça s’appelle l’Arcom [Autorité de régulation des communications audiovisuelles et numériques], on va avoir une nouvelle autorité qui va s’appeler l’Arcom, qui est, en fait, un CSA déguisé : l’Arcom c’est le CSA, mais qui va récupérer les compétences de l’Hadopi. Ce texte-là, en plus, va consacrer une autre transposition c’est la transposition de la directive SMA, Services de médias audiovisuels. Vous allez me dire oui et alors ? Et alors ? Dans ce cadre-là, des nouveaux pouvoirs vont être attribués à ce qui est aujourd’hui le CSA pour réguler les contenus en ligne. En fait le CSA, ici, gagne un cran qu’il a toujours voulu poursuivre, c’est celui de pouvoir réguler les contenus sur les plateformes type YouTube.

Comment va se passer cette régulation-là ? Jusqu’à présent sa régulation se limitait aux chaînes commerciales sur YouTube. On a eu un cas, le cas Des Recettes Pompettes, je ne sais pas si vous connaissez cette chaîne sur YouTube, je vois des têtes qui font oui, qui consiste à interviewer une personnalité et puis à picoler. Sauf qu’à un moment donné eh bien la biologie fait son œuvre et on est bourré, donc ça devient drôle, parait-il. Le CSA a considéré que c’était une chaîne commerciale et là ça rentrait dans le périmètre de ses compétences, donc il avait asséné une sèche mise en demeure, doigt en l’air, etc.
Demain, avec la transposition de la directive SMA, les compétences du CSA vont s’étendre même aux contenus gênés par l’utilisateur. Par là ça veut dire que votre vidéo perso, votre chat qui tombe, etc., ça va pouvoir être contrôlé et rectifié par le CSA s’il le désire. Le champ des compétences est extrêmement vaste puisque dedans on a la protection de l’enfance, celle de l’adolescence, on a tout ce qui peut nuire à l’épanouissement physique ou mental des internautes, etc. Plein de critères, comme ça, qui sont assez flous et qui vont permettre au CSA de dire « là on a un contenu problématique, il faut le supprimer ou le réagencer », je ne sais pas exactement comment ça va marcher.
De la même façon, le CSA pourra imposer des contraintes d’accès à des contenus qui sont considérés plutôt réservés aux majeurs. Si vous tapez, je ne sais pas, homme nu ou femme nue sur YouTube, je peux vous garantir que vous trouvez des trucs, eh bien le CSA pourra dire « tiens, là on a un contenu qui est problématique parce que les mineurs peuvent y accéder donc verboten, mettez un filtre, mettez quelque chose ».
Et là, ça change complètement la nature de la relation qu’on avait jusqu’à présent avec le web. On avait peut-être cette naïveté de considérer qu’Internet c’était autre chose qu’une télévision, qu’un écran, qu’une fenêtre de télévision. En réalité, au niveau régulation, on voit que la régulation type celle qu’on a aujourd’hui sur les vieilles chaînes de télévision à la papa, eh bien elle se répand sur Internet. On arrive tout doucement à faire d’Internet un écran de télévision, en tout cas sous l’angle de la régulation. Après je ne sais pas, au niveau des moyens, comment le CSA va pouvoir gérer ça, ils ont déjà du mal avec Hanouna apparemment, parce qu’Internet c’est un peu vaste, mais bon ! Le problème c’est que ça peut arriver n’importe où n’importe quand. Directive SMA.

La proposition de loi AVIA contre la HAINE en ligne

Ce n’est pas tout. Sur le terrain des droits et libertés, on a aussi la proposition de loi Avia contre la haine en ligne. Celle-là est absolument merveilleuse ! Cette proposition de loi a déjà été votée par l’Assemblée nationale ; elle sera examinée au Sénat dans pas longtemps, quelques semaines, je crois que c’est fin novembre.
C’est une proposition de loi contre la haine en ligne. Qui est pour la haine en ligne ? Moi je n’aime pas la haine, je préfère la paix ! Je n’aime pas les pitbulls, je préfère les chatons ! Donc proposition de loi contre la haine en ligne, à priori, ça ne me dérange pas trop.

Qu’est-ce que prévoit ce texte-là ? Il génère une obligation de retrait pesant sur les plateformes. On ne parle plus d’hébergeurs, plateformes c’est le nom 2.0 des hébergeurs dans la start-up nation. Donc les plateformes en ligne auront l’obligation de retirer des contenus en 24 heures, des contenus qui sont listés par la proposition de loi. Dedans on a le terrorisme, on a la discrimination raciale, on a les injures raciales – évidemment, on est tous contre les injures raciales, sexistes, homophobes, etc., c’est évident ! –, mais les plateformes auront 24 heures pour le faire, 24 heures pour décider si ce contenu-là c’est une vraie injure raciale ou si c’est du lol. Pas simple ! Je vous assure que ce n’est pas simple. L’OCLCTIC, l’Office central de lutte contre la criminalité informatique [Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication] s’est planté il n’y a pas longtemps. Ils ont considéré qu’un tweet était une incitation au terrorisme alors qu’en fait le tweet en question c’était juste du gros lol, mais ils se sont plantés. Là on va demander la même chose, on va demander finalement aux GAFA, GAFAM, d’être juges à la place des juges ; ils auront 24 heures pour le faire, là où un juge va normalement bosser très sérieusement, il va jouer la contradiction, il va contextualiser l’éventuelle infraction pour voir si, effectivement, ça mériterait d’être supprimé ou gardé : c’est ça le travail du juge. Et surtout, on a le droit de la défense. Là, les plateformes auront un flingue sur la tempe et ce flingue c’est une amende qui peut aller jusqu’à 1,25 million d’euros : si tu ne supprimes pas ce contenu-là alors que tu aurais dû le faire, eh bien tu risques 1,25 million d’euro d’amende.
La proposition de loi explique que le contenu doit être manifestement illicite et doit se rattacher à telle ou telle infraction. Certes. Mais, par protection, que va faire la plateforme ? L’adverbe « manifestement » elle va peut-être le reléguer en seconde classe et les équipes de modération vont se dire « eh bien tiens, si je ne supprime pas je risque 1,25 million d’euros ». Donc le risque, ici, il est d’une industrialisation de la censure de par cette menace pénale.

Il y a pire. Pourquoi ? Parce que lors des travaux parlementaires, la liste des infractions dont les plateformes ont l’obligation de supprimer le contenu en 24 heures a été enrichie aux infractions du type des contenus pornographiques ou violents simplement accessibles aux mineurs. Et là je vous demanderai de réfléchir deux secondes. Vous connaissez David Dufresne, il fait un travail formidable : Allô, place Beauvau ?. Eh bien Allô, place Beauvau ?, on a des vidéos violentes, très violentes parfois. On a des personnes qui ont perdu un bras, une main plutôt, ou un œil, qui ont été extrêmement blessées. Pour moi c’est du contenu violent. Est-ce qu’ils sont accessibles aux mineurs ? Eh bien oui. Moi je suis majeur, ça se voit peut-être, mais j’ai accès, eh bien le mineur aussi. Comment ça va se passer là ? Comment va réagir par exemple Twitter par rapport à cette mise en contexte ? Une personne qui a un képi ou pas, je n’en sais rien, va dénoncer ce contenu-là en disant « Twitter, regarde, il y a un contenu violent ». Effectivement, on a une personne qui est sang, qui vient de se prendre une balle de LBD dans la tête. Twitter, tu as 24 heures pour le supprimer parce que c’est un contenu qui est violent, très violent, trop violent et il est accessible aux mineurs.
Twitter va se dire « qu’est-ce que je fais ? » Peut-être que Twitter aura des recommandations pour essayer de mettre en balance la liberté d’information, la liberté d’expression, la liberté de communication avec ce risque infractionnel. Mais il faut que les équipes soient bien mises à niveau et surtout, les équipes de modération sur ces grands acteurs ne sont pas disséminées dans tous les pays. Je crois que pour Twitter c’est plutôt en Irlande ou en Angleterre. Est-ce que leur sensibilité va être suffisamment fine pour comprendre que le contexte, ici, est super violent, mais il faut que le public sache ce qui se passe exactement. Tout ça avec un Twitter qui aura un flingue sur la tempe, 1,25 million d’euros si jamais il ne supprime pas la vidéo alors qu’elle aurait dû l’être.

L’autre « charme » de la proposition de loi Avia, je ne l’ai pas dit mais à « charme » je mets plein de guillemets partout, l’autre « charme » de la proposition de loi Avia c’est de ne pas avoir prévu de peine en cas de « surcensure ». C’est-à-dire que si Twitter supprime ce qui n’aurait dû l’être il n’y a pas de risque, en tout cas individuellement. Plus exactement, Twitter ne risquera de sanction, une amende qui peut aller jusqu’à 4 % du chiffre d’affaires mondial, un niveau d’amende qui est inspiré du RGPD, Twitter risquera cette peine qui sera infligée non pas par un juge mais par le CSA, nouvelle extension du pouvoir du CSA, mais dans le cadre d’une obligation de moyens. Je reprends : le retrait c’est une obligation de résultat, « tu retires sinon c’est 1,25 million d’euros », alors que la « surcensure » c’est une obligation de moyens. C’est-à-dire que Twitter ou Facebook, peu importe on s’en fiche, pourra dire « moi j‘ai tout fait pour éviter ce cas de "surcensure" », eh bien, à ce moment-là, il n’y aura pas d’infraction. C’est uniquement s’il y a une répétition sur une très longue date, éventuellement, tout au bout du compte, on pourra envisager d’avoir une sanction administrative.
Donc il y a un déséquilibre total ; il n’y a pas d’équivalence des formes entre la sanction de la censure et la sanction de la « surcensure » et c’est un gros problème.
On voit que dans la logique, la philosophie du texte, le retrait devient religion et la sanction d’un sur-retrait devient une exception ; complètement déséquilibré !

Le texte, finalement, revient à confier aux GAFAM, avec un « M », il ne faut pas l’oublier, des pans de pouvoir régalien. Qui est là pour rendre la justice ? Lever l’impôt c’est un pouvoir régalien, mais rendre la justice aussi. C’est un pouvoir qui est extraordinairement important puisqu’une sanction ça peut changer une vie, un procès. Finalement, on confie à ces vilains GAFAM, dont on dénonce chaque jour l’emprise, « on », c’est-à-dire les pouvoirs publics dénoncent l’emprise, la toute puissance, et là, finalement, on leur file les clefs : « Tiens, les clefs du juge, les clefs du tribunal et tu vas gérer ce que normalement le tribunal fait plus ou moins correctement avec ses propres moyens ». Et c’est grave, c’est très grave ! D’autant plus qu'eux ne sont pas demandeurs du tout ! Eux, leur boulot c’est d’héberger, ce n’est pas d’effacer. Leur boulot c’est de répandre, ce n’est pas de limiter. Être juge et jauger l’existence d’une infraction, je vous assure que c’est super dur, c’est très dur.

#BigBrotherBercy

Un autre texte qui est actuellement assez problématique, c’est #BigBrotherBercy. Je n’ai pas déposé le hashtag, mais vous pouvez l’utiliser de tous les côtés.
L’an dernier on avait eu écho, je crois que c’était Envoyé spécial qui avait fait un reportage pour dire que Bercy s’intéressait grandement aux big data pour traquer en ligne des indices de fraude. On a testé une pré-expérimentation sur ce cadre-là. Aujourd’hui, #BigBrotherBercy c’est une réalité.
J’ai sorti cet article 57 du projet de loi de finances pour 2020, pour l’année prochaine, et dans cet article qu’est-ce qui est dit ? Grosso modo, afin de lutter contre une série d’infractions limitées, donc il y a une finalité, Bercy, donc le fisc et les douanes auront la possibilité d’aspirer, de collecter toutes les sources ouvertes sur Internet, plus exactement sur les plateformes de partage. Plateformes de partage ça va vite, c’est-à-dire qu’à part le blog de Tati Michu, tous les gros sites, tous les mastodontes, tous les YouTube, les machins, tout tombe dedans ; eBay aussi, Le Bon Coin, Facebook, Snapchat, Instagram, etc. Donc le fisc et les douanes pourront aspirer toutes les données qui sont publiquement publiées sur ces sites. Publiquement, c’est-à-dire qu'on n’évoque pas les groupes fermés ou les messageries privées, mais tout le reste, tout ce qui est accessible au commun des mortels, pourra être aspiré, traité, pour essayer de trouver des indices de fraude.
Quels sont les types de fraude ? Actuellement on en est où ? Eh bien ce sont les fausses domiciliations. Donc une personne qui se dit non-contribuable français mais qui, en réalité, passe plus de six mois plus un jour en France. Ils pourront exploiter, par exemple dans ce cadre-là, des photos qui sont géolocalisées ; on voit que pendant six mois plus un jour la personne en question a diffusé sur Facebook des photos géolocalisées en France, eh bien ça, ça pourra titiller l’algorithme ou le traitement de big data de la part de Bercy.
De la même façon ils pourront traquer les ventes de produits illicites type tabac.
Ils s’attaquent aux sources ouvertes, donc uniquement dans l’hypothèse où on a une personne qui va, par exemple, donner son vrai nom et son vrai prénom sur Le Bon Coin, va dire « moi, Kévin Michu, je vends une cartouche de clopes tant d’euros ». On ne s’attaque pas ici à la grosse infraction fiscale. Je crois que sur le terrain fiscal, tout à l’heure on parlait des GAFAM, on a quelques sujets d’ampleur ici qui pèsent des milliards et des milliards ; là on s’attaque vraiment à la petite infraction fiscale. Frauder le fisc ce n’est pas bien, je n’ai pas dit le contraire. Mais si on a une certaine sensibilité, une certaine raison, on peut considérer qu’entre vendre un paquet de clopes sur Internet et puis s’installer en Irlande, au Luxembourg, maximiser son chiffre d’affaires, son bénéfice imposable, etc., par le sandwich néerlandais, etc., peut-être que c’est d’une ampleur un peu plus musclée. Après je ne sais pas, je pense, mais objectivement je pense que c’est ça. Donc on va s’attaquer vraiment à la petite infraction par une collecte massive, massive de données.
Ce qui est rigolo c’est que le gouvernement a placé ça dans le projet de loi de finances. Le projet de loi de finances, c’est le Conseil d’État qui a dit ça, le Conseil d’État considère qu’une telle possibilité de collecte massive de données, moi je dis collecte de masse, je n’ai pas lu tout Snowden avant de venir, ce n’est pas moi qui le dis, c’est le gouvernement. Le gouvernement dit, dans l’explication de texte qui fait quelques lignes, « on met en place une collecte de masse » et c’est la première fois dans l’histoire législative du droit des nouvelles technologies qu’une entité politique, ici le gouvernement français, explique sans pudeur, sans nuances, qu’il met en place une collecte de masse.
Donc ils vont mettre cette collecte de masse sur les réseaux sociaux, sur les plateformes de ventre type eBay et Le Bon Coin. Le gouvernement a placé ce dispositif dans le projet de loi de finances alors que, d’après le Conseil d’État, il n’a rien à y faire, c’est typiquement un cavalier budgétaire, ce qu’on appelle un cavalier budgétaire. La loi de finances est là pour définir le budget qui va être attribué à l’Armée, à la Défense, à la Culture, etc. On n’est pas dans un outil de collecte de masse, là n’est pas son cadre.

Il a placé ce texte-là, ce petit article 57 dans le projet de loi de finances, en plus de quoi on n’a exactement aucun détail sur quels seront les moyens qui vont être mis en œuvre. Qu’est-ce que le gouvernement va vouloir faire de ce dispositif ? De cet outil qui est complètement fou ? On n’a rien, aucune information. Il y a une étude d’impact qui est attribuée à la loi de finances, au projet de loi, comme pour tous les projets de loi, mais on n’a pas de détails, on ne sait pas. Donc la représentation nationale, l’Assemblée nationale, les députés et bientôt les sénateurs doivent voter sans savoir exactement quel est le budget, quelles sont les attentes, combien ça va coûter. Combien ça va coûter ? Je n’en sais rien. Ça va coûter cher ou pas cher ? Je ne sais pas. Qui va gérer ça ? Je ne sais pas, je ne sais pas du tout !

Retenez surtout que ce mécanisme aura aussi un autre « charme », je remets des guillemets, qui a été dénoncé par la CNIL, c’est que lorsque vous avez un aspirateur qui va choper de la donnée et aspirer, gloutonner comme ça de l’information publique sur les réseaux sociaux, dedans vous avez absolument tout, vous n’avez pas que les vendeurs de clopes, vous avez aussi des opinions syndicales : « Tiens cet après midi je vais manifester à Toulouse, je vais mettre mon gilet jaune ». Ouais ! Je ne sais pas comment est calibré l’aspirateur ! Est-ce que ça va rentrer dedans ? Ça peut rentrer dedans en tout cas. Ça peut rentrer dedans et les opinions syndicales, religieuses, les orientations sexuelles, etc., les opinions politiques, tout ça c’est ce qu’on appelle des données sensibles sur le terrain du RGPD [Règlement général sur la protection des données], des données sensibles et ces données-là bénéficient d’une protection qui est extrêmement importante dans le RGPD, c’est l’article 9 du RPPD, donc curieux. Et ça a fait évidemment sursauter la CNIL, la CNIL qui estime que le dispositif est totalement disproportionné parce qu’on va attaquer avec une arme nucléaire une petite mouche financièrement.
Et surtout, et c’est là où je voulais en venir puisque le sujet c’est un peu la liberté numérique, c’est que cet outil, ce fameux article 57 de #BigBrotherBercy, il va générer un autre risque, c’est celui de l’autocensure. Pourquoi ? Parce que les personnes se sachant surveillées vont forcément se restreindre. Si vous êtes dans une rue, vous savez qu’il y a plein de caméras et de micros qui vous écoutent, qui vous scrutent, eh bien votre comportement ne sera pas du tout le même que dans une rue beaucoup plus paisible et moins sécuritaire. C’est un réflexe naturel que de se protéger, de se mettre une coque autour de soi ou autour de ses propos. Et ça, ça a aussi fait sursauter la CNIL, mais le gouvernement n’a pas donné de réponse, en tout cas publique, je n’en ai pas vu, sur ce point-là.

Ce qui a été voté c’est que les données sensibles, celles qui seront collectées par accident par #BigBrotherBercy, par l’article 57 du projet de loi de finances, devront être supprimées en cinq jours. Cinq jours après la collecte elles devront être supprimées. Les autres données, qui seront potentiellement utiles pour une éventuelle procédure fiscale ou douanière, seront analysées ; celles qui ne seront finalement pas utiles devront être supprimées au bout de 30 jours ; les autres pourront être gardées jusqu’à un an. Et si, finalement, elles sont utilisées dans le cadre d’une procédure, elles seront conservées le temps de la procédure en question, donc ça peut durer beaucoup plus longtemps.

Je vous garantis que ce texte-là me fait affreusement peur. Pourquoi ? Parce qu’on n’a aucune information. Et autre chose c’est que là on a le fisc et les douanes, mais si le mécanisme s’avérait utile, d’après leur point de vue, je peux vous garantir que d’autres administrations vont s’y intéresser, l’administration sociale, la CPAM [Caisse primaire d'assurance maladie] : « Comment ça ! Vous êtes en arrêt maladie et on a une photo de vous ; vous êtes à la plage de je ne sais pas trop quoi alors que vous devriez être chez vous à 200 kilomètres de là ». Et on rentre dans un cadre sociétal qui me perturbe un petit peu.
J’avais fait cette comparaison sur Internet, ça m’avait été un petit peu reproché mais je l’assume, j’ai l’impression d’avoir une espèce de vidéoprotection comme on dit, une vidéosurveillance de nos faits et gestes sur les réseaux sociaux et chaque administration va vouloir de par ses sensibilités, de par ses intérêts et de par sa lutte contre telle ou telle infraction, bénéficier de ce stock de données pour, justement, traquer, traquer, traquer… J’ai juste envie qu’on me laisse tranquille quoi ! Je n’ai pas envie de vivre avec un œil électronique au-dessus de ma tête, laissez-moi en paix !

Je vais laisser un petit peu de temps pour les questions.

Les micros de St-Étienne – La reconnaissance faciale à Marseille et à Nice

Dernier point que je voulais évoquer — c’est un panorama qui est une espèce d’arc-en-ciel de propositions de lois et de textes, de vécus législatifs — le dernier cas que je voulais évoquer, c’est un cas beaucoup plus concret, ce sont les micros de Saint-Étienne et la reconnaissance faciale à Marseille et Nice sur lesquels Félix Tréguer, de La Quadrature du Net, fait un formidable boulot, je vous invite à lire tout ce qu’il a écrit dessus.

Les micros de Saint-Étienne, c’est quoi ? Je vous parlais d’une espèce de vidéosurveillance appliquée sur les réseaux par l’article 57 du projet de loi de finances, eh bien là, les micros de Saint-Étienne, c’était complètement fou comme projet. La ville de Saint-Étienne, dans une perspective sécuritaire, de paisibilité publique comme on dirait affreusement, a voulu déployer des micros sur un quartier, des micros qui sont dans la rue, des micros extrêmement sensibles, couplés à des caméras de surveillance, afin d’écouter tous les sons qui passent. Ensuite il y a un algorithme de détection qui, lorsqu’il y a un bruit qui est un petit peu bizarre, un petit peu étrange, aurait eu la possibilité d’orienter la caméra vers la source du bruit et voire, ensuite, déployer les forces de l’ordre ou les pompiers ou le SAMU, je n’en sais rien. Donc une écoute, comme ça, constante, de tous les bruits de la vie publique, de la vie civile, de la vie urbaine à des fins sécuritaires.
La CNIL a adressé une mise en demeure à la ville de Saint-Étienne. Pourquoi ? Eh bien parce qu’un micro c’est comme un algorithme, c’est là aussi très bête, il capte tout et de manière constante. Notamment, parfois moi je marche avec quelqu’un dans la rue et je peux très bien avoir des échanges privés avec cette personne. Et toi, micro, qui es-tu pour m’écouter ? Je n’ai pas envie de te parler et je ne sais pas qui est de l’autre côté du fil, de l’autre côté du Jack, je ne sais pas du tout. Donc ce mécanisme-là a la possibilité d’écouter des conversations privées et, un peu comme l’article 57 du projet de loi de finances, il peut aussi bouleverser des habitudes de vie parce que se sachant écoutés continuellement eh bien c’est affreux ! Se sachant écoutés continuellement les gens peuvent changer complètement leur mode de vie. On n’est plus libre, on est sous contrainte, sous surveillance constante et finalement on change, voire on déménage.
C’est l’avis de la CNIL. Je l’ai sorti aussi, l’avis de la CNIL expose ça vertement. Donc elle a adressé cette mise en demeure, d’autant plus qu’elle s’est appuyée sur le RGPD. Pourquoi le RGPD ? Parce que RPPD protège les données personnelles, il y ait un principe de minimisation, etc. – je ne vais pas vous faire le texte avec ses 99 articles et 176 considérants –, mais ce texte-là considère que la notion même de données personnelles est extrêmement vaste et notamment la voix, ma voix, votre voix, est une donnée personnelle parce qu’elle vous est propre, elle nous est propre. Surtout lorsque couplée à une caméra, on a l’addition voix + image, on sait quelle est la voix de telle personne.

On change complètement de société avec un tel mécanisme. Vous imaginez ? Dans toutes les villes auraient des micros partout ! C’est terrorisant !

Sur Marseille et Nice, c’est une expérience qui a été menée à l’entrée de deux lycées. L’idée c’était quoi ? C’était de mettre en place un portique biométrique pour ne plus avoir à contrôler l’accès, enfin pour déporter sur un contrôle algorithmique ou biométrique le contrôle d’accès dans l’enceinte de l’établissement.
Là aussi la CNIL a tiré la sonnette d’alarme. Pourquoi ? Parce que là on est en plein RGPD, on a des données biométriques, la biométrie c’est une donnée sensible. La CNIL là, tout de suite, a pris le RGPD, a dit : « Attendez, là il y a un souci ». Un lycée ce sont des mineurs, sauf celui qui a un peu mal travaillé, mais un lycée ce sont des mineurs, ce sont aussi ces enseignants, du personnel encadrant, un lycée ce sont des mineurs, donc c’est une population dont la protection doit être aiguisée et beaucoup plus importante que pour une personne majeure. On a des données biométriques, ce sont des données qui sont attachées à la personne. Vous avez un badge d’accès pour entrer dans tel ou tel endroit, vous perdez votre badge, techniquement on peut révoquer le badge en question, on le fout à la poubelle c’est réglé ! Un morceau de plastique, on le balance ! Mais une donnée biométrique, on ne peut pas révoquer votre visage, on ne peut rien faire. La donnée biométrique est intimement attachée à votre personne. Donc vous imaginez s’il y a une fuite de données ? On peut tout imaginer en matière de sécurité informatique, l’actualité nous le dit tous les jours, vous avez une fuite de données ou autre sur ces données biométriques, c’est gravissime pour la personne en question.
La CNIL a juste expliqué aux maires respectifs et aux différentes autorités qui étaient extrêmement favorables à ces portiques biométriques qu’ils dépassaient un petit peu les bornes et qu’il existe d’autres moyens avant d’engager un système biométrique. Les autres moyens c’est quoi ? Eh bien c’est mettre en place, je ne sais pas, par exemple des agents de sécurité. S’il y a vraiment un risque sécuritaire sur telle ou telle enceinte on met des personnes, des vraies personnes avec des jambes, des bras, une tête, un cœur, à l’entrée de ces établissements, à charge pour elles de contrôler l’accès.
Donc on voit qu’il existe des voies alternatives qui sont moins problématiques sur le terrain des droits et libertés et des données personnelles, que ces lycées marseillais et niçois n’avaient pas envisagées.
C’est ce rêve d’une cité totalement sous contrôle d’un méga-ordinateur qui a été complètement révoqué par la CNIL. Ça a provoqué une fureur chez Renaud Muselier, Éric Ciotti et le dernier ? Estrosi, Christian Estrosi, je ne devrais même pas vous le dire parce que vous vous en rappelez, donc Christain Estrosi, qui ont traité la CNIL de tous les noms comme quoi elle était figée au 20e, au 19e siècle, après ou avant Jésus-Christ, je ne sais même pas ! Enfin ils ont déversé des horreurs sur la pauvre CNIL, sachant que ceux qui étaient députés, parmi les trois, ils ont tous voté la loi d’adaptation du RGPD en France !

Donc les menaces existent de tous les côtés et, pour essayer d’avoir un panorama comme ça, c’est extrêmement compliqué et, je vous dis, ça arrive de tous les côtés. Actuellement au Parlement, les deux grands sujets ça va être la loi sur l’audiovisuel et la loi Avia, la proposition de loi Avia, qui arrivent bientôt au Sénat et qui risquent de complètement changer la face du Web telle qu’on la connaissait jusqu’à présent.
Renseignez-vous, regardez et n’hésitez pas à agir.
Voilà ce que je voulais vous dire dans ce petit panorama.
Si vous avez des questions, il est 47, on a environ 13 minutes. Allez-y. Merci.

[Applaudissements]

Questions du public

Public : Bonjour Marc. Merci beaucoup pour ton travail, la qualité de ton travail au quotidien.

Marc Rees : N’hésite pas à te présenter.

Cédric : Cédric.

Marc Rees : Bonjour Cédric.

Cédric : Je voulais revenir sur l’article 13 ou 17, sur cette histoire d’algorithme il y a quelque chose que je n’ai pas bien saisi, je suis sûr que tu pourras m’éclairer là-dessus. On veut essayer d’imposer des algorithmes aux principaux hébergeurs pour qu’ils détectent du contenu qui serait protégé. Qui va fournir ces algorithmes ? Qui va les construire ? Et comment seront-ils seront imposés pour s’adapter à la technologie des différents hébergeurs ?

Marc Rees : Vous allez me dire, après il y a une autre question que vous auriez pu poser, mais je suis sûr que vous l’aviez aussi : sur YouTube il y a déjà des algorithmes, du filtrage de tous les côtés, quelle différence ? Il y a une sacrée différence quand même, après je réponds à votre question. Là, actuellement, quand YouTube fait ce genre de traitement il le fait avec ses propres règles, qu’on apprécie ou pas, et sur une démarche contractuelle. Si YouTube ne me plaît pas, eh bien je m’en vais, je vais aller me faire héberger ailleurs.
Demain, ce mécanisme de filtrage, d’algorithme de filtrage, va être généralisé à un grand nombre d’acteurs de ce type-là et pour moi ça va être de plus en plus dur, sauf à m’isoler vers des hébergeurs à taille beaucoup plus réduite. Mais si j’ai envie d’être connu, si j’ai envie que mes œuvres soient diffusées au plus large possible, eh bien j’ai envie d’aller là et laissez-moi aller où je veux.
Qui va fournir ces empreintes ? En fait ce sont les sociétés de gestion collective qui vont fournir l’empreinte de tous les côtés. C’est plusieurs millions d’œuvres dans le catalogue de la Sacem ; elles vont filer ces empreintes-là et à charge, pour les acteurs qui seront en face d’elles, de les appliquer, de faire une comparaison en temps réel sur les œuvres qui sont mises en ligne.

Cédric : D’accord. Donc on se retrouvera avec des algorithmes standardisés qui devront être adaptés par les hébergeurs ?

Marc Rees : Le texte parle des meilleurs outils en l’état de l’art, on parle de l’état de l’art.

Cédric : Et qui seraient développés par ces institutions de l’audiovisuel ?

Marc Rees : Je ne sais pas. Mais ce qui est sûr c’est que ceux qui ont une longue habitude en matière de filtrage – notamment YouTube, parce que YouTube fait du filtrage – eh bien eux seront en tête de pont. Ils seront en tête de pont pour pouvoir être article 17 compatible. C’est ça qui est drôle finalement : les ayants droit nous ont vendu l’article 17 comme un outil anti-Google, anti-YouTube. En réalité, YouTube n’aura aucune difficulté pour s’y placer et s’y conformer. J’en suis moins sûr pour les hébergeurs de plus petite taille et il y en a quelques-uns en Europe, ça vaut à l’échelle européenne.
D’autres questions ? Il y en a une là c’est moins loin.

Public : Bonjour Marc.

Marc Rees : Bonjour. Tu peux te présenter.

Dascritch : Dascritch, on se connaît aussi sur pas mal de plans et c’est vrai que j’ai longtemps organisé des CryptoParties et malheureusement, ce que je vois, c’est que les gens ont de plus en plus l’argument « en fait, je n’ai rien à cacher, mais c’est terrible parce qu’on est surveillé par les GAFAM ». J’ai l’impression qu’en fait la copyright directive ça a été la démission complète des associations qui sont censées défendre les internautes, qui sont censées défendre les citoyens, jusqu’à ce qu’il y en ait un qui écrive : « L’article 13 est le moyen de sauver l’Internet libre ». J’ai l’impression qu’on est perdus. Et ça a commencé avec la copyright directive avec tout ce qu’il y a derrière.

Marc Rees : Je prends cette intervention comme un témoignage, parce je n’ai pas vu de point d’interrogation, mais si tu veux que je réagisse à ça, je peux réagir.
Effectivement, il y a eu des postures qui ont été curieuses de la part de certaines associations dont les statuts sont axés sur la liberté d’expression, la défense de la liberté d’expression, qui étaient de dire, pour certains versants de ces associations, que finalement l’article 13 ou 17, ce n’est pas une grande défaite pour Internet, ce n’est pas la mort d’Internet, ce n’est pas une grande défaite, puisqu’on va taper sur YouTube donc finalement ! YouTube ce sont quand même les grands méchants capitalistes sanguinaires. Bon !
Imaginez RSF, Reporters sans frontières, est-ce que RSF va nous dire « je m’en fiche totalement de la liberté d’expression des journalistes qui sont installés en Corée du Nord ! Tant pis ! Puisque c’est la Corée du Nord, forcément c’est méchant. » Non ! Je considère que la liberté d’expression, la liberté de communication, d’information, doit se défendre quel que soit le climat même chez les vilains YouTube, Twitter, Facebook, etc. Mais c’est un axe qui m’est personnel. Libre à d’autres d’avoir d’autres appréciations là-dessus. Désolé !
Je crois qu’il y avait une autre question à gauche, là-bas.
Bonjour. Présentez-vous, n’hésitez pas.

Public : Bonjour. Rodolphe.

Marc Rees : Enchanté.

Rodolphe : Enchanté aussi. Moi j’avais une question. On voit bien la dimension politique dans tous ces sujets-là. Est-ce qu’il y a une dimension économique ? Est-ce qu’il y a des entreprises qui ont des algorithmes à vendre, des opérateurs français qui se seraient déjà portés volontaires pour aider le gouvernement ou Bercy par exemple à récupérer plus d’éléments de fraude fiscale ? Est-ce qu’on le sait ?

Marc Rees : Pour l’instant on n’a pas d’informations là-dessus. Mais oui, il y aura forcément des acteurs qui vont se positionner, d’autant plus que Gérald Dharmanin, qui est ministre de l'Action et des Comptes publics, a expliqué que pour la définition de l’algorithme sur l’article 17 du projet de loi de finances pour 2020, Bercy fera appel à une entreprise privée pour aiguiser cet algorithme, mais il n’a pas donné le nom. Il a dit que c’était une possibilité simplement parce que la DGFiP, la Direction générale des finances publiques, comme le fisc en général, leur spécialisation c’est la collecte de l’impôt, ce n’est pas la définition d’un algorithme qui fait appel à des compétences. Donc forcément il y aura une sous-traitance.

Rodolphe : On sait déjà que ce sera une sous-traitance et que ce ne sont pas forcément les services de l’État qui vont essayer de développer leurs propres outils ?

Marc Rees : Je vous répète simplement, c’est disponible sur le site de l’Assemblée nationale, Gérald Dharmanin a dit qu’il ferait potentiellement appel à une entreprise privée pour développer ces algorithmes. En l’état, le texte n’interdit pas à ce que notamment soit la collecte brute des données, soit le traitement de cette collecte brute, soient faits par un sous-traitant.
Et moi j’insiste, ça me pose problème, parce que ça veut dire qu’un sous-traitant va pouvoir peut-être calibrer en collaboration avec la DGFiP un algorithme qui va traiter de données personnelles à tour de bras, voire des données ultra-sensibles, nos opinions politiques, etc. On va où ?
Je crois qu’il y avait une autre question là. J’espère que vous n’avez pas oublié, enfin que tu n’as pas oublié.

Public : Bonjour Marc. Vincent.

Marc Rees : Bonjour.

Vincent: Comment tu expliques qu’en France les ayants droit soient tellement puissants pour qu’on en arrive à un vote quasiment unanime de tous les eurodéputés français sur la directive droit d’auteur, alors que c’est un vote qui est très différent des votes des autres pays européens ?

Marc Rees : Tu as tout à fait raison. Une explication peut-être sociologique ? La place de la culture en France. Moi j’ai une explication qui est bassement matérielle. J’avais expliqué la copie privée l’an dernier, mais je vais réexpliquer aujourd’hui. La copie privée c’est une redevance qui est aspirée sur l’ensemble des supports vierges. La notion de support est très vaste : ce sont les smartphones que vous avez en poche, ce sont les tablettes, ce sont des clefs USB, ce sont les GPS à mémoire, ce que vous voulez, sauf les ordinateurs pour l’instant, mais ça ne va pas durer, on a encore quelques mois de répit ensuite ce sera fini.
L‘an dernier c’était 280 millions d’euros qui ont été aspirés par cette redevance, 280 millions d’euros ! Le code de la propriété intellectuelle est extrêmement douloureux pour les sociétés de gestion collective parce qu’il leur demande de garder 25 % de ces sommes-là. Le reste c’est redistribué en fonction des auteurs, artistes, interprètes, producteurs, etc. Donc c'est 25 %. Les sociétés de gestion collective doivent conserver 25 % de la copie privée pour ensuite les réinjecter dans le spectacle vivant, les festivals ou autres. Le festival de Cannes est financé en partie par la copie privée, le festival d’Avoriaz, enfin toutes les manifestations culturelles sont arrosées par la copie privée. Quand vous avez des sociétés de gestion collective qui filent des millions, des milliers, je ne sais pas quelle somme, à des activités locales et quand vous avez un député qui a des attaches extrêmement fortes, même si un député ça représente la nation mais, en pratique, il représente le lieu d’où il vient, eh bien ça crée des affinités extrêmement fortes. Ce que je dis là ce n’est pas du troll, ce n’est pas du FUD, ce que vous voulez. Ce que je dis là c’est Jean-Noël Tronc qui l’a dit aux Rencontres cinématographiques de Dijon ; je l’ai filmé, j’ai la vidéo et je l’ai mise sur YouTube. Il a expliqué clairement que grâce aux 25 % de copie privée, ils avaient une relation privilégiée, d’écoute, avec le politique.
Et tu as tout à fait raison : les votes sur la directive droit d’auteur ont été des votes dignes d’une démocratie particulière. On était à 98 %, 97 % de votes favorables, alors qu’on avait une démocratie plus équilibrée, un vote beaucoup plus équilibré dans d’autres pays.
C’est une piste d’explication, mais je n’en ai pas d’autre. Après, si vous en avez d’autres, allez-y.
Vous avez d’autres questions ? Oui. Présentez-vous, n’hésitez pas qu’on fasse connaissance.

Public : Bonsoir.

Marc Rees : Bonsoir.

Public : J’ai une question par rapport aux contenus illicites de l’article 13 et 17. C’est une loi européenne ?

Marc Rees : Oui. Une directive.

Public : Une directive européenne. Si c’est un contenu qui a été produit aux États-Unis qui est sur YouTube, il peut donc être visible, qu’est-ce qui se passe dans ces cas-là ?

Marc Rees : Pour les contenus étrangers, je ne sais pas clairement comment ça va se passer, en tout cas ce qui est sûr, c’est que les sociétés de gestion collective ont dans leur catalogue et elles prennent la défense d’œuvres qui sont à l’échelle internationale, donc elles pourront très bien prendre la défense d’une œuvre américaine parce qu’elle sera dans leur catalogue ou alors elles auront mandat pour représenter et défendre les intérêts de tel ou tel acteur. Donc ça peut aller très loin et c’est très vaste.
Mais surtout, aussi, c’est que sur l’article 17 on parle beaucoup de la musique et du cinéma, mais l’œuvre de l’esprit, l’œuvre protégée par le droit d’auteur ce n’est pas que de la musique, ce ne sont pas que des notes de musique ou des images qui bougent. Je ne sais pas. Par exemple une police de caractères c’est protégeable par le droit d’auteur, donc ça peut aller très loin. Une photo c’est protégé par le droit d’auteur. Le périmètre de cette directive est extrêmement vaste. Je ne sais clairement pas comment on va s’orienter demain, peut-être qu’à l’occasion du Capitole du Libre 2020 on pourra faire un bilan d’étape.
Oui. Bonjour. [Présence d’un enfant, NdT] Je ne suis pas son père, mais j’accepte toute étiquette, il n’y a pas de souci. Est-ce qu’il y a d’autres questions ? Il reste quelques instants.

Public : Bonjour. Stéphane.

Marc Rees : Bonjour Stéphane.

Stéphane : J’avais une question sur la loi Avia. Le périmètre qui a été élargi à la nudité, la violence, accessible aux moins de 18 ans, est-ce que ce genre de mesure et le fait d’élargir comme ça le périmètre de la loi et de mettre en place des mesures complètement disproportionnées en face de ça ne risque pas de se faire shooter éventuellement au niveau Conseil constitutionnel ou au niveau droit européen.

Marc Rees : Au niveau européen. C’est une bonne question là aussi, il n’y a que des bonnes questions, vous êtes vraiment très bien.
Lorsque dans un État membre on a un texte qui vient réguler ce qu’on appelle la société de l’information — expression un petit peu vieillie, poussiéreuse, en tout cas c’est celle qui était en vigueur à la fin des années 90 — l’État membre a l’obligation de notifier à la Commission européenne, de lui dire « coucou Commission européenne, on va examiner ce texte-là et on va sans doute l’appliquer ». Les autorités françaises ont eu l’obligation de notifier la proposition de loi Avia à la Commission européenne qui va, elle, jauger des effets éventuellement perturbateurs sur le marché unique, la circulation de données, la liberté de circulation, etc. Ils aiment bien, ça dope la Commission européenne. Et la Commission européenne va jauger des effets « perturbatoires » de la proposition de loi Avia sur le marché unique, à savoir est-ce que des contraintes particulières vont être imposées en France pour protéger tel ou tel acteur ? Est-ce que, finalement, ça ne va mettre des barrières aux frontières. Je ne sais pas exactement ce qu’ils vont dire, on aura le résultat le 22 novembre au plus tard.

Oui, le Conseil constitutionnel aussi pourrait estimer que, dans la mesure où on a une atteinte qui est disproportionnée à la liberté de communication et d’information, qui sont d’égale importance que les autres grands principes constitutionnels, eh bien le Conseil constitutionnel va jauger cet équilibre ou ce déséquilibre et éventuellement le censurer. Il peut y avoir une censure directe disant « cet article est illicite, enfin inconstitutionnel, donc il ne peut pas être appliqué ». Parfois on a aussi des censures qui sont, on va dire, douces et indirectes, c’est la réserve interprétative. C’est-à-dire que le Conseil constitutionnel va nous dire « ce texte-là est conforme à la Constitution mais uniquement si on le lit comme ça » et il va imposer sa grille de lecture. Il utilise ces deux modes selon le périmètre.
Je ne sais pas encore comment ça va se passer, puisque là on est au milieu de la procédure, on a le Sénat qui va l’examiner bientôt et j’espère que le Conseil constitutionnel sera saisi, sinon après il faudra compter sur une procédure qui est très bien, c’est le contrôle à posteriori. C’est-à-dire qu’une fois que la loi sera publiée au Journal officiel, il faudra qu’une personne qui s’estime finalement victime de ce texte décide d’attaquer une censure ou un défaut de censure devant les juridictions et mette en avant un défaut de constitutionnalité afin que le Conseil soit enfin saisi.
Je ne sais pas s’il reste encore de questions. On a dépassé de deux minutes, mais on peut peut-être encore en prendre une. S’il n’y en a plus, je vous remercie.

[Applaudissements]