Accueil > Interventions > Articles de revues > Droit d’auteur à l’ère numérique : il faudra réconcilier le droit et (...)

Article

Droit d’auteur à l’ère numérique : il faudra réconcilier le droit et l’usage

Article paru dans le numéro anniversaire des 125 ans de la Revue de Jurisprudence de Liège, Mons et Bruxelles (JLMB).

L’auteur de ces lignes n’est ni juriste, ni informaticien, encore moins un spécialiste du droit d’auteur. Animateur, depuis pas loin de dix ans, d’une petite structure associative d’hébergement web, producteur occasionnel de sites web, observateur depuis longtemps du débat sur l’accès à la culture et la rémunération des créateurs, j’aimerais proposer ici une réflexion sur les implications que pourrait avoir la logique de la « propriété intellectuelle » si elle devait être poussée jusqu’à son terme sans être adaptée au contexte profondément neuf que constitue l’économie numérique.

Partant, ainsi que suggéré dans l’invitation de la revue, de quelques arrêts de la Cour de cassation française concernant les pratiques de la société Google — lesquels arrêts peuvent paraître quelque peu anecdotiques au premier regard —, j’aimerais montrer que le raisonnement qui y est à l’œuvre augure d’un long contentieux à venir, qui, si l’on ne lui trouve une issue « par le haut », négociée, n’épargnera aucun acteur de la chaîne numérique et les laissera tous — à commencer par les sociétés d’auteurs et plus encore ceux qu’elles représentent — en bien mauvaise posture.

Avant toute chose, il me semble important de rappeler que la construction progressive du droit d’auteur a historiquement constitué un progrès significatif, permettant la reconnaissance des créateurs et contribuant à construire la possibilité — au moins pour certains d’entre eux — de vivre de leur talent. La préservation d’un droit d’auteur demeure donc à mes yeux fondamentalement désirable.

La garantie de la dimension patrimoniale de celui-ci — le droit des créateurs à être rémunérés lorsque leur travail est représenté — se heurte cependant aujourd’hui au développement d’outils techniques dont l’usage, désormais massif, bouleverse profondément la situation.

Si l’échange Pair-à-pair (« peer-to-peer » ou « P2P ») via l’Internet a largement, et parfois exclusivement, retenu l’attention des sociétés d’auteurs et donc de la justice à qui elles demandent régulièrement d’intervenir, c’est bien — beaucoup plus largement — la numérisation des contenus qui est en cause, en ce qu’elle permet la reproduction à l’infini, sans perte de qualité — ce qui constitue la condition de la réplication « virale » des contenus, laquelle n’était pas possible à l’époque des médias analogiques —, de n’importe quel son, image, texte, vidéo, programme informatique, etc. Ainsi, des fichiers numériques s’échangent — aussi — et en toute discrétion, via de simples clés USB, dans les cours de récréation ou à côté des machines à cafés. Il parait bien difficile de mesurer l’ampleur de tels phénomènes, qui passent complètement sous les radars.

Si les musiciens, auteurs et interprètes, et leurs maisons de production ont été les premiers touchés, à l’époque presqu’antédiluvienne à présent de Napster ou Kazaa, le phénomène de la numérisation concerne désormais un très grand nombre d’activités créatives : le jeu vidéo, le logiciel, la bande dessinée, le cinéma, la littérature, la presse, la série télévisée, le documentaire, l’événement sportif, parmi d’autres productions culturelles, sont aujourd’hui susceptibles d’être convertis en fichiers numériques et échangés, sans perte de qualité répétons-le, de façon simplissime et non limitée, par l’intermédiaire de dispositifs techniques extrêmement diversifiés.

L’augmentation continue de la puissance des ordinateurs (nécessaire pour extraire un bien numérique de son support et le convertir dans un format échangeable), de la diversité des terminaux (désormais, tablettes, smartphones et autres liseuses,... permettent la consommation de biens numériques en tout lieu), du débit des réseaux (des centaines de petaoctets sont échangés chaque jour sur le seul réseau Internet), de la taille des supports de stockage et de la qualité des algorithmes de compression (sur un seul disque dur, il est possible de stocker plusieurs milliers de films) mais aussi des compétences informatiques des « pirates » (qui sont aujourd’hui capables de « cracker » quasiment tous les dispositifs de protection en quelques heures) sont des faits, difficilement contestables, qui définissent une situation que certains ont bien du mal à regarder en face.

Ce sont en effet aujourd’hui des centaines de millions de personnes, dans le monde, qui échangent régulièrement des fichiers numériques sans se soucier de la légalité, souvent douteuse, de cette pratique.

Le modèle économique de tous les secteurs concernés — et ils sont nombreux dans une économie que certains disent « de la connaissance » — en est et en sera par conséquent durablement affecté, avec des conséquences culturelles, économiques, sociales ou démocratiques qu’il s’agit d’examiner et de prendre au sérieux. La situation de la presse, par exemple, est particulièrement préoccupante : la précarisation massive des journalistes (avec la perte de qualité et de liberté éditoriale que cela implique), la perte de diversité dans les titres et les opinions défendues, l’adoption par de nombreux journaux d’une ligne éditoriale toujours plus racoleuse,... sont des phénomènes gravement nuisibles dans une société qui se veut démocratique. Ils trouvent sans doute une partie de leurs racines dans la fragilisation du modèle actuel de la presse, découlant de la concurrence d’une information disponible gratuitement sur Internet mais aussi de la labilité de ses supports. À l’instar de la molécule d’hydrogène, l’information est bien difficile à conserver dans un réseau fermé.

Pour autant, toutes les conséquences de cette évolution sont loin d’être négatives. Le P2P et ses avatars sont sans doute aujourd’hui, au niveau mondial, devenus le principal moyen d’accès à la culture |1| pour des publics qui en seraient sans cela largement privés. Le P2P permet à des passionnés de faire revivre et de diffuser des oeuvres anciennes introuvables depuis longtemps dans le commerce en raison de leur caractère trop confidentiel et que bien peu de médiathèques proposent en prêt (cf. la long tail de Chris Anderson). Mieux : une abondante littérature indique que les utilisateurs du P2P seraient aussi les plus gros consommateurs de biens culturels, notamment de tickets de concerts. On note même — et la tendance n’est plus anecdotique — que certains artistes, faute de trouver grâce auprès du circuit commercial, parviennent aujourd’hui à accéder à la notoriété — voire de réunir le financement nécessaire à la production d’un disque ou d’un film — par le biais des réseaux. Il y a de quoi déconcerter. Et se poser quelques questions sur la nature des relations que les artistes — en tout cas la grande majorité d’entre eux — ont intérêt à développer avec leur public face à cette nouvelle donne.

Quoi qu’il en soit, il n’est sans doute plus techniquement possible aujourd’hui de réprimer les échanges de données numériques. Ou du moins, et constater cela n’est pas peu de choses, cela n’est pas possible sans porter atteinte à quelques libertés plus fondamentales que le droit d’auteur. Le débat que pose le P2P n’a rien d’absolu ; il s’agit — évidemment — d’une question de hiérarchie des normes et d’arbitrage entre différents droits qui s’entrechoquent.

La poursuite des éditeurs qui pratiquent la contrefaçon — a fortiori en tirent matériellement avantage — est sans doute légitime, mais donne manifestement peu de résultats. La fermeture d’un service d’échange de données est en effet généralement suivie de l’ouverture de quelques autres. On notera en outre que la confiscation d’un nom de domaine (permettant de mettre un coup d’arrêt à un service dont la popularité est directement liée à l’usage de celui-ci, par exemple le très emblématique « piratepbay.org », désormais bloqué par les fournisseurs d’accès belges), actuellement possible grâce à la centralisation de sa gestion, pourrait être contournée par la mise en place d’un système alternatif au Domain Name System (DNS). Le DNS est le système qui permet d’établir la correspondance entre un nom de domaine simple à retenir pour un humain (du type mondomaine.com) et l’adresse physique de la machine qui l’héberge. Le DNS se trouve actuellement placé sous la tutelle du gouvernement des Etats-Unis d’Amérique, par l’intermédiaire de l’Internet Corporation for Assigned Names and Numbers (Icann). Un système alternatif, décentralisé, est cependant techniquement envisageable... et envisagé. Ce n’est pas une raison suffisante pour cesser les poursuites, bien sûr, mais il serait bien naïf, on le voit, d’espérer résoudre le problème de cette façon.

De même, l’interdiction (ou le ralentissement, le filtrage,...) de certains protocoles (BitTorrent, par exemple) serait une mesure vexatoire et illégitime (car nuisible à des usages légitimes) mais aussi inutile (car facilement contournable par l’usage d’autres protocoles, comme HTTP). Il est marquant de constater, dans les arrêts et jugements de divers cours et tribunaux, l’amalgame réguliers qui est pratiqué entre éditeurs et protocoles. « MegaUpload » ou « RapidShare » sont (étaient) des services en ligne proposant aux internautes des fichiers de toute nature. « BitTorrent » est un protocole, c’est-à-dire un ensemble de règles techniques permettant l’échange d’informations de façon décentralisée sur le réseau. Ce protocole permet en particulier la diffusion de fichiers volumineux, par la mutualisation des ressources des utilisateurs de ces fichiers. Il permet par exemple la distribution de logiciels libres à moindre coûts pour leurs éditeurs. La stigmatisation — voire, dans certains cas extrêmes, l’interdiction — de ce protocole constitue la marque d’une méconnaissance de la réalité technique.

La répression des intermédiaires, quant à elle, constitue une forme de censure particulièrement pernicieuse. Le débat concerne en particulier les hébergeurs, c’est-à-dire les sociétés qui fournissent — souvent par des procédés totalement automatisés — des serveurs sur lesquels, moyennant une modique location, chacun est libre de publier ce qu’il souhaite. Si la responsabilité d’un hébergeur devait être effectivement engagée pour chaque contenu qu’il héberge (même si cette responsabilité ne court qu’à partir du moment où un contenu litigieux lui est explicitement signalé par un tiers), celui-ci, pour limiter les risques qu’il prend, sera rapidement amené à se transformer en censeur préventif et extra-judiciaire, et probablement à évincer systématiquement les contenus trop sensibles ou suscitant trop de protestations, au détriment de la liberté d’expression. Il est donc clair à nos yeux que la responsabilité doit être strictement limitée à l’éditeur, c’est-à-dire à la personne qui publie les données et que la seule instance habilitée à juger de ce qui peut être publié et de ce qui ne peut pas l’être doit rester la justice.

Cette réflexion nous amènera peut-être à voir d’un autre œil les déboires judiciaires de la société Google et de ses filiales européennes. Si Google est considéré comme contrefacteur au motif qu’il indexe automatiquement du contenu (fût-ce en proposant un extrait d’une vidéo en prévisualisation sur ses propres serveurs) ou qu’il propose un service d’hébergement gratuit pour le grand public (Youtube et autres), d’autres intermédiaires pourront également — et ne manqueront pas de — être mis en cause. Nous ne sommes qu’au tout début d’un enchaînement, qui risque de mener à un univers culturel et démocratique fort détestable.

Certains plaident en effet pour une application radicale de la logique qui est à l’œuvre dans les récents arrêts concernant Google à toute la chaîne de l’information : fournisseurs d’accès à Internet, éditeurs de logiciels, voire fabricants de matériels informatiques pourraient être mis en cause comme complices de la contrefaçon, faute d’avoir, par exemple, implémenté un dispositif de filtrage des contenus. Par exemple, l’éditeur d’un logiciel de lecture de fichiers PDF pourrait être considéré comme complice de la contrefaçon s’il n’a pas conçu son logiciel pour refuser l’affichage de certains contenus. Ce type de dispositions, qui ont fait ces dernières années leur apparition dans diverses législations dans le monde et sont réclamées par certains ayants-droits particulièrement aveugles quant aux conséquences de leurs revendications, peuvent à mon sens être considérées comme gravement liberticides, en ce qu’elles restreignent notamment la liberté d’exécuter du code sur un ordinateur, et pourraient donc, par exemple, rendre illégale toute la mouvance du logiciel libre (qui se caractérise notamment par le fait qu’il peut être modifié par ses utilisateurs à qui il permet donc de désactiver, moyennant quelques compétences informatiques, n’importe quelle fonctionnalité jugée inopportune). Cela semble cependant juste irréaliste quand on sait que certains types de services (les serveurs web, par exemple) sont aujourd’hui dominés, au niveau mondial, par le logiciel libre.

Les outils qui seraient nécessaire à un filtrage généralisé des contenus échangés sur le net (« Deep packet inspection »), pour leur part, seraient fort coûteux et on ignore à qui il serait légitime de demander de les financer, mais ils représentent surtout un danger démocratique de premier ordre (on peut difficilement rêver plus puissant outil de censure et de surveillance) au point qu’il peut paraître souhaitable de contrôler de façon draconienne le contrôle de cette technologie et l’usage qui peut en être fait. Ils mettent aussi en cause le principe de la neutralité du net (qui postule que chaque paquet de données doit bénéficier du même degré de priorité dans son acheminement sur le réseau). De tels systèmes peuvent cependant être contournés par le chiffrement des données ou l’usage de réseau privés virtuels (Virtual private networks, VPN), qui permettent de constituer des « tunnels » privés à travers le réseau et dont l’usage se répand assez rapidement depuis quelques années parmi ses utilisateurs avertis. Là encore, à surenchère technique, surenchère et demie.

Ajoutons enfin que, quand bien même on parviendrait à limiter fortement les échanges de données sur l’Internet, en ce compris chiffrées, ce qui me semble, on l’aura compris, tout simplement invraisemblable, les usagers opteront probablement pour d’autres forme d’échange (« copy parties »,...). Or, réprimer l’échange de données hors du réseau est impossible sans porter gravement atteinte à la vie privée (imagine-t-on perquisitionner les ordinateurs de centaines de milliers de personnes ?) ou, ne serait-ce déjà que cela, au secret de la correspondance (il suffit, rappelons-le, de mettre une clé USB dans une enveloppe,...). À l’ère des données diffuses, le contrôle de l’information est nécessairement une entreprise biopolitique.

Bref, la guerre frontale menée par les ayants-droits contre l’échange décentralisé de données numériques est non seulement vaine et perdue ; elle est aussi nuisible à certains droits fondamentaux (liberté d’expression, vie privée,...). Elle devient même — et cela devrait attirer leur attention — contre-productive, en délégitimant massivement dans le public un droit d’auteur qui reste pourtant indispensable à bien des égards, ne serait-ce que pour protéger les droits moraux des auteurs.

Dans ces conditions, une négociation s’impose, pour rapprocher les points de vue et tirer le meilleur parti de la technologie nouvelle. L’objectif peut selon moi être formulé de la façon suivante : il s’agit de réaliser le vieux rêve de la bibliothèque universelle tout en mettant en place un nouveau mode de rémunération des créateurs.

Les termes de ce compromis devront être recherchés par le dialogue entre ayant-droits et usagers et l’on ne peut ici qu’en esquisser de possibles grandes lignes.

La première d’entre elle — le minimum minimorum, disons-le — serait le développement d’une offre légale crédible dans les différents domaines concernés (elle commence à exister pour la musique mais tarde dans tous les autres secteurs). Les supports physiques sont largement démonétisés dans les pratiques et les représentations d’une partie du public, notamment parmi sa frange la plus jeune. Il faut donc permettre d’acheter très simplement en ligne un film, une bande dessinée, un jeu vidéo,... Cette offre légale devra évidemment garantir la jouissance non limitée dans le temps |2| des documents numériques qui y seront achetés, ce qui exclut notamment le principe des « Digital Rights Management » (DRM), dispositifs de verrouillage de l’accès qui ont bien souvent pour effet de faire perdre l’usage de sa discothèque à quiconque change de lecteur mp3 ou d’ordinateur.

La seconde étape, si l’on veut relégitimer le droit d’auteur, passe sans doute par une limitation de son champ d’application, en en excluant notamment la sphère éducative et un certain nombre d’autres usages non commerciaux. Cette limitation doit aussi valoir dans le temps : l’allongement répété de la durée de protection des œuvres, au cours des dernières décennies, a conduit à une situation aberrante où le droit d’auteur n’apparait plus du tout comme un moyen de protéger les créateurs, mais plutôt de garantir une rente à leurs petits-enfants. Il faut faire marche arrière sur ce terrain, en revenant à une durée plus modérée et plus compatible avec l’appropriation collective de biens culturels, au titre de la culture commune.

Enfin, une forfaitisation de rémunération s’imposera sans doute avec l’abandon, bien entamé (par exemple avec un service comme « Spotify »), de la logique de la possession d’un bien culturel au bénéfice d’une logique de l’usage. En sorte que la « licence globale » finira, selon toute vraisemblance, par apparaître comme un compromis imparfait mais acceptable par tous.

Ce ne sont là que quelques pistes, avancée, parmi d’autres, par de nombreux auteurs et associations d’usagers. Je souhaite en tout état de cause que leur mise en discussion soit possible, car c’est à mon sens une condition à la préservation d’un régime de reconnaissance et de protection des auteurs, dont nous devons tous espérer qu’elle soit possible.

|1| On peut bien sûr s’interroger sur la nature de la culture qui est ainsi véhiculée et sur les conditions – particulièrement défavorables à certains égards — de sa réception par la partie la moins avertie du public, pour qui le P2P est probablement – en tout cas dans un premier temps — plus souvent un canal d’accès à moindre coût aux objets dominants du champ médiatique (alimentant au passage la logique confrontative avec le camp des ayants-droits) plutôt qu’une voie de découverte et d’éducation à de nouveaux champs culturels, lesquels restent — comme dans n’importe quelle situation de laisser-faire — l’apanage de ceux qui héritent de capitaux culturels élevés. Mais c’est un argument — puissant — en faveur du développement de médiations culturelles, qui ne seront possibles que lorsqu’on aura dédramatisé cette pratique. C’est cependant un autre débat que celui que nous abordons dans cet article.

|2| Sauf, bien sûr, à prévoir un payement à l’usage, dûment proportionnée, mais celui-ci ouvrirait « l’âge de l’accès » (Rifkin) devant lequel d’aucuns renâclent.

Abstract

Une juste rémunération des créateurs est foncièrement souhaitable, mais la protection de ce droit, tel qu'il a été conceptualisé au XXe siècle, devient de plus en plus impraticable dans un environnement massivement numérisé, pour des raisons techniques et parce qu'il entre en conflit avec le respect d'autres droits, dont le statut est parfois supérieur. Plutôt que de mener une guerre aux usagers et aux intermédiaires, les sociétés d'auteurs et la justice doivent réfléchir à l'élaboration d'un nouveau modèle, susceptible de réconcilier le droit et l'usage.