Union Européenne : Intelligence artificielle et attribution des droits d’auteur sur Internet

L’HADOPI a publié fin janvier son rapport sur les outils de reconnaissance des contenus sur les plateformes numériques, dont le but est de faire des propositions concernant l’application de la Directive européenne sur droit d’auteur du 17 avril 2019. Écrit en collaboration avec le CSPLA et le CNC, acteurs majeurs dans le domaine, le rapport a vocation à se faire entendre à travers l’Union Européenne.

La Directive européenne sur le droit d’auteur 

Sur Internet, quiconque peut aisément cacher son identité et poster sur une plateforme un contenu illégal, quil sagisse dune oeuvre protégée par le droit dauteur (musique, oeuvre audiovisuelle, photo, livre, etc.), ou encore de propos haineux. Ce même contenu illicite peut être diffusé en un clic partout dans le monde, et générer des revenus pour celui qui sest déclaré être son auteur. 

Nous nous concentrerons ici sur les problèmes liés à la mise en ligne de contenu violant le droit dauteur sur les plateformes dites de contenu généré par les utilisateurs. Il sagit des plateformes en ligne sur lesquelles ce sont directement les utilisateurs qui postent du contenu, comme cest notamment le cas sur YouTube ou Facebook. La question sest donc posée de la responsabilité de ces plateformes pour les contenus illicites quelles hébergent. 

Cest dans ce contexte qua été rédigée la Directive européenne sur le droit d’auteur, qui a pour but dharmoniser le droit dauteur des pays membres, notamment pour faire face aux acteurs internationaux et sans frontières que sont les plateformes de contenu. Elle doit être transposée par les états membres de lU.E. dans leur droit national cette année, et le rapport de lHADOPI vise à répondre aux questions soulevées par cette transposition. 

Par définition, la Directive laisse en effet le choix aux états membres des moyens à mettre en oeuvre pour parvenir aux objectifs quelle édicte, ce qui a donc fait couler beaucoup dencre.
Le débat sest cristallisé autour de larticle 17 qui dispose que, pour ne pas être responsables des contenus mis en ligne non respectueux des droits dauteur, les plateformes devront : 

  • soit conclure des accords de licence avec les titulaires des droits, qui couvriraient principalement les cas de mise en ligne par des utilisateurs de contenus protégés pour une utilisation non commerciale ; 
  • soit, si cest impossible, prouver quelles ont fait au mieux pour empêcher la mise en ligne présente et future, et quelle ont retiré promptement le contenu litigieux sil leur a été notifié

Les propositions du rapport : entre prévention et répression

Le moyen qui participe le mieux à démontrer que la plateforme a fait tout son possible pour lutter contre les contenus illégaux est la mise en place dintelligences artificielles (IA) de reconnaissance des contenus publiés et dattribution des droits dauteur en conséquence. Il sagit là d’être certain que chaque contenu publié le soit par son auteur ou un ayant droit, et quainsi les revenus générés ne reviendront pas à un pirate. En effet, le rapport soutient quune meilleure efficacité dans lattribution des contenus à leurs auteurs, couplée à une plus grande responsabilité des plateformes pour les contenus illicites mis en ligne, permettrait un équilibre plus juste dans la relation tripartite formée par les plateformes, les utilisateurs, et les titulaires de droits dauteur. 

Ces IA de reconnaissance des contenus existent déjà sur les plus grosses plateformes, telles que YouTube, Facebook, ou Dailymotion, mais ne sont pas encore complètement au point et surtout ne contrôlent les publications quaprès leur mise en ligne. En conséquence, les contenus illégaux pullulent.  

Le rapport incite donc à la fois à la prévention et à la répression des contenus illégaux. 

En premier lieu, il insiste à cette fin sur la nécessité dutiliser les outils de reconnaissance non plus seulement a posteriori, mais avant tout en amont de la mise en ligne des contenus, ce qui leur permettrait dagir comme un filtre à la publication. LIA et son système de reconnaissance par empreintes digitales numériques est alors la seule solution envisageable du fait du nombre de contenus mis en ligne quotidiennement. LHADOPI incite cependant les plateformes a être plus transparentes concernant le mode de fonctionnement de leurs algorithmes. 

En effet, il ny a pas un algorithme commun à toutes les plateformes de contenu généré par les utilisateurs. Au contraire, chaque plateforme est libre de ce choix, pour pouvoir sadapter au mieux aux spécificités des contenus quelle propose. 

Par exemple, YouTube a très tôt développé un algorithme nommé Content ID, qui filtre les contenus mis en ligne sur la base de catalogues dœuvres fournis par les titulaires de droits dauteur, ce qui a créé au fil des années une base de données de millions de fichiers audiovisuels et sonores. Pour chaque contenu mis en ligne, est générée une empreinte numérique, qui permet à Content ID dattribuer un contenu à son auteur. Ensuite, lalgorithme recherche sur YouTube des fichiers identiques à ceux de sa base de données, et vérifie que lutilisateur qui les a mis en ligne en est bien le titulaire ou un ayant droit. Sinon, le titulaire est informé et choisit sil souhaite bloquer la vidéo, la monétiser, ou encore sen servir pour recueillir des statistiques. 

Cependant, comme toute forme dIA, ces algorithmes ont des limites, et malgré le développement des technologies, ils peuvent aujourdhui toujours être trompés assez facilement. Au moindre doute dans lidentification, donc, lIA demande une vérification humaine, essentielle pour éviter de de désactiver des vidéos en règle, ce qui constituerait une atteinte à la liberté dexpression. En effet, il sagit ici de chercher le juste équilibre entre deux droits fondamentaux : la liberté dexpression et le droit dauteur. 

En second lieu, en complément de ce filtrage a priori, le rapport rappelle quun filtrage a posteriori de la mise en ligne est tout aussi essentiel. Ainsi, tout contenu illicite déjà en ligne peut être signalé par les utilisateurs via un mécanisme de notification à la plateforme, alors chargée de supprimer le contenu litigieux, et d’éviter la récidive. Ici encore, lIA, doublée dune vérification humaine si besoin, savère nécessaire pour trier efficacement les notifications et y répondre promptement. 

Par ailleurs, toujours pour éviter la censure inappropriée, la prise en compte des exceptions au droit dauteur est essentielle, aussi bien avant quaprès la mise en ligne. En effet, la publication par un utilisateur dun contenu protégé sous forme de citation, parodie, caricature, critique, revue, ou pastiche reste autorisée. 

Enfin, le rapport préconise aux états de rester souples dans leurs transpositions, pour sadapter plus facilement aux évolutions futures. Il faudra donc attendre les transpositions nationales qui doivent intervenir avant le mois de juin, pour savoir dans quelle mesure les états ont suivi les propositions du rapport. 

Ailleurs sur Lettres Numériques : 

Retrouvez Lettres Numériques sur Twitter, Facebook et LinkedIn.

— Nausicaa Plas

Share Button