Union Européenne : Intelligence artificielle et attribution des droits d’auteur sur Internet
L’HADOPI a publié fin janvier son rapport sur les outils de reconnaissance des contenus sur les plateformes numériques, dont le but est de faire des propositions concernant l’application de la Directive européenne sur droit d’auteur du 17 avril 2019. Écrit en collaboration avec le CSPLA et le CNC, acteurs majeurs dans le domaine, le rapport a vocation à se faire entendre à travers l’Union Européenne.
La Directive européenne sur le droit d’auteur
Sur Internet, quiconque peut aisément cacher son identité et poster sur une plateforme un contenu illégal, qu’il s’agisse d’une oeuvre protégée par le droit d’auteur (musique, oeuvre audiovisuelle, photo, livre, etc.), ou encore de propos haineux. Ce même contenu illicite peut être diffusé en un clic partout dans le monde, et générer des revenus pour celui qui s’est déclaré être son auteur.
Nous nous concentrerons ici sur les problèmes liés à la mise en ligne de contenu violant le droit d’auteur sur les plateformes dites de contenu généré par les utilisateurs. Il s’agit des plateformes en ligne sur lesquelles ce sont directement les utilisateurs qui postent du contenu, comme c’est notamment le cas sur YouTube ou Facebook. La question s’est donc posée de la responsabilité de ces plateformes pour les contenus illicites qu’elles hébergent.
C’est dans ce contexte qu’a été rédigée la Directive européenne sur le droit d’auteur, qui a pour but d’harmoniser le droit d’auteur des pays membres, notamment pour faire face aux acteurs internationaux et sans frontières que sont les plateformes de contenu. Elle doit être transposée par les états membres de l’U.E. dans leur droit national cette année, et le rapport de l’HADOPI vise à répondre aux questions soulevées par cette transposition.
Par définition, la Directive laisse en effet le choix aux états membres des moyens à mettre en oeuvre pour parvenir aux objectifs qu’elle édicte, ce qui a donc fait couler beaucoup d’encre.
Le débat s’est cristallisé autour de l’article 17 qui dispose que, pour ne pas être responsables des contenus mis en ligne non respectueux des droits d’auteur, les plateformes devront :
- soit conclure des accords de licence avec les titulaires des droits, qui couvriraient principalement les cas de mise en ligne par des utilisateurs de contenus protégés pour une utilisation non commerciale ;
- soit, si c’est impossible, prouver qu’elles ont fait au mieux pour empêcher la mise en ligne présente et future, et qu’elle ont retiré promptement le contenu litigieux s’il leur a été notifié.
Les propositions du rapport : entre prévention et répression
Le moyen qui participe le mieux à démontrer que la plateforme a fait tout son possible pour lutter contre les contenus illégaux est la mise en place d’intelligences artificielles (IA) de reconnaissance des contenus publiés et d’attribution des droits d’auteur en conséquence. Il s’agit là d’être certain que chaque contenu publié le soit par son auteur ou un ayant droit, et qu’ainsi les revenus générés ne reviendront pas à un pirate. En effet, le rapport soutient qu’une meilleure efficacité dans l’attribution des contenus à leurs auteurs, couplée à une plus grande responsabilité des plateformes pour les contenus illicites mis en ligne, permettrait un équilibre plus juste dans la relation tripartite formée par les plateformes, les utilisateurs, et les titulaires de droits d’auteur.
Ces IA de reconnaissance des contenus existent déjà sur les plus grosses plateformes, telles que YouTube, Facebook, ou Dailymotion, mais ne sont pas encore complètement au point et surtout ne contrôlent les publications qu’après leur mise en ligne. En conséquence, les contenus illégaux pullulent.
Le rapport incite donc à la fois à la prévention et à la répression des contenus illégaux.
En premier lieu, il insiste à cette fin sur la nécessité d’utiliser les outils de reconnaissance non plus seulement a posteriori, mais avant tout en amont de la mise en ligne des contenus, ce qui leur permettrait d’agir comme un filtre à la publication. L’IA et son système de reconnaissance par empreintes digitales numériques est alors la seule solution envisageable du fait du nombre de contenus mis en ligne quotidiennement. L’HADOPI incite cependant les plateformes a être plus transparentes concernant le mode de fonctionnement de leurs algorithmes.
En effet, il n’y a pas un algorithme commun à toutes les plateformes de contenu généré par les utilisateurs. Au contraire, chaque plateforme est libre de ce choix, pour pouvoir s’adapter au mieux aux spécificités des contenus qu’elle propose.
Par exemple, YouTube a très tôt développé un algorithme nommé Content ID, qui filtre les contenus mis en ligne sur la base de catalogues d’œuvres fournis par les titulaires de droits d’auteur, ce qui a créé au fil des années une base de données de millions de fichiers audiovisuels et sonores. Pour chaque contenu mis en ligne, est générée une empreinte numérique, qui permet à Content ID d’attribuer un contenu à son auteur. Ensuite, l’algorithme recherche sur YouTube des fichiers identiques à ceux de sa base de données, et vérifie que l’utilisateur qui les a mis en ligne en est bien le titulaire ou un ayant droit. Sinon, le titulaire est informé et choisit s’il souhaite bloquer la vidéo, la monétiser, ou encore s’en servir pour recueillir des statistiques.
Cependant, comme toute forme d’IA, ces algorithmes ont des limites, et malgré le développement des technologies, ils peuvent aujourd’hui toujours être trompés assez facilement. Au moindre doute dans l’identification, donc, l’IA demande une vérification humaine, essentielle pour éviter de de désactiver des vidéos en règle, ce qui constituerait une atteinte à la liberté d’expression. En effet, il s’agit ici de chercher le juste équilibre entre deux droits fondamentaux : la liberté d’expression et le droit d’auteur.
En second lieu, en complément de ce filtrage a priori, le rapport rappelle qu’un filtrage a posteriori de la mise en ligne est tout aussi essentiel. Ainsi, tout contenu illicite déjà en ligne peut être signalé par les utilisateurs via un mécanisme de notification à la plateforme, alors chargée de supprimer le contenu litigieux, et d’éviter la récidive. Ici encore, l’IA, doublée d’une vérification humaine si besoin, s’avère nécessaire pour trier efficacement les notifications et y répondre promptement.
Par ailleurs, toujours pour éviter la censure inappropriée, la prise en compte des exceptions au droit d’auteur est essentielle, aussi bien avant qu’après la mise en ligne. En effet, la publication par un utilisateur d’un contenu protégé sous forme de citation, parodie, caricature, critique, revue, ou pastiche reste autorisée.
Enfin, le rapport préconise aux états de rester souples dans leurs transpositions, pour s’adapter plus facilement aux évolutions futures. Il faudra donc attendre les transpositions nationales qui doivent intervenir avant le mois de juin, pour savoir dans quelle mesure les états ont suivi les propositions du rapport.
Ailleurs sur Lettres Numériques :
Retrouvez Lettres Numériques sur Twitter, Facebook et LinkedIn.
— Nausicaa Plas