Quel est l’impact potentiel du procès intenté par Getty contre Stability AI sur l’industrie musicale ?

MBW Views est une série d'articles d'opinion exclusifs rédigés par d'éminents personnalités de l'industrie musicale… avec quelque chose à dire.

Dans l'éditorial suivant, Jonathan Coote (encadré sur la photo), avocat associé et avocat spécialisé dans la musique chez Bray & Krais Solicitors, examine tL'impact potentiel du procès intenté par Getty contre Stability AI sur l'industrie musicale suggère qu'il est nécessaire de « clarifier de toute urgence la loi relative à la formation en IA au Royaume-Uni ».


Des allégations selon lesquelles la plateforme musicale IA Suno serait potentiellement formée sur des enregistrements protégés par le droit d'auteur aux artistes appelant les plateformes technologiques à cesser de violer et de dévaloriser leurs droits, l'industrie reste profondément préoccupée par le fait que la musique protégée par le droit d'auteur est utilisée sans licence ni compensation due. pour former des outils d’IA capables de reproduire (et finalement de remplacer) la musique créée par l’homme.

Mais quel est le cadre juridique pour empêcher une telle formation ?

Au Royaume-Uni, la loi actuelle semble interdire la formation d’outils d’IA sur des œuvres protégées par le droit d’auteur à des fins commerciales.

Le gouvernement a initialement refusé d’adopter l’approche plus clémente de « opt-out » de l’UE pendant la période de transition du Brexit, mais a ensuite cherché à transformer radicalement la loi en 2022 en tentant d’introduire une exception extrêmement permissive.

Ce projet a été rapidement abandonné après avoir été qualifié de « blanchiment de musique » par les ayants droit. L'initiative suivante du gouvernement a été de créer un groupe de travail chargé de développer un système permettant aux entreprises d'IA d'obtenir une « licence équitable ».

Sans surprise, compte tenu des intérêts diamétralement opposés des entreprises technologiques et des titulaires de droits, ces négociations ont échoué.

Contrairement aux États-Unis, où les défenses de « l'utilisation équitable » peuvent prendre en compte l'impact plus large sur le public, les défenses du droit d'auteur au Royaume-Uni sont étroites et techniques.

Cela signifie que l’application de la loi actuelle (créée notamment avant les grands modèles linguistiques et l’IA générative) pourrait s’avérer inadéquate pour faire face aux conséquences économiques, créatives et sociales de l’IA. Sans davantage de législation, cela pourrait créer des précédents inutiles.

Même si la restriction imposée à la formation par le droit britannique est claire à première vue, les résultats des cas réels ne le sont pas, car ils peuvent être très spécifiques aux faits. Il existe une affaire majeure qui pourrait déterminer l'orientation de la législation britannique sur ces questions : le site d'images Getty Images a poursuivi Stability AI aux États-Unis et en Angleterre pour avoir entraîné ses modèles sur la base de données d'images de Getty. Devant les tribunaux anglais, Stability AI n'a pas réussi à radier l'affaire, mais sa défense souligne certaines des nombreuses difficultés rencontrées pour intenter une action en contrefaçon avec succès.

Pour commencer, les arguments selon lesquels une production individuelle viole sont par nature difficiles à prouver, car une production doit reproduire une « partie substantielle » d’une œuvre particulière, et les outils d’IA sont généralement conçus avec des garanties pour empêcher cela. De plus, Getty doit démontrer que Stability AI a commis un acte de contrefaçon au Royaume-Uni. Pour sa défense, Stability AI nie cela, affirmant que les développeurs concernés se trouvaient à l'étranger et que toute copie présumée aurait eu lieu sur un serveur cloud étranger. Getty fait également valoir que le modèle en question, Stable Diffusion, est un « article contrefait » importé, traditionnellement utilisé pour des biens physiques tels que des CD piratés. L’efficacité de ces arguments reste à voir.

Il existe également un certain nombre d'éléments très concrets dans le cas de Getty sur lesquels de nombreux acteurs de l'industrie musicale ne peuvent se fier. Premièrement, Getty a réussi à reproduire des filigranes déformés dans les images de sortie, démontrant que ses images étaient clairement utilisées dans la formation (une tâche difficile étant donné la nature de « boîte noire » de la plupart des outils d’IA) et fournissant ainsi un motif de contrefaçon de marque. Deuxièmement, étant donné que Getty a constitué une bibliothèque d’images, il peut également invoquer une violation de ses « droits relatifs aux bases de données », ce qui ne fonctionnera probablement pas pour la plupart des titulaires de droits. Compte tenu de sa complexité technique et juridique, si l’affaire aboutit finalement à une décision, il est peu probable qu’elle crée un précédent universel et définitif.

La musique générée par l’IA étant déjà distribuée sur les services de streaming, les sociétés de musique et les musiciens s’inquiètent naturellement de sa prolifération. Pourtant, même si l’industrie musicale a vivement dénoncé les sociétés d’IA pour « blanchiment de musique », à une exception notable près, elle s’est montrée réticente à engager des poursuites.

En outre, l’industrie musicale est peut-être plus inquiète que d’autres secteurs quant à l’impact des deepfakes, étant donné les récents développements étonnants de la technologie de clonage vocal. Alors que beaucoup pensent instinctivement que cela devrait être illégal, il n’existe techniquement aucun droit spécifique à l’image ou à la ressemblance (même s’ils sont largement autorisés) qui limiterait clairement les résultats de tels outils au Royaume-Uni. Ainsi, le moyen le plus efficace d’intenter une action pourrait être de faire valoir que le processus de formation lui-même était en infraction. La question de la formation est donc absolument vitale pour l’industrie.

Le paysage réglementaire évolue rapidement. Les États-Unis envisagent potentiellement d’adopter une législation visant à créer un nouveau droit de « représentation numérique » pour lutter contre les deepfakes et, de l’autre côté de la Manche, la loi européenne sur l’IA devrait accroître la transparence requise par les entreprises d’IA opérant dans l’UE en ce qui concerne leurs données de formation et peut également étendre ses restrictions de « non-participation » à l’extérieur du territoire.

Un certain nombre d'initiatives positives se profilent à l'horizon au Royaume-Uni : un groupe parlementaire multipartite étudie l'impact de l'IA sur l'industrie musicale (vous pouvez trouver les réflexions de l'auteur à ce sujet ici) et un projet de loi à la Chambre des Lords est en cours. apporter une véritable réglementation au Parlement, y compris des dispositions cruciales sur la transparence.

Toutefois, compte tenu des insuffisances potentielles de la loi actuelle, le gouvernement britannique doit de toute urgence capitaliser sur ce travail pour apporter la clarté indispensable.