Les allégations de piratage ne peuvent pas être ajoutées aux poursuites en matière de droits d'auteur des éditeurs de musique contre Anthropic, déclare le juge

Un juge fédéral a rejeté la tentative des éditeurs de musique d'étendre leur action en justice contre Anthropic en affirmant que la société d'IA aurait utilisé du matériel piraté pour former son chatbot Claude.

Selon un dossier judiciaire, le juge de district américain Eumi Lee la semaine dernière (le 8 octobre), a rejeté une motion présentée par Groupe d'édition de musique universelle, Concord Music et Musique ABKCO pour modifier leur plainte de 2023.

Loi Bloomberg a rapporté, citant une audience à San Jose, que le juge Lee avait jugé l'amendement inapproprié parce que les éditeurs de musique n'avaient pas enquêté sur les allégations de piratage basées sur le téléchargement d'œuvres par Anthropic.

Les éditeurs de musique poursuivis Anthropique en 2023 pour violation du droit d'auteur, alléguant que son Claude Le chatbot a régurgité des paroles protégées par le droit d'auteur, suggérant que l'entreprise avait formé le chatbot sur ces paroles sans autorisation.

En août, les éditeurs de musique ont affirmé qu'Anthropic avait caché le fait qu'il utilisait BitTorrent pour pirater des paroles protégées par le droit d'auteur. Les éditeurs ont déclaré avoir découvert le problème grâce à une poursuite distincte en matière de droits d'auteur contre Anthropic.

Un certain nombre d'auteurs de livres ont poursuivi Anthropic en 2023, alléguant que Claude avait été formé sur leurs livres sans autorisation, et des preuves selon lesquelles Anthropic utilisait BitTorrent ont été présentées dans cette affaire.

Plus récemment, Panneau d'affichage a rapporté qu’Anthropic a qualifié l’amendement proposé de tentative inappropriée de « transformer fondamentalement cette affaire à la dernière minute ». La société a soutenu que les éditeurs disposaient de suffisamment de temps pour découvrir l’activité de torrent via les procédures légales standard de découverte.

Même si la dernière décision du juge Lee a constitué un revers pour les éditeurs de musique, ils ont récemment obtenu une évolution positive dans l'affaire. La semaine dernière également (6 octobre), le juge Lee a statué qu'ils pouvaient faire valoir qu'Anthropic portait la responsabilité légale lorsque les utilisateurs de son chatbot Claude généraient des paroles protégées par le droit d'auteur.

La décision, que vous pouvez lire dans son intégralité ici, marque la deuxième tentative de Amazone et Googlea soutenu Anthropic pour rejeter les allégations de contrefaçon. Lee avait précédemment accordé une requête en rejet, mais avait autorisé les éditeurs à déposer à nouveau des plaintes modifiées.

Cette fois, le juge a estimé que les éditeurs ont soutenu à juste titre qu'Anthropic aurait pu être au courant de la violation des droits d'auteur par les utilisateurs et tirer profit de sa poursuite en utilisant des « garde-corps » conçus pour empêcher les violations du droit d'auteur. La décision du juge portait sur la responsabilité secondaire et DMCA réclamations.

Le procès fait partie d’une vague plus large de litiges visant à déterminer si la loi sur le droit d’auteur permet aux développeurs d’IA de former des modèles sur du matériel protégé. Géants de la technologie Microsoft et Métaet des sociétés d'IA comme OpenAI, Suno et Audio font face à des défis juridiques similaires.

Anthropic est l'une des premières sociétés d'IA à résoudre de telles réclamations, atteignant un 1,5 milliard de dollars règlement avec les auteurs en septembre.