Anthropic a-t-il généré une «hallucination» en défense juridique contre les paroles des chansons du droit d'auteur?

Un juge fédéral a ordonné à Anthropic de répondre aux allégations selon lesquelles un scientifique des données qu'il employait reposait sur un article académique fictif, probablement généré par l'intelligence artificielle, dans un dossier judiciaire contre les principaux éditeurs de musique.

Lors d'une audience du mardi 13 mai, le juge magistrat américain Susan van Keulen a décrit la situation comme «un problème très grave et grave», Reuters signalé le même jour.

Van Keulen a dirigé Anthropique pour répondre d'ici jeudi 15 mai.

Le dossier contesté, déposé le 30 avril, fait partie d'un procès en cours de droit d'auteur intenté par Universel Musique Groupe, Concordeet Abkco contre la société d'IA.

Les éditeurs de musique accusent anthropic d'utiliser les paroles de chansons protégées sans autorisation pour entraîner son chat-chat AI Claude.

Les plaignants ont déposé une plainte modifiée de violation du droit d'auteur contre Anthropic le 25 avril, environ un mois après avoir été reversé dans leur procédure initiale contre Anthropic.

Par la suite, le 30 avril, un scientifique des données anthropiques Olivia Chen a soumis un dossier citant un article académique de Le statisticien américain Journal dans le cadre de la tentative d'Anthropic de plaider pour une taille d'échantillon valide dans la production d'enregistrements des interactions de Claude, en particulier la fréquence à laquelle les utilisateurs ont incité le chatbot pour les paroles protégées par le droit d'auteur.

« Je comprends que le phénomène spécifique à l'étude implique un événement exceptionnellement rare: l'incidence des utilisateurs de Claude demandant des paroles de chansons de Claude. »

Olivia Chen, anthropique

« Je comprends que le phénomène spécifique à l'étude implique un événement exceptionnellement rare: l'incidence des utilisateurs de Claude demandant des paroles de chansons de Claude. Je comprends que la rareté de cet événement a été étayée par l'examen manuel d'un sous-ensemble des invites et des sorties à ce jour », a déclaré Chen dans le fichier des parties.

Dans la déclaration de huit pages, Chen a fourni une justification de cet échantillon, citant des formules statistiques et plusieurs sources académiques. Parmi eux se trouvait la citation désormais décédée, un article prétendument publié dans Le statisticien américain en 2024 et co-écrit par des universitaires.

«Nous pensons qu'il est probable que Mme Chen a utilisé le claude de l'outil AI d'Anthropic pour développer son argument et son autorité pour le soutenir.»

Matt OppenheimOppenheim + Zebrak

Oppenheim + Zebrak's Matt Oppenheimun avocat représentant les éditeurs de musique, a déclaré au tribunal qu'il avait contacté l'un des auteurs nommés directement et le Journal et a confirmé qu'aucun article de ce type existait.

Oppenheim a déclaré qu'il ne croyait pas que Chen avait agi avec l'intention de tromper mais soupçonnait qu'elle avait utilisé Claude pour aider à écrire son argument, peut-être en s'appuyant sur du contenu «halluciné» par l'IA elle-même, selon Reuters' rapport.

Le lien fourni dans les points de dépôt à une autre étude avec un titre différent.

«Nous pensons qu'il est probable que Mme Chen a utilisé le claude de l'outil AI d'Anthropic pour développer son argument et son autorité pour le soutenir», a été cité par Oppenheim Reuters comme disant.

« De toute évidence, il y avait quelque chose qui était une mauvaise citation, et c'est ce que nous croyons en ce moment. »

Sy Damle, Latham & Watkins

Pendant ce temps, l'avocat d'Anthropic, Sy Damle de Latham & Watkinsa contesté l'affirmation selon laquelle la citation a été fabriquée par l'IA, affirmant que les plaignants les «sont en sable» en ne signalant pas l'accusation plus tôt. Damle a également fait valoir que la citation a probablement souligné le mauvais article.

« De toute évidence, il y avait quelque chose qui était une mauvaise citation, et c'est ce que nous croyons en ce moment », aurait déclaré Damle.

Cependant, le juge Van Keulen a repoussé, affirmant qu'il y avait «un monde de différence entre une citation manquée et une hallucination générée par l'IA».

La prétendue «hallucination» dans la déclaration d'Anthropic marque les dernières affaires en justice où les avocats ont été critiqués ou sanctionnés par les tribunaux pour marquer par erreur les affaires fictives.

En février, Reuters ont indiqué que le cabinet d'avocats pour les blessures corporelles Morgan et Morgan a envoyé un e-mail urgent à son plus que 1 000 Les avocats avertissant que ceux qui utilisent un programme d'IA qui «halluciné» seraient licenciés.

C'est après qu'un juge du Wyoming a menacé de sanctionner deux avocats du cabinet qui a inclus des citations de cas fictives dans un procès contre Walmartselon Reuters.


Universal Music Group, Concord et Abkco ont poursuivi Anthropic en 2023, alléguant que la société a formé son chat de chatbot AI sur les paroles 500 chansons d'artistes, y compris Beyoncé, le Rolling Stones et les plagessans autorisation.

En mars, les éditeurs de musique ont déclaré qu'ils «restaient très confiants» à l'idée de gagner contre Anthropic.