Les avocats de la société générative de l'IA Anthropic se sont excusés auprès d'un tribunal fédéral américain pour avoir utilisé une citation incorrecte générée par l'IA d'Anthropic dans un dossier judiciaire.
Dans une soumission au tribunal le jeudi 15 mai, l'avocat principal d'Anthropic dans l'affaire, Ivana Dukanovic du cabinet d'avocats Latham Watkinss'est excusé « pour l'inexactitude et toute confusion que cette erreur a causée », mais a déclaré que Claude Chatbot d'Anthropic n'a pas inventé l'étude académique citée par les avocats d'Anthropic – il s'est trompé le titre et les auteurs.
« Notre enquête sur l'affaire confirme qu'il s'agissait d'une erreur de citation honnête et non d'une fabrication de l'autorité », a écrit Dukanovic dans sa soumission, qui peut être lue ici.
L'affaire judiciaire en question a été déposée par des éditeurs de musique, notamment Groupe de publication de musique universelle, Concordeet Abkco En 2023, accusant anthropique d'utiliser des paroles protégées par le droit d'auteur pour former le chatbot Claude, et alléguant que Claude régurgite les paroles protégées par le droit d'auteur lorsqu'elles ont été invitées aux utilisateurs.
Les avocats des éditeurs de musique et anthropic débattent de la quantité d'informations que Anthropic a besoin pour fournir aux éditeurs dans le cadre du processus de découverte de l'affaire.
Le 30 avril, un employé anthropique et un témoin expert dans l'affaire, Olivia Chena soumis un dossier judiciaire dans le différend qui a cité une étude de recherche sur les statistiques publiées dans la revue Le statisticien américain.
Mardi 13 mai, les avocats d'Anthropic ont déclaré qu'ils avaient tenté de retrouver ce document, notamment en contactant l'un des prétendus auteurs, mais qu'on leur avait dit qu'aucun article de ce type n'existait.
Dans sa soumission au tribunal, Dukanovic a déclaré que le document en question existe – mais Claude s'est trompé le nom du journal et les auteurs.
«Notre chèque de citation manuelle n'a pas saisi cette erreur. Notre chèque de citation a également manqué des erreurs de libellées supplémentaires introduites dans les citations pendant le processus de mise en forme à l'aide de Claude.ai», a écrit Dukanovic.
Elle a expliqué que c'était Chen, et non le Claude Chatbot, qui a trouvé le journal, mais Claude a été invité à écrire la note de bas de page faisant référence au journal.
«Notre enquête sur l'affaire confirme qu'il s'agissait d'une erreur de citation honnête et non d'une fabrication de l'autorité.»
Ivana Dukanovic, avocat représentant anthropique
« Nous avons mis en œuvre des procédures, y compris plusieurs niveaux d'examen supplémentaires, pour travailler pour nous assurer que cela ne se reproduira pas et a préservé, dans la direction de la Cour, toutes les informations liées à la déclaration de Mme Chen », a écrit Dukanovic.
L'incident est le dernier d'un nombre croissant de cas juridiques où les avocats ont utilisé l'IA pour accélérer leur travail, pour avoir les fausses informations «Hallucine» de l'IA.
Un incident récent a eu lieu au Canada, où un avocat se disputant devant la Cour supérieure de l'Ontario fait face à un outrage potentiel d'accusation de tribunal après avoir soumis une argument juridique, apparemment rédigé par Chatgpt et d'autres robots d'IA, qui ont cité de nombreux cas inexistants comme précédent.
Dans un article publié dans La conversation En mars, des experts juridiques ont expliqué comment cela peut se produire.
«C'est le résultat du modèle d'IA qui tente de« combler les lacunes »lorsque ses données de formation sont inadéquates ou défectueuses, et est communément appelée« hallucination »», a expliqué les auteurs.
«Les défaillances cohérentes des avocats pour faire preuve de soins dus à utiliser ces outils ont le potentiel d'induire en erreur et de congeler les tribunaux, de nuire aux intérêts des clients et de saper généralement l'état de droit.»
Ils ont conclu que «les avocats qui utilisent des outils d'IA génératifs ne peuvent pas le traiter comme un substitut à l'exercice de leur propre jugement et de leur diligence, et doivent vérifier l'exactitude et la fiabilité des informations qu'ils reçoivent».
Le différend juridique entre les éditeurs musicaux et Anthropic a récemment vu un revers pour les éditeurs, lorsque le juge Eumi K. Lee du tribunal de district américain pour le district nord de la Californie a accordé la requête d'Anthropic pour rejeter la plupart des accusations contre la société de l'IA, mais a donné aux éditeurs la marge de manœuvre pour refiter sa plainte.
Les éditeurs de musique ont déposé une plainte modifiée contre Anthropic le 25 avril et le 9 mai, Anthropic a de nouveau déposé une requête en rejet d'une grande partie de l'affaire.
Un porte-parole des éditeurs de musique a dit Mbw Que leur plainte modifiée «renforce l'affaire contre Anthropic pour son utilisation non autorisée des paroles de chansons à la fois dans la formation et la sortie de ses modèles Claude AI. Pour sa part, la requête d'Anthropic pour rejeter rejette simplement certains des arguments de sa motion antérieure – tout en abandonnant les autres.»