Claude snubler: Dårlig PR for Anthropic i retssagen mod musikselskaber
Anthropic står midt i en pinlig situation i retten, efter deres AI-assistent Claude leverede en fejlbehæftet reference i et vigtigt juridisk dokument. Virksomheden har nu offentligt undskyldt overfor en amerikansk domstol for, hvad de beskriver som en “forlegen og utilsigtet fejl”.
Baggrund: AI på anklagebænken for sangtekster
Kampen begyndte sidste år, da en række store musikudgivere – herunder Universal Music Publishing Group, Concord og ABKCO – lagde sag an mod Anthropic. Accusationen? At Anthropic skulle have brugt ophavsretligt beskyttede sangtekster til at træne Claude og derefter lader chatbotten spytte teksterne ud til brugere, næsten som en moderne jukeboks på afveje.
Den famøse citation
Men midt i denne dramatiske retsthriller skete der noget, der fik både advokater og dommere til at hæve øjenbrynene. Olivia Chen, ekspert for Anthropic, indleverede et dokument med en reference til et studie fra det anerkendte tidsskrift The American Statistician. Problemet? Claude havde kludret i henvisningen og kom til at opdigte både titel og forfattere, selvom linket faktisk pegede på den rigtige artikel. En automatisk check havde fanget fejl i volumen og sidetal, men den creative omgang med forfatterlisten slap igennem netmaskerne.
Advokat undskylder – dommeren er ikke imponeret
Anthropics advokat, Ivana Dukanovic fra Latham Watkins, måtte i sidste uge lægge kappen og tage skylden på sig: Fejlen var ikke ondsindet, og ingen havde forsøgt at føre retten bag lyset – det var “bare” Claude, der var lidt for kreativ, da den formatterede fodnoter. Dommer Susan van Keulen tog dog situationen alvorligt og påpegede, at der er forskel på en menneskelig smutter og en AI-hallucination. Hun har nu beordret alle parter til at redegøre klart skriftligt for, hvordan det kunne gå så galt.
AI i retten: Når maskinen bliver din værste kollega
Dette er langt fra første gang en AI ender med rødmen på skærmen i retssale. Sidste uge blev to californiske advokatfirmaer advaret af en dommer for at indsende dokumenter fyldt med “fup” frembragt af AI – helt nye retssager, som slet ikke eksisterede. Og i december måtte en misinformationsekspert bide i det sure æble og indrømme at ChatGPT havde fundet på referencer i hans juridiske indlæg.
Bliver AI nogensinde juristens bedste ven?
Anthropic understreger, at denne fejl var uheldig og utilsigtet – og at Claude aldrig forsøgte at opfinde “autoritet” hvor der ingen var. Men episoden viser med al tydelighed, hvor risikabelt det stadig er at tage AI med i retten uden voksenopsyn. Man kan kun håbe, at næste gang Claude får lov at lege fodnote-service, nøjes den med at stave forkert – og ikke opfinde hele forfatterlisten.