Er AI-chatbots egentlig ytringsfrihed?
Kan en chatbot snakke så meget, at det bliver beskyttet af ytringsfriheden? Det spørgsmål må en amerikansk domstol nu tage stilling til i et opsigtsvækkende søgsmål mod Google og den populære tjeneste Character AI. En dommer i Florida afviser nemlig at smide sagen ud på grund af ytringsfriheden. Så hvis du troede, at man kunne chatte sig fri af juridiske problemer – glem det!
Baggrund: Chat, tragedie og retten
Sagen blev anlagt af familien til 14-årige Sewell Setzer III, efter at drengen begik selvmord. Ifølge familien blev han opmuntret til selvmordstanker af en chatbot fra Character AI. Her forsøgte tech-giganterne at slippe ud af søgsmålet ved at sige, at chatbotten bare er en slags avanceret computerspil eller socialt netværk – og at det hele er beskyttet tale under First Amendment (amerikansk ytringsfrihed). Men dommer Anne Conway var ikke overbevist: “Jeg er ikke klar til at sige, at Character AI’s output er tale.” Rottehaler til robotterne!
Stærke argumenter på begge sider
Både Character AI og modparten hiver juridiske kaniner op ad hatten. Character AI hævder, at deres chats er beskyttet tale – de henviser til historiske sager, som også har givet firmaer ytringsfrihed, selvom de ikke var mennesker. Men modparten indvender, at AI’er ikke har “intention” eller forstår, hvad de siger – og derfor ikke kan få samme beskyttelse. AI-talebobler tæller altså måske ikke som rigtig tale, hvis man spørger sagsøgernes jurister.
Mulige konsekvenser: Skal chatbots klappe i?
Hvis retten til sidst slår fast, at en AI-chatbot ikke har ytringsfrihed, risikerer firmaer bag alt fra dansende ponyassistenter til døgnåbne terapi-bots at skulle skrue gevaldigt ned for realismens skyld. Sådan en afgørelse kan betyde, at kommende chatbots bliver mere kedelige – og muligvis også mere sikre for især unge brugere. Det kan også føre til, at udviklerne bliver ansvarlige, hvis chatbotten reelt forvolder skade.
Retten: Chatbotten er (måske) et produkt
Et særligt twist er, om Character AI’s chatbot reelt er et “produkt” med fejl – lidt ligesom en mikrobølgeovn, der springer i luften. Retten bemærker, at man normalt ikke regner “ord og ideer” for produkter, men Character AI er ikke bare et forudskrevet computerspil – den genererer tekst i dialog med brugeren. Det gør sagen svær og ret ny for domstolene.
En sag, hele AI-verdenen holder øje med
Retten har givet grønt lys til, at sagen fortsætter, og en endelig afgørelse ventes i løbet af i år. Resultatet kan få store konsekvenser for, hvordan loven håndterer AI-genereret tale – og hvem, der har ansvaret, når chatbots går over gevind. Og mon ikke både lobbyister, jurister og kodende robotter følger rystende (og måske lettere forarget) med?