Digitale Diktafoner Drømmer Også
Tale-til-tekst transskriberingsværktøjer som OpenAI’s Whisper har revolutioneret alt fra lægers journaler til mødereferater. Men hvad sker der, når teknologien tager fejl? En ny undersøgelse afslører, at disse fejl ikke bare er tilfældige tekstbrokker, men ofte skadelige hallucinationer.
Fejlprogrammerede Fantasier
Ifølge forskning fra Cornell University og andre fremtrædende institutioner hallucinerer avancerede AI-modeller som Whisper ikke kun innocent tekst, men også sætninger der kan være direkte ødelæggende. Op imod 38% af disse hallucinationer omfattede eksplicit skade såsom at viderbringe vold eller usande autoritative påstande.
Et Spørgsmål om Stilhed
Undersøgelsen viste, at Whisper har en tendens til at fabrikere tekst, især når der opstår lange pauser i talestrømmen. Det rejser særlig bekymring for personer med talehandicap som afasi, hvor patienter kæmper med at finde de rette ord og ofte holder længere pauser.
Risikable Resultater
Forestil dig risikoen ved at anvende sådanne værktøjer til dokumentation af vigtige udsagn, som vidneforklaringer eller medicinske journaler. Hvorfor tilføje et “blodigt barnevogn” til en beskrivelse af en brandmand, der redder en kat? Eller et “terror kniv” når nogen åbner en paraply?
Fremtiden for Fejlfri Transskription
OpenAI har sidenhen forbedret Whisper, men spørgsmålet forbliver – hvordan sikrer vi, at fremtidige versioner ikke gentager disse farlige fejltagelser? Forskerne opfordrer til mere ansvarlighed og tilpasninger, der kan favne alle samfundsgrupper, særligt dem med sproglige udfordringer.
Så næste gang din digitale assistent tilbyder en kreativ fortolkning af dagens møde, husk på, at det ikke kun er en fejl – det kan være en hallucination.