EU: ChatGPT’s Data Gemmer Stadig på Skævheder
OpenAI’s kamp for at reducere mængden af faktuelle fejl i deres populære ChatGPT-chatbot har desværre ikke været nok til at tilfredsstille de strikse EU-databeskyttelsesregler, ifølge en ny rapport fra en taskforce under EU’s privatlivsvagt.
Ikke helt i mål endnu, OpenAI
Rapporten, der blev udgivet fredag, understreger, at selvom OpenAI har taget skridt mod større gennemsigtighed for at undgå misfortolkning, er disse tiltag ikke tilstrækkelige for at opfylde kravet om data-nøjagtighed. Det er lidt ligesom at forsøge at lappe et utæt skib med gaffatape – det holder bare ikke vand i længden.
Regulatorer Bliver ved med at Lure
Den taskforce, der blev oprettet sidste år, har været travlt beskæftiget, og flere efterforskninger er stadig i gang. Dette betyder, at vi desværre endnu ikke har en fuld rapport om deres fund. Ser vi på disse som en slags fællesnævner, står det klart, at der er meget arbejde foran OpenAI.
Man Kan Ikke Altid Stole på en Chatterbot
Rapporten slår også fast, at ChatGPT, på grund af dets probabilistiske natur, kan levere outputs, der er både forudindtaget og simpelthen opdigtede. Hvis du nogensinde har fået en datingrådgivning af ChatGPT, bør du måske tænke dig om en ekstra gang, inden du går all in.
Brugere Tager Ordet for Evangelium
En af de mest øjenåbnende bemærkninger i rapporten var, at brugere har en tendens til at tage ChatGPT’s svar som faktuelle, selv når de ikke er det. Så næste gang ChatGPT fortæller dig, at din gamle skolelærer nu er astronaut på Mars, er det måske klogt at tjekke en ekstra gang.