Åbent brev fra OpenAI-medarbejdere kræver bedre beskyttelse af whistleblowere
En gruppe nuværende og tidligere medarbejdere hos OpenAI, udvikleren af den populære chatbot ChatGPT, har skrevet et åbent brev, der kræver stærkere beskyttelse af whistleblowere. Brevet understreger den akutte nødvendighed for at beskytte forskere, der rejser bekymringer om AI-sikkerhed uden frygt for repressalier.
Baggrund og motivation
Skubbet for mere robuste whistleblowerbeskyttelser drives af den hurtige udvikling af mere kraftfulde AI-systemer, som ifølge den tidligere OpenAI-ingeniør Daniel Ziegler sker uden tilstrækkelig forsigtighed. Ziegler bemærker, at der er stærke incitamenter for virksomheder til at bevæge sig hurtigt uden fuldt ud at adressere potentielle risici. En anden medarrangør, Daniel Kokotajlo, kritiserer tilgangen “flyt hurtigt og ødelæg ting”, som han mener er det modsatte af, hvad der er nødvendigt for kraftfuld og dårligt forstået teknologi.
Nuværende praksis og begrænsninger
OpenAI hævder at have foranstaltninger på plads for medarbejdere til at udtrykke bekymringer, herunder en anonym integritets-hotline. Men det åbne brev argumenterer for, at disse tiltag er utilstrækkelige, og at fortrolighedsaftaler kan forhindre medarbejdere i at dele bekymringer. Brevet beder virksomhederne om at stopppe med at kræve, at arbejdstagere underskriver “non-disparagement” aftaler, som kan straffe medarbejdere ved at fratage dem deres aktieinvesteringer, hvis de kritiserer virksomheden efter at have forladt den.
Understøttere og underskrivere
Det åbne brev har 13 underskrivere, hvoraf de fleste er tidligere medarbejdere hos OpenAI, med to, der arbejder eller har arbejdet hos Googles DeepMind. Fire nuværende medarbejdere hos OpenAI har underskrevet brevet anonymt. Brevet har støtte fra fremtrædende AI-forskere Yoshua Bengio, Geoffrey Hinton og Stuart Russell, der har advaret om de potentielle risici ved AI for menneskehedens eksistens.
Hovedpunkter og bekymringer
- Hastværk og mangel på forsigtighed: Udviklingen af AI-systemer sker hurtigt uden tilstrækkelig forsigtighed, hvilket presser virksomheder til at se bort fra risici.
- Beskyttelse af whistleblowere: Stærkere beskyttelser er nødvendige for at tillade forskere at rejse bekymringer om AI-sikkerhed uden frygt for repressalier.
- Non-disparagement aftaler: Virksomheder bør stoppe med at få medarbejdere til at underskrive aftaler, der kan tvinge dem til tavshed ved at fratage dem finansielle fordele efter at have forladt virksomheden.
- AI-risici: Brevet fremhæver bekymringer ikke kun om fremtidige katastroferisici, men også om retfærdighed, produktmisbrug, jobtab og potentialet for, at realistisk AI kan manipulere folk uden sikkerhedsforanstaltninger.
Baggrund og kontekst
- 4. juni 2024: Det åbne brev blev offentliggjort med en opfordring til AI-virksomheder om at beskytte whistleblowere.
- Tidligere i år: Daniel Kokotajlo forlod OpenAI på grund af bekymringer om ansvarlig udvikling.
- 2021: Daniel Ziegler forlod OpenAI efter at have hjulpet med at udvikle teknikker, der førte til ChatGPT’s succes.
- 2023: OpenAI’s CEO, Sam Altman, stod over for en kortvarig fyring og hurtig tilbagevenden midt i bekymringer om AI-sikkerhed og kommercialisering.
Påvirkning og forventninger
Det åbne brev sigter mod at opfordre alle AI-virksomheder til at prioritere sikkerhed, tilsyn og gennemsigtighed. Ved at etablere stærkere whistleblowerbeskyttelser kan disse virksomheder sikre, at forskere har friheden til at advare om AI-farer uden frygt for repressalier, hvilket øger den offentlige tillid og mindsker de potentielle risici forbundet med AI-udvikling. Lad os håbe, at der ikke blot er tale om en storm i et glas vand, men en reel bevægelse mod en sikrere fremtid!