Dagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Reading: OpenAI-ansatte kræver stærkere whistleblower-beskyttelse mod AI-risici
NYHEDSBREV
Dagens AIDagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Søg
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Har du en konto? Log ind
Follow US
© DagensAI. Alle Rettigheder Forbeholdes.
Dagens AI > Nyheder > OpenAI-ansatte kræver stærkere whistleblower-beskyttelse mod AI-risici
Nyheder

OpenAI-ansatte kræver stærkere whistleblower-beskyttelse mod AI-risici

Senest opdateret: 8. juni 2024 7:18
DagensAI
4 Min Læsning
Del
Del

Åbent brev fra OpenAI-medarbejdere kræver bedre beskyttelse af whistleblowere

En gruppe nuværende og tidligere medarbejdere hos OpenAI, udvikleren af den populære chatbot ChatGPT, har skrevet et åbent brev, der kræver stærkere beskyttelse af whistleblowere. Brevet understreger den akutte nødvendighed for at beskytte forskere, der rejser bekymringer om AI-sikkerhed uden frygt for repressalier.

Indhold
Åbent brev fra OpenAI-medarbejdere kræver bedre beskyttelse af whistleblowereBaggrund og motivationNuværende praksis og begrænsningerUnderstøttere og underskrivereHovedpunkter og bekymringerBaggrund og kontekstPåvirkning og forventninger

Baggrund og motivation

Skubbet for mere robuste whistleblowerbeskyttelser drives af den hurtige udvikling af mere kraftfulde AI-systemer, som ifølge den tidligere OpenAI-ingeniør Daniel Ziegler sker uden tilstrækkelig forsigtighed. Ziegler bemærker, at der er stærke incitamenter for virksomheder til at bevæge sig hurtigt uden fuldt ud at adressere potentielle risici. En anden medarrangør, Daniel Kokotajlo, kritiserer tilgangen “flyt hurtigt og ødelæg ting”, som han mener er det modsatte af, hvad der er nødvendigt for kraftfuld og dårligt forstået teknologi.

Nuværende praksis og begrænsninger

OpenAI hævder at have foranstaltninger på plads for medarbejdere til at udtrykke bekymringer, herunder en anonym integritets-hotline. Men det åbne brev argumenterer for, at disse tiltag er utilstrækkelige, og at fortrolighedsaftaler kan forhindre medarbejdere i at dele bekymringer. Brevet beder virksomhederne om at stopppe med at kræve, at arbejdstagere underskriver “non-disparagement” aftaler, som kan straffe medarbejdere ved at fratage dem deres aktieinvesteringer, hvis de kritiserer virksomheden efter at have forladt den.

Understøttere og underskrivere

Det åbne brev har 13 underskrivere, hvoraf de fleste er tidligere medarbejdere hos OpenAI, med to, der arbejder eller har arbejdet hos Googles DeepMind. Fire nuværende medarbejdere hos OpenAI har underskrevet brevet anonymt. Brevet har støtte fra fremtrædende AI-forskere Yoshua Bengio, Geoffrey Hinton og Stuart Russell, der har advaret om de potentielle risici ved AI for menneskehedens eksistens.

Adobe lancerer Firefly AI-app til mobilbrugere
17. juni 2025
Region og universitet udvider samarbejdet
17. juni 2025

Hovedpunkter og bekymringer

  • Hastværk og mangel på forsigtighed: Udviklingen af AI-systemer sker hurtigt uden tilstrækkelig forsigtighed, hvilket presser virksomheder til at se bort fra risici.
  • Beskyttelse af whistleblowere: Stærkere beskyttelser er nødvendige for at tillade forskere at rejse bekymringer om AI-sikkerhed uden frygt for repressalier.
  • Non-disparagement aftaler: Virksomheder bør stoppe med at få medarbejdere til at underskrive aftaler, der kan tvinge dem til tavshed ved at fratage dem finansielle fordele efter at have forladt virksomheden.
  • AI-risici: Brevet fremhæver bekymringer ikke kun om fremtidige katastroferisici, men også om retfærdighed, produktmisbrug, jobtab og potentialet for, at realistisk AI kan manipulere folk uden sikkerhedsforanstaltninger.

Baggrund og kontekst

  • 4. juni 2024: Det åbne brev blev offentliggjort med en opfordring til AI-virksomheder om at beskytte whistleblowere.
  • Tidligere i år: Daniel Kokotajlo forlod OpenAI på grund af bekymringer om ansvarlig udvikling.
  • 2021: Daniel Ziegler forlod OpenAI efter at have hjulpet med at udvikle teknikker, der førte til ChatGPT’s succes.
  • 2023: OpenAI’s CEO, Sam Altman, stod over for en kortvarig fyring og hurtig tilbagevenden midt i bekymringer om AI-sikkerhed og kommercialisering.

Påvirkning og forventninger

Det åbne brev sigter mod at opfordre alle AI-virksomheder til at prioritere sikkerhed, tilsyn og gennemsigtighed. Ved at etablere stærkere whistleblowerbeskyttelser kan disse virksomheder sikre, at forskere har friheden til at advare om AI-farer uden frygt for repressalier, hvilket øger den offentlige tillid og mindsker de potentielle risici forbundet med AI-udvikling. Lad os håbe, at der ikke blot er tale om en storm i et glas vand, men en reel bevægelse mod en sikrere fremtid!

TAGGED:AIChatGPTDeepMindFremtidNyhederOpenAIreguleringSam AltmanSikkerhed
Del denne artikel
Facebook Email Copy Link Print
Forrige Artikel AI kunst: Abstrakt Flammekalejdoskop
Næste Artikel Windows AI Huskefunktion Kan Blive en Sikkerhedskatastrofe
Ingen kommentarer Ingen kommentarer

Skriv et svar Annuller svar

Du skal være logget ind for at skrive en kommentar.

200FollowersLike
300FollowersFollow
1kFollowersPin
- Annonce-
Japanske Plakater

Relaterede AI Artikler

Nyheder

Vietnam og USA underskriver aftaler om energi, AI og datacenter samarbejde

Energi, AI og Datacentre: Vietnam og USA i Ny Dynamisk…

3 Min Læsning
Nyheder

Anthropic lancerer ‘styles’-funktion for personlig AI-interaktion med Claude

Anthropic har netop annonceret en ny opdatering til deres AI-assistent,…

2 Min Læsning
Nyheder

ChatGPT kræver ikke længere kontooprettelse for brugere

Adgang til AI uden logins eller løfter om evig troskab!…

3 Min Læsning
DanmarkNyheder

Føtex åbner Danmarks første betjeningsløse butik med 100 overvågningskameraer.

En Fremtid Uden Kassemedarbejdere Velkommen til Danmarks første betjeningsløse Føtex,…

2 Min Læsning
Dagens AIDagens AI
Follow US
© DagensAI. Danske AI nyheder.
  • Privatlivspolitik
  • Kontakt
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?