Dagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Reading: OpenAI-ansatte kræver stærkere whistleblower-beskyttelse mod AI-risici
NYHEDSBREV
Dagens AIDagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Søg
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Har du en konto? Log ind
Follow US
© DagensAI. Alle Rettigheder Forbeholdes.
Dagens AI > Nyheder > OpenAI-ansatte kræver stærkere whistleblower-beskyttelse mod AI-risici
Nyheder

OpenAI-ansatte kræver stærkere whistleblower-beskyttelse mod AI-risici

Senest opdateret: 8. juni 2024 7:18
DagensAI
4 Min Læsning
Del
Del

Åbent brev fra OpenAI-medarbejdere kræver bedre beskyttelse af whistleblowere

En gruppe nuværende og tidligere medarbejdere hos OpenAI, udvikleren af den populære chatbot ChatGPT, har skrevet et åbent brev, der kræver stærkere beskyttelse af whistleblowere. Brevet understreger den akutte nødvendighed for at beskytte forskere, der rejser bekymringer om AI-sikkerhed uden frygt for repressalier.

Indhold
Åbent brev fra OpenAI-medarbejdere kræver bedre beskyttelse af whistleblowereBaggrund og motivationNuværende praksis og begrænsningerUnderstøttere og underskrivereHovedpunkter og bekymringerBaggrund og kontekstPåvirkning og forventninger

Baggrund og motivation

Skubbet for mere robuste whistleblowerbeskyttelser drives af den hurtige udvikling af mere kraftfulde AI-systemer, som ifølge den tidligere OpenAI-ingeniør Daniel Ziegler sker uden tilstrækkelig forsigtighed. Ziegler bemærker, at der er stærke incitamenter for virksomheder til at bevæge sig hurtigt uden fuldt ud at adressere potentielle risici. En anden medarrangør, Daniel Kokotajlo, kritiserer tilgangen “flyt hurtigt og ødelæg ting”, som han mener er det modsatte af, hvad der er nødvendigt for kraftfuld og dårligt forstået teknologi.

Nuværende praksis og begrænsninger

OpenAI hævder at have foranstaltninger på plads for medarbejdere til at udtrykke bekymringer, herunder en anonym integritets-hotline. Men det åbne brev argumenterer for, at disse tiltag er utilstrækkelige, og at fortrolighedsaftaler kan forhindre medarbejdere i at dele bekymringer. Brevet beder virksomhederne om at stopppe med at kræve, at arbejdstagere underskriver “non-disparagement” aftaler, som kan straffe medarbejdere ved at fratage dem deres aktieinvesteringer, hvis de kritiserer virksomheden efter at have forladt den.

Understøttere og underskrivere

Det åbne brev har 13 underskrivere, hvoraf de fleste er tidligere medarbejdere hos OpenAI, med to, der arbejder eller har arbejdet hos Googles DeepMind. Fire nuværende medarbejdere hos OpenAI har underskrevet brevet anonymt. Brevet har støtte fra fremtrædende AI-forskere Yoshua Bengio, Geoffrey Hinton og Stuart Russell, der har advaret om de potentielle risici ved AI for menneskehedens eksistens.

Arlo lancerer AI-opgraderede kameraer med avanceret lyd- og objektdetektion
10. maj 2025
AI-forvirring: “Tall Tales” er skabt af mennesker, ikke maskiner
9. maj 2025

Hovedpunkter og bekymringer

  • Hastværk og mangel på forsigtighed: Udviklingen af AI-systemer sker hurtigt uden tilstrækkelig forsigtighed, hvilket presser virksomheder til at se bort fra risici.
  • Beskyttelse af whistleblowere: Stærkere beskyttelser er nødvendige for at tillade forskere at rejse bekymringer om AI-sikkerhed uden frygt for repressalier.
  • Non-disparagement aftaler: Virksomheder bør stoppe med at få medarbejdere til at underskrive aftaler, der kan tvinge dem til tavshed ved at fratage dem finansielle fordele efter at have forladt virksomheden.
  • AI-risici: Brevet fremhæver bekymringer ikke kun om fremtidige katastroferisici, men også om retfærdighed, produktmisbrug, jobtab og potentialet for, at realistisk AI kan manipulere folk uden sikkerhedsforanstaltninger.

Baggrund og kontekst

  • 4. juni 2024: Det åbne brev blev offentliggjort med en opfordring til AI-virksomheder om at beskytte whistleblowere.
  • Tidligere i år: Daniel Kokotajlo forlod OpenAI på grund af bekymringer om ansvarlig udvikling.
  • 2021: Daniel Ziegler forlod OpenAI efter at have hjulpet med at udvikle teknikker, der førte til ChatGPT’s succes.
  • 2023: OpenAI’s CEO, Sam Altman, stod over for en kortvarig fyring og hurtig tilbagevenden midt i bekymringer om AI-sikkerhed og kommercialisering.

Påvirkning og forventninger

Det åbne brev sigter mod at opfordre alle AI-virksomheder til at prioritere sikkerhed, tilsyn og gennemsigtighed. Ved at etablere stærkere whistleblowerbeskyttelser kan disse virksomheder sikre, at forskere har friheden til at advare om AI-farer uden frygt for repressalier, hvilket øger den offentlige tillid og mindsker de potentielle risici forbundet med AI-udvikling. Lad os håbe, at der ikke blot er tale om en storm i et glas vand, men en reel bevægelse mod en sikrere fremtid!

TAGGED:AIChatGPTDeepMindFremtidNyhederOpenAIreguleringSam AltmanSikkerhed
Del denne artikel
Facebook Email Copy Link Print
Forrige Artikel AI kunst: Abstrakt Flammekalejdoskop
Næste Artikel Windows AI Huskefunktion Kan Blive en Sikkerhedskatastrofe
Ingen kommentarer Ingen kommentarer

Skriv et svar Annuller svar

Du skal være logget ind for at skrive en kommentar.

200FollowersLike
300FollowersFollow
1kFollowersPin
- Annonce-
Japanske Plakater

Relaterede AI Artikler

AI kunst

AI kunst: Fantasidyr i farverig glasmosaikmiddag

Overordnet Komposition Billedet er en mesterlig mosaik af farver og…

2 Min Læsning
Nyheder

Kvinder underrepræsenteret i AI-branchen, men brug af AI kan fremme karrierer

Kvinder og AI: Hvorfor er vi bagefter, og hvordan kan…

3 Min Læsning
DanmarkNyheder

Danmarks AI-supercomputer Gefion blandt verdens bedste igen

Gefion stormer frem: Danmarks stolte AI-supercomputer Danmark har fået en…

2 Min Læsning
Nyheder

Microsofts Copilot AI funktioner kommer til nye Intel og AMD laptops i november

Microsoft’s AI Tager Skridtet Videre For de af os, der…

2 Min Læsning
Dagens AIDagens AI
Follow US
© DagensAI. Danske AI nyheder.
  • Privatlivspolitik
  • Kontakt
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?