Insidere Advarer: OpenAI i Vild Kapløb Mod Fremtiden
Der er gang i den hos OpenAI, og ikke på den gode måde. En gruppe af nuværende og tidligere medarbejdere slår i bordet og kalder virksomhedens jagt på kunstig generel intelligens (AGI) for “hensynsløs og hemmelighedsfuld”.
Profit Før Sikkerhed?
OpenAI, som stormede ind på scenen med lanceringen af ChatGPT i 2022, er efter sigende mere interesseret i profit og vækst end i sikkerhed. Ifølge varslerne har OpenAI forsøgt at kvæle kritiske røster med stramme nondisparagement-aftaler, der forhindrer medarbejdere i at tale negativt om virksomheden, selv efter de har forladt den.
Offentligt Opråb
En åbenhjertig offentlig skrivelse fra gruppen kræver større gennemsigtighed og bedre beskyttelse af whistle-blowers. Det viser sig, at selv folk som Daniel Kokotajlo, en tidligere forsker hos OpenAI, var skeptiske overfor virksomheden. Han spår nu, at AGI kan være her allerede i 2027 og vurderer chancen for, at avanceret AI kan skade eller udrydde menneskeheden, til at være skræmmende 70%.
Et Historisk Øjeblik for Sikkerhedskultur
Det lader til, at OpenAI’s sikkerhedskultur har taget skade, når folk som Ilya Sutskever og Jan Leike forlader skuden. Disse eksperter havde været hjørnestene i OpenAI’s forsøg på at håndtere risici, men deres afgang har efterladt en følelse af, at sikkerheden nu står i baggrunden til fordel for “shiny products”.
AI’s Skyggefulde Fremtid
Gruppen opfordrer til, at AI-selskaber skal støtte en kultur med åben kritik og indføre en anonym rapporteringsproces for medarbejdere, så bekymringer om sikkerhed kan blive hørt. Den prominente advokat Lawrence Lessig hjælper dem med deres sag. Han understreger vigtigheden af, at ansatte kan ytre sig frit og uden frygt for repressalier.
Mens OpenAI lufter planer om at træne en ny flagskibs AI-model og oprette et nyt sikkerhedsudvalg, forbliver skeptikerne tilbageholdende. De vil have, at love fastholder og sikrer ansvarlighed inden for industrien, så det ikke blot er en hæsblæsende jagt mellem private virksomheder.
Så selvom OpenAI måske sigter mod stjernerne med deres teknologiske fremskridt, kunne de måske have glemt, at man først bør sikre en tryg og ansvarlig affyringsrampe. Ellers risikerer vi at blive brændt i et brag af bits og bytes.