Chokerende rapport afslører: AI-giganterne OpenAI og Anthropic dumper i sikkerhed
De største navne inden for kunstig intelligens står over for en brutal realitetscheck. En ny rapport fra Future of Life Institute (FLI) har givet verdens førende AI-virksomheder karakterer, der ville få enhver studerende til at skjule sig – og resultaterne er direkte skræmmende.
Katastrofale karakterer på tværs af branchen
Ingen – og vi gentager: INGEN – af de syv evaluerede AI-giganter opnåede bedre end karakter D i “eksistentiel sikkerhedsplanlægning”. Det er som at bygge et atomkraftværk uden sikkerhedsplan, som FLI’s medstifter Max Tegmark så rammende udtrykker det.
Anthropic kravlede sig til tops med et ynkeligt C+, mens OpenAI og Google DeepMind måtte nøjes med henholdsvis C og C-. Meta, xAI, Zhipu AI og DeepSeek klarede sig endnu værre. Disse er altså de virksomheder, der påstår at være på forkant med at skabe menneskelig-niveau AI!
Udviklingen løber løbsk – sikkerheden halter bagefter
Her kommer det virkelig skræmmende: AI-udviklingen accelererer dramatisk, mens sikkerhedsplanlægningen står nærmest stille. Hvor AI tidligere udviklede sig gradvist gennem årtier, ser vi nu kvantespring på måneder.
Nogle virksomheder forudsiger AGI (Artificial General Intelligence) inden for få år – nogle endda tidligere end 2030’erne. Men deres sikkerhedsforanstaltninger? De er stadig på stenalderniveau sammenlignet med etablerede ingeniørområder som luftfart og atomkraft.
Sorte bokse uden sikkerhedsgarantier
Det mest alarmerende er, at nutidens AI-systemer fungerer som “sorte bokse” – selv deres skabere forstår ikke fuldt ud, hvordan de træffer beslutninger. Forestil dig at køre bil med bind for øjnene, mens du samtidig accelererer mod lydens hastighed. Det er præcis, hvad der sker i AI-verdenen lige nu.
FLI’s rapport, der blev evalueret af eksperter som Stuart Russell og Sneha Revanur, afslører tre kritiske mangler:
- Specifikation: Virksomhederne kan ikke engang definere deres systemers mål ordentligt
- Robusthed: Systemerne kan ikke håndtere uventede situationer
- Sikkerhed: Der er ingen effektiv overvågning af systemernes adfærd
Værdijustering: Det uløste puslespil
“Kong Midas-problemet” illustrerer kerneudfordringen perfekt: Vi får præcis det, vi beder om – men det er måske ikke det, vi egentlig ønsker. Trods denne fundamentale udfordring kæmper virksomhederne stadig med at artikulere sammenhængende rammer for at sikre, at deres systemer handler i overensstemmelse med menneskelige værdier.
Det er ikke længere nok at forhindre ondsindede handlinger – AI-sikkerhed skal omfatte emotionelle og sociale påvirkninger. Men industrien er ikke engang tæt på at løse denne komplekse opgave.
Selvregulering er ikke nok
Rapporten kritiserer skarpt industriens overdrevne afhængighed af selvregulering og utilstrækkelige investeringer i tredjepartsevalueringer. Det er som at lade ræven passe gæs – og resultaterne taler for sig selv.
De 33 indikatorer, som FLI brugte til evalueringen, afslørede systematiske mangler på tværs af alle kritiske områder: risikovur