OpenAI’s Grand AI Safety Plan Falls Flat: A Comedy of Errors
I juli 2023 var OpenAI i rampelyset med deres løfte om at dedikere 20% af deres computerkraft til at bekæmpe den mest farlige form for AI. Superalignment-teamet skulle sikre en kontrollerbar og sikker Superintelligent AI— et hypotetisk system klogere end os alle tilsammen. Men mindre end et år efter er teamet historisk nedlagt. Hvad gik galt?
20% Løftet: Sand eller Science Fiction?
OpenAI’s løfte om at allokere 20% af deres computerkraft til Superalignment-teamet blev hurtigt en smule…litterær? Selvom teamet gentagne gange anmodede om adgang til de nødvendige GPU’er, blev deres anmodninger afvist af OpenAI’s ledelse. Helt ærligt, hvem har brug for AI-sikkerhed, når du har produktlanceringer, ikke?
Compute Complications: Ingen Klar Vejledning
Medarbejdere på Superalignment-teamet fik ingen klar definition af, hvordan 20%-computeren blev beregnet. Var det 20% hvert år, 5% hvert år over fire år, eller et tal genereret af en chat-bot? Der er stadig ingen klarhed, men én ting er sikkert: de fik aldrig 20%.
Intern Drama: En AI Novelle
Som om det ikke var nok, blev teamets anmodninger om “flex”-compute også konsekvent afvist. Bob McGrew, vicepræsident for forskning, informeret teamet om dette, men Mira Murati, Chief Technology Officer, havde også en finger med i spillet.
Exit Stage Left: Forskerne Forlader Skuden
Teamlederne Ilya Sutskever og Jan Leike trak sig begge hurtigt efter en højdramatisk periode ved OpenAI. Leike kritiserede offentligt virksomhedens manglende sikkerhedskultur og bemærkede, at det blev sværere og sværere at få det nødvendige compute for at fuldføre kritisk forskning.
Scarlett Johansson’s AI Alamo
For at gøre tingene endnu mere interessante, hævder Scarlett Johansson, at hendes stemme blev klonet af OpenAI til deres AI-stemme “Sky.” Selvfølgelig siger OpenAI, at det slet ikke er hende, men en hemmelig skuespillerinde. Hvem elsker ikke en god konspiration?
Fremtidens AI: Mere Shiny, Mindre Safe?
OpenAI’s ledelse siger, de vil fortsætte med at teste modeller snarere end at udvikle teoretiske løsninger for fremtidige, kraftigere modeller. Men med tabet af nøgleteamets medlemmer og en usikker sikkerhedsfremtid, må vi spørge os selv: Hvordan ser fremtiden egentlig ud for AI-sikkerhed?
Alt i alt, en klassisk historie om store løfter, intern spænding, og en snert af Hollywood-dramatik. Og som en klog mand (måske en AI) en gang sagde: Sandheden kan være mærkeligere end fiktion. Eller, i dette tilfælde, en hel del mere underholdende.