Ilya Sutskever, en af medstifterne af OpenAI, har taget en enorm springbræt ud af det velkendte firma og landet et sted, der skriger af nye eventyr: Safe Superintelligence (SSI). Med en svimlende kapitalrejse på 1 milliard dollars i sin baglomme og en mission, der næsten er lige så catchy som den er ambitiøs, har Sutskever kun én ting for øje: At skabe en AI, der ikke forvandler os alle sammen til robot-bøffer.
Fra idémager til penge-snegl
Hvordan får man investorer som Andreessen Horowitz og Sequoia Capital til at kaste penge efter dig? Tilsyneladende ved at have en stærk mission og en demonstreret evne til at ryste AI-verdenen. Og selvfølgelig hjælper det, når man sidder ved siden af folk som Daniel Gross og Daniel Levy, der både har Apple-støv og OpenAI-erfaring bag sig.
Slim, men med stil
Sutskevers tidligere oplevelser med OpenAI var ikke uden dramatik. En midlertidig *ouster* af Sam Altman fik næsten hele personalet til at true med at tage deres talenter andetsteds hen – det må have været noget af et show. “Jeg dybt fortryder min deltagelse i bestyrelsens handlinger,” skrev Sutskever senere, som om det var en dårlig episode af en sæbeopera, vi alle lod os rive med af.
Det er ikke en fugl, det er Superalignment!
Alt imens OpenAI havde deres egne dramaer, besluttede Sutskever sig for at tage en genvej til superintelligens med SSI. Planen? Hold det simpelt, og fokuser på sikkerhed. Han hævder, at SSI’s enkeltfokuserede tilgang vil blive den gyldne sti, der fører os til AI-fremtiden – uden behov for boksehandsker og virtuelle kampe.
En vision uden sidespejle
SSI’s mantra er klart: “Ingen distraktioner af management overhead eller produktcyklusser”. Lad os håbe, at det betyder, at der ikke vil være flere uventede drejninger i plotlinjen, der sætter AI-verdenen på gloende pæle. Fra Sutskever kan vi kun forvente én ting: At den store vision står stærkt og skinnende på toppen af AI-hierarkiet.