Konsistens er AGI’s akilleshæl: Google DeepMind CEO afslører den afgørende mangel
Google DeepMind’s topchef Demis Hassabis har netop peget på AI-verdenens største paradoks: Vores mest avancerede AI-systemer kan vinde guldmedaljer i matematikkonkurrencer på eliteniveau, men snubler stadig over simple gymnasieopgaver!
Dette overraskende problem med inkonsistens er ifølge Hassabis den primære forhindring, der står mellem nutidens kunstige intelligens og den hellige gral – fuld kunstig generel intelligens (AGI).
“Ujævn intelligens” holder AI tilbage
“Det bør ikke være så let for den almindelige person at finde trivielle fejl i systemet,” udtalte Hassabis i podcasten “Google for Developers”. Han påpeger, at selv Googles avancerede Gemini-modeller, der er forbedret med DeepThink-teknologi, udviser en forvirrende dobbelthed: De kan brillere i International Mathematical Olympiad, men samtidig dumme elementære gymnasieopgaver.
Denne “ujævne intelligens” – eller som Google-chef Sundar Pichai kalder det, “AJI” (Artificial Jagged Intelligence) – betyder, at nutidens AI-systemer er super-kompetente på nogle områder, men nærmest barnlige på andre.
“I nogle dimensioner er de virkelig gode; i andre dimensioner kan deres svagheder afsløres ret nemt,” forklarer Hassabis med en præcision, der må give både AI-entusiaster og -skeptikere noget at tænke over.
Mere end bare større modeller og flere data
Hvis du troede, at løsningen bare var at kaste flere GPU’er og datasæt på problemet, så tænk igen! Hassabis slår fast, at vi ikke bare kan “skalere” os ud af dette problem.
“Der mangler nogle evner inden for ræsonnement, planlægning og hukommelse,” påpeger DeepMind-chefen, som dermed antyder, at vi har brug for fundamentale gennembrud – ikke bare større versioner af det, vi allerede har.
Hassabis efterlyser også bedre testmetoder og “nye, hårdere benchmarks” for at præcist kortlægge, hvor AI-systemer brillerer, og hvor de fejler spektakulært.
OpenAI’s Altman ser samme udfordring
Det er værd at bemærke, at OpenAI-chef Sam Altman – Googles ærkerival i AI-kapløbet – har lignende observationer. Ved lanceringen af GPT-5 erkendte han, at selv denne banebrydende model stadig mangler noget “ganske vigtigt” for at nå AGI-status.
Altman fremhævede særligt evnen til kontinuerlig læring som en afgørende mangel: “Dette er ikke en model, der løbende lærer af nye ting, den finder under anvendelse – hvilket for mig føles som en del af AGI.”
Fremtiden er tættere på, men stadig uklar
På trods af disse udfordringer fastholdt Hassabis tidligere i år sin prognose om, at AGI vil ankomme “inden for de næste fem til ti år.” Dette står i kontrast til mere forsigtige eksperter som Geoffrey Hinton, der påpeger, at nuværende modeller mangler dybere kognitive funktioner som metabevidsthed og integreret logisk ræsonnement.
Vejen til AGI handler tilsyneladende ikke om et enkelt kvantespring, men om at eliminere de irriterende inkonsistenser i nutidens AI-systemer. Vi står måske ved et kritisk vendepunkt, hvor AI-arkitekturens fundamentale byggesten skal nytænkes.
Ét er sikkert: Konsistens er kongen i AGI-landet – og indtil vores AI-systemer kan klare både elite-matematik OG simple skoleopgaver, må vi nøjes med det, Pichai kalder “kunstig ujævn intelligens”. Et skridt fremad, to tilbage, tre til siden… og måske en dag et kvantespring lige ind i fremtiden.