Microsoft’s AI-webløsning ramt af pinlig sikkerhedsfejl
I en udvikling, der sender rystelser gennem tech-verdenen, har Microsofts ambitiøse plan om at revolutionere internettet med AI allerede mødt sin første store forhindring. Kun få måneder efter den storslåede lancering af NLWeb-protokollen – som Microsoft kaldte “HTML for det agentiske web” – har sikkerhedsforskere opdaget en kritisk sårbarhed i systemet.
NLWeb, der skulle give ChatGPT-lignende søgefunktioner til enhver hjemmeside eller app, viste sig at indeholde en klassisk “path traversal”-fejl, der tillader fjernbrugere at læse følsomme filer, herunder systemkonfigurationsfiler og endda API-nøgler til OpenAI eller Gemini. Det pinlige ved situationen? Sårbarheden var så basal, at den kunne udnyttes ved blot at besøge en misdannet URL.
Elementær fejl i højteknologisk projekt
Sikkerhedsforskerne Aonan Guan og Lei Wang rapporterede sårbarheden til Microsoft den 28. maj, blot uger efter NLWeb blev præsenteret. Microsoft udsendte en rettelse den 1. juli, men har – bemærkelsesværdigt nok – afvist at udstede en CVE for problemet, hvilket ellers er industristandard for klassificering af sårbarheder.
“Denne sag er en kritisk påmindelse om, at når vi bygger nye AI-drevne systemer, skal vi genvurdere virkningen af klassiske sårbarheder,” udtaler Aonan Guan, som til daglig arbejder som senior cloud-sikkerhedsingeniør hos Wyze.
Katastrofale konsekvenser for AI-agenter
Ifølge Guan er lækage af en .env-fil i en webapplikation alvorlig nok i sig selv, men for en AI-agent er det intet mindre end “katastrofalt”. “Disse filer indeholder API-nøgler til LLM’er som GPT-4, som udgør agentens kognitive motor,” forklarer han. “En angriber stjæler ikke bare et login; de stjæler agentens evne til at tænke, ræsonnere og handle.”
Microsoft fastholder, at “dette problem blev rapporteret ansvarligt, og vi har opdateret open-source-repositoriet,” og tilføjer at “kunder, der bruger repositoriet, er automatisk beskyttet.”
Balancegang mellem innovation og sikkerhed
Mens Microsoft fortsætter med at implementere AI-funktioner i Windows gennem Model Context Protocol (MCP), rejser denne hændelse alvorlige spørgsmål om virksomhedens prioritering af sikkerhed. Kan tech-giganten finde balancen mellem hastighed i udrulningen af nye AI-funktioner og den nødvendige grundighed i sikkerhedsarbejdet?
Man fristes næsten til at spørge, om Microsofts AI selv kunne have fundet fejlen hurtigere end deres sikkerhedsteam – eller om vi måske har brug for en AI specifikt designet til at finde huller i andre AI-systemer. Det er i hvert fald tydeligt, at selv de største tech-virksomheder stadig kan snuble over de mest basale sikkerhedsprincipper i jagten på den næste store AI-revolution.