Dagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Reading: Microsofts nye AI-system lækkede følsomme data via simpel fejl
NYHEDSBREV
Dagens AIDagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Søg
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Har du en konto? Log ind
Follow US
© DagensAI. Alle Rettigheder Forbeholdes.
Dagens AI > Nyheder > Microsofts nye AI-system lækkede følsomme data via simpel fejl
Nyheder

Microsofts nye AI-system lækkede følsomme data via simpel fejl

Senest opdateret: 6. august 2025 18:39
DagensAI
3 Min Læsning
Del
Futuristisk bybillede med høje skyskrabere og lysende datalinjer med et stort digitalt hjernehologram over, som symboliserer kunstig intelligens og avanceret teknologiintegration. - Kunstig intelligens AI
Del

Microsoft’s AI-webløsning ramt af pinlig sikkerhedsfejl

I en udvikling, der sender rystelser gennem tech-verdenen, har Microsofts ambitiøse plan om at revolutionere internettet med AI allerede mødt sin første store forhindring. Kun få måneder efter den storslåede lancering af NLWeb-protokollen – som Microsoft kaldte “HTML for det agentiske web” – har sikkerhedsforskere opdaget en kritisk sårbarhed i systemet.

Indhold
Microsoft’s AI-webløsning ramt af pinlig sikkerhedsfejlElementær fejl i højteknologisk projektKatastrofale konsekvenser for AI-agenterBalancegang mellem innovation og sikkerhed

NLWeb, der skulle give ChatGPT-lignende søgefunktioner til enhver hjemmeside eller app, viste sig at indeholde en klassisk “path traversal”-fejl, der tillader fjernbrugere at læse følsomme filer, herunder systemkonfigurationsfiler og endda API-nøgler til OpenAI eller Gemini. Det pinlige ved situationen? Sårbarheden var så basal, at den kunne udnyttes ved blot at besøge en misdannet URL.

Elementær fejl i højteknologisk projekt

Sikkerhedsforskerne Aonan Guan og Lei Wang rapporterede sårbarheden til Microsoft den 28. maj, blot uger efter NLWeb blev præsenteret. Microsoft udsendte en rettelse den 1. juli, men har – bemærkelsesværdigt nok – afvist at udstede en CVE for problemet, hvilket ellers er industristandard for klassificering af sårbarheder.

“Denne sag er en kritisk påmindelse om, at når vi bygger nye AI-drevne systemer, skal vi genvurdere virkningen af klassiske sårbarheder,” udtaler Aonan Guan, som til daglig arbejder som senior cloud-sikkerhedsingeniør hos Wyze.

En klynge af oplyste servercontainere står i en snedækket dal i skumringen, omgivet af bjerge under en glødende himmel med grønt nordlys. Fjerntliggende lys spores langs en snoet flod i baggrunden. - Kunstig intelligens AI
OpenAI åbner stort bæredygtigt AI-datacenter i Norge
3. august 2025
En person ved en computer observerer, hvordan en lysende digital figur dukker op fra skærmen og ind i en levende, fantastisk verden fyldt med robotter, blomster, geometriske former og en regnbuestråle. - Kunstig intelligens AI
Google lancerer AI, der skaber spilverdener i realtid
5. august 2025

Katastrofale konsekvenser for AI-agenter

Ifølge Guan er lækage af en .env-fil i en webapplikation alvorlig nok i sig selv, men for en AI-agent er det intet mindre end “katastrofalt”. “Disse filer indeholder API-nøgler til LLM’er som GPT-4, som udgør agentens kognitive motor,” forklarer han. “En angriber stjæler ikke bare et login; de stjæler agentens evne til at tænke, ræsonnere og handle.”

Microsoft fastholder, at “dette problem blev rapporteret ansvarligt, og vi har opdateret open-source-repositoriet,” og tilføjer at “kunder, der bruger repositoriet, er automatisk beskyttet.”

Balancegang mellem innovation og sikkerhed

Mens Microsoft fortsætter med at implementere AI-funktioner i Windows gennem Model Context Protocol (MCP), rejser denne hændelse alvorlige spørgsmål om virksomhedens prioritering af sikkerhed. Kan tech-giganten finde balancen mellem hastighed i udrulningen af nye AI-funktioner og den nødvendige grundighed i sikkerhedsarbejdet?

Man fristes næsten til at spørge, om Microsofts AI selv kunne have fundet fejlen hurtigere end deres sikkerhedsteam – eller om vi måske har brug for en AI specifikt designet til at finde huller i andre AI-systemer. Det er i hvert fald tydeligt, at selv de største tech-virksomheder stadig kan snuble over de mest basale sikkerhedsprincipper i jagten på den næste store AI-revolution.

TAGGED:AINyheder
Del denne artikel
Facebook Email Copy Link Print
Forrige Artikel Illustration af et barn i sengen omgivet af legesyge, tegneserieagtige fisk og spaghetti. Voksne bruger tablets til at skabe animerede godnathistorier. Teksten fremhæver nyskabelser inden for godnathistorier og muligheder som animation, genrer og oversættelse. - Kunstig intelligens AI Google lancerer AI-genererede børnebøger med Gemini
Næste Artikel En sikkerhedsofficer står i et kontrolrum med store digitale skærme, der viser flag, sikkerhedsikoner og en overskrift om overvågning og bagdøre, mens operatører arbejder ved computerstationer. - Kunstig intelligens AI Nvidia afviser USA’s krav om bagdøre i AI-chips
Ingen kommentarer Ingen kommentarer

Skriv et svar Annuller svar

Du skal være logget ind for at skrive en kommentar.

200FollowersLike
300FollowersFollow
1kFollowersPin
- Annonce-
Japanske Plakater

Relaterede AI Artikler

Nyheder

PauseAI-demonstranter kræver stop for træning af AI-modeller.

Global Uro over AI's Sikkerhed På en ganske almindelig mandag,…

2 Min Læsning
Nyheder

Meta satser på atomkraft for at drive fremtidens AI-datacentre

Meta satser på atomkraft i jagten på AI-energi Meta har…

3 Min Læsning
AI kunst

AI kunst: Surrealistisk Farvekalejdoskop

Farvebrug og Komposition Værket er en eksplosion af farver, der…

2 Min Læsning
Nyheder

Republikanere vil forbyde AI-regler i stater i 10 år

Republikanere vil bremse staternes AI-regler i et helt årti I…

3 Min Læsning
Dagens AIDagens AI
Follow US
© DagensAI. Danske AI nyheder.
  • Privatlivspolitik
  • Kontakt
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?