Hackere bruger AI til at automatisere og tilpasse cyberangreb i hidtil uset omfang
Den kunstige intelligens har fundet vej til cyberkriminalitetens mørke hjørner, og resultatet er både fascinerende og skræmmende. En ny rapport fra sikkerhedsfirmaet CrowdStrike afslører, hvordan statslige hackergrupper i stigende grad udnytter AI til at gøre deres angreb hurtigere, mere præcise og langt mere effektive.
Når AI bliver hackerens bedste ven
Ifølge CrowdStrikes årlige trusselsjagt-rapport bruger cyberkriminelle nu AI til alt fra rekognoscering og sårbarheds-analyse til at producere overbevisende phishing-beskeder. Det er ikke længere science fiction – det er hverdagen for moderne cyberkriminalitet.
Den iransk-tilknyttede hackergruppe Charming Kitten har “sandsynligvis” brugt AI til at generere beskeder som del af en phishing-kampagne i 2024 rettet mod amerikanske og europæiske organisationer. En anden gruppe, som CrowdStrike kalder “Reconnaissance Spider”, glemte endda at fjerne AI-modellens standard prompt-respons-sætning fra teksten, de kopierede – et lille, men afslørende tegn på, hvor udbredt AI-brugen er blevet.
Nordkorea kører på AI-turbo
Særligt imponerende – om end på en skræmmende måde – er den nordkoreansk-tilknyttede hackergruppe “Famous Chollima”. Denne gruppe har formået at gennemføre over 320 indtrængninger på blot et år ved at integrere AI-drevne værktøjer i hele deres arbejdsgang.
“De har været i stand til at opretholde dette tempo ved at sammenvæve GenAI-drevne værktøjer, der automatiserer og optimerer arbejdsgange i hver fase af ansættelses- og beskæftigelsesprocessen,” forklarer CrowdStrike i rapporten.
AI hjælper hackerne med at udarbejde CV’er, administrere jobansøgninger og endda skjule deres identiteter under videointerviews. Det er en sofistikeret operation, der kanaliserer stjålne penge til Pyongyang og nogle gange fører til tyveri af virksomheders fortrolige data.
Phishing får et AI-løft
Tallene taler deres eget skræmmende sprog: Globalt er der rapporteret om en stigning på 1.265% i AI-drevne phishing-kampagner. AI gør det muligt at producere højt personaliserede, kontekst-bevidste og grammatisk præcise phishing-emails i stor skala.
Men det stopper ikke ved tekst. Deepfake-teknologi gør det nu muligt at efterligne lederes stemmer og ansigter med uhyggelig præcision. I 2024 blev der svindlet for 25 millioner dollars efter et deepfake-videoopkald, hvor en medarbejder blev narret til at overføre penge til svindlere, der udgav sig for at være virksomhedens ledelse.
Skygge-AI skaber nye sårbarheder
Mens virksomheder kæmper for at implementere AI-værktøjer, har hackerne også opdaget, at disse samme værktøjer kan være indgangsveje til netværk. CrowdStrike peger på, at “trussel-aktører bruger organisationers AI-værktøjer som indledende adgangsvektorer til at udføre forskellige post-exploitation-operationer.”
Problemet forværres af det, der kaldes “Shadow AI” – medarbejderes uautoriserede brug af AI-værktøjer. En ud af fem organisationer rapporterer om databrud forbundet med shadow AI, hvilket tilføjer betydelige omkostninger til sikkerhedsbrud.