Skjulte skurke: Sådan misbruger cyberkriminelle Grok-AI til at sprede malware til millioner af brugere
Kunstig intelligens er ikke kun et værktøj for de gode. Nu har cybersikkerhedsforskere opdaget, hvordan bagmænd udnytter Elon Musks stolthed – Grok AI-assistenten på X – til at omgå platformens sikkerhedsforanstaltninger og sprede malware til millioner af intetanende brugere. Velkommen til “Grokking” – den nye kreative metode i cyberkriminelles værktøjskasse.
Sådan fungerer det smarte fupnummer
Det er næsten genialt i sin enkelhed: Cyberkriminelle opretter betalte reklameopslag med fristende voksenindhold. Mens selve videoen ser harmløs ud for X’s sikkerhedssystemer, gemmer bagmændene de ondartede links i “From:”-metadatafeltet under videoafspilleren – et område X tilsyneladende ikke scanner efter skadeligt indhold.
Derefter kommer det smarte træk: De tagger Grok-AI’en i kommentarer til opslaget med simple spørgsmål som “hvor kommer denne video fra?”. Som den hjælpsomme (men naive) AI-assistent, Grok er, svarer den prompte og afslører det skjulte link – direkte i en offentlig kommentar, som alle kan se.
“Et ondsindet link, som X udtrykkeligt forbyder i annoncer, dukker pludselig op i et opslag fra den systemtroværdige Grok-konto, placeret under et viralt promoveret indlæg og spredes direkte til millioner af feeds og søgeresultater,” forklarer Nati Tal, leder af Guardio Labs, som afslørede tricket.
Et koordineret angreb i stor skala
Dette er ikke bare nogle få tilfældige hændelser. Guardio Labs har identificeret hundredvis af konti, der anvender denne teknik, hver med hundredvis eller endda tusindvis af lignende opslag. De fortsætter typisk, indtil kontoerne bliver suspenderet for at overtræde platformens regler.
“De ser ud til at poste non-stop i flere dage, indtil kontoen bliver suspenderet. Så der er definitivt mange af dem, og det ser meget organiseret ud,” rapporterer Guardio Labs.
Fra harmløs AI til farlig medskyldig
Når brugere klikker på disse links, føres de til skumle annoncenetværk, der distribuerer falske CAPTCHA-svindel, informationsstjælende malware og andet ondsindet indhold via såkaldte “smartlinks”.
Det særligt problematiske ved denne metode er, at den ikke kun omgår X’s sikkerhedssystemer – den forstærker også de skadelige links’ troværdighed og rækkevidde. Når Grok deler et link, får det både øget synlighed og bedre placering i søgemaskinerne. Det er jo trods alt delt af en “troværdig” AI på en populær platform.
En ny æra af AI-manipulation
“Grokking”-metoden illustrerer perfekt de nye sikkerhedsudfordringer, der opstår i krydsfeltet mellem sociale medier og AI. Mens vi fejrer AI’s evne til at hjælpe og engagere brugere, finder cyberkriminelle nye måder at udnytte disse teknologier.
Det afslører også en kritisk blindvinkel i X’s sikkerhedsinfrastruktur: Mens selve annonceindholdet scannes grundigt, overses metadata-felter, der kan indeholde præcis de samme skadelige elementer.
Hvad betyder det for almindelige brugere?
For de millioner af X-brugere betyder denne udvikling, at man bør være ekstra forsigtig med links – selv dem der kommer fra tilsyneladende pålidelige kilder som platformens egen AI-assistent. Hvis Grok deler et link som svar på et spørgsmål om en video med voksenindhold, er der god grund til at være på vagt.
Mens X uden tvivl arbejder på at lukke dette sikkerhedshul, er det en påmindelse om, at i den digitale verden kan selv de mest avancerede AI-systemer blive udnyttet, hvis der findes bare den mindste sprække i sikkerhedsforanstaltningerne.
Det er også en skarp påmindelse om, at AI-systemer kun er så sikre som de data og forespørgsler, de reagerer på – og at vi måske bør tænke os om en ekstra gang, før vi beder vores AI-assistenter om at hjælpe os med at finde indhold, der virker for godt til at være sandt.