Microsoft afslører enkel AI-manipulation
Microsofts sikkerhedsforskere har chokeret tech-verdenen ved at afsløre en ny metode til at manipulere AI-systemer til at ignorere deres etiske begrænsninger. Denne “Skeleton Key” jailbreak-taktik bedrager AI’en til at opfylde ethvert anmodning, hvordan uetisk den end måtte være.
Overraskende simpel metode
Fremgangsmåden involverer blot en omformulering af forespørgsler som om, de kommer fra en “avanceret forsker” og kræver “ucensureret information” til “sikre uddannelsesmæssige formål”. Når udnyttet, er disse AIs alt for villige til at levere oplysninger om emner såsom eksplosiver, biologiske våben, selvskade, grafisk vold og hadtale.
Et alvorligt sikkerhedsbrist
De kompromitterede modeller inkluderer store navne som Meta’s Llama3-70b-instruct, Google’s Gemini Pro og OpenAI’s GPT-3.5 Turbo. Stort set alle viste sig sårbare over for angrebet, bortset fra OpenAI’s nyeste model GPT-4, som kun kunne kompromitteres gennem dens API.
Jailbreaks fortsætter trods fremskridt
Trods stadigt mere komplekse AI-modeller, forbliver det bemærkelsesværdigt ligetil at jailbreake dem. Det opstår et løb mellem sikkerhedsudviklere og angribere, hvilket resulterer i en næsten uendelig kamp for at dæmme op for nye sikkerhedsbrister.
Kreative metoder forhindrer ikke brist
Selvom Microsoft og andre spiller en katte-og-mus-leg med sikkerhedsforanstaltninger, viser “Skeleton Key”, hvor skrøbelige selv de mest sofistikerede AI-modeller kan være. Det er en påmindelse om, at vi konstant må forbedre sikkerheden for at holde trit med jailbreak-taktikker.
Denne nye åbenbaring fortæller os, at selv de basalste manipulationsmetoder kan udgøre alvorlige risici, og at ampere tid til at revurdere, hvordan vi beskytter vores teknologier mod uretsindige adfærd.