Storbritanniens AI-udfordring: Nemt at snyde sikkerhedssystemerne
En ny undersøgelse fra AISI (AI Safety Institute i Storbritannien) viser, at store sprogmodeller kan manipuleres til at producere skadelige svar med foruroligende lethed. Forskerne testede fem populære sprogmodeller, der allerede er tilgængelige for offentligheden, og opdagede, at disse modeller kunne narres til at sige næsten hvad som helst.
Intet model-navn, kun farver
Interessant nok har AISI valgt ikke at navngive de specifikke AI-modeller i deres forskning. I stedet har de givet hver model en farvekode som “grøn” og “blå”. Dette hemmelighedskræmmeri kunne skyldes ønsket om at bevare gode relationer mellem regeringen og AI-firmaerne.
Chokerende enkel manipulation
Undersøgelsen afslørede, at det var muligt at omgå sikkerhedsmekanismerne med enkelte teknikker, som f.eks. ved at starte en forespørgsel med fraseologi så uskyldig som “Sikker, jeg hjælper gerne”. Dette lykkedes uden avancerede hackerfærdigheder, hvilket rejser alvorlige spørgsmål om AI-sikkerhed.
LLM’er: Ikke kun dårlige nyheder
På trods af bekymringen for LLM’ernes sikkerhedsvulnerabiliteter, viste undersøgelsen også nogle imponerende evner. Flere modeller demonstrerede ekspertniveau viden inden for kemi og biologi, og løste komplekse problemstillinger på niveau med PhD-uddannede fagfolk.
Fremtidens AI-sikkerhed står på spil
AISI planlægger at udvide og fordype deres evalueringer af AI’s risici. Dette omfatter anvendelsen i avanceret videnskabelig planlægning, realistiske cybersikkerhedsscenarier og andre risikomodeller for autonome systemer. Der er ingen tvivl om, at resultaterne af denne forskning vil forme fremtidens diskussioner og beslutninger om AI-sikkerhed på globale topmøder.