Dagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Reading: Britisk studie: Sikkerhedsforanstaltninger i LLM’er let at omgå
NYHEDSBREV
Dagens AIDagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Søg
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Har du en konto? Log ind
Follow US
© DagensAI. Alle Rettigheder Forbeholdes.
Dagens AI > Nyheder > Britisk studie: Sikkerhedsforanstaltninger i LLM’er let at omgå
Nyheder

Britisk studie: Sikkerhedsforanstaltninger i LLM’er let at omgå

Senest opdateret: 20. maj 2024 14:37
DagensAI
2 Min Læsning
Del
Del

Storbritanniens AI-udfordring: Nemt at snyde sikkerhedssystemerne

En ny undersøgelse fra AISI (AI Safety Institute i Storbritannien) viser, at store sprogmodeller kan manipuleres til at producere skadelige svar med foruroligende lethed. Forskerne testede fem populære sprogmodeller, der allerede er tilgængelige for offentligheden, og opdagede, at disse modeller kunne narres til at sige næsten hvad som helst.

Indhold
Storbritanniens AI-udfordring: Nemt at snyde sikkerhedssystemerneIntet model-navn, kun farverChokerende enkel manipulationLLM’er: Ikke kun dårlige nyhederFremtidens AI-sikkerhed står på spil

Intet model-navn, kun farver

Interessant nok har AISI valgt ikke at navngive de specifikke AI-modeller i deres forskning. I stedet har de givet hver model en farvekode som “grøn” og “blå”. Dette hemmelighedskræmmeri kunne skyldes ønsket om at bevare gode relationer mellem regeringen og AI-firmaerne.

Chokerende enkel manipulation

Undersøgelsen afslørede, at det var muligt at omgå sikkerhedsmekanismerne med enkelte teknikker, som f.eks. ved at starte en forespørgsel med fraseologi så uskyldig som “Sikker, jeg hjælper gerne”. Dette lykkedes uden avancerede hackerfærdigheder, hvilket rejser alvorlige spørgsmål om AI-sikkerhed.

LLM’er: Ikke kun dårlige nyheder

På trods af bekymringen for LLM’ernes sikkerhedsvulnerabiliteter, viste undersøgelsen også nogle imponerende evner. Flere modeller demonstrerede ekspertniveau viden inden for kemi og biologi, og løste komplekse problemstillinger på niveau med PhD-uddannede fagfolk.

Meta bruger milliarder på AI-talenter – ikke alle vil med
10. juli 2025
Ny AI-guide hjælper virksomheder med krav i AI Act
7. juli 2025

Fremtidens AI-sikkerhed står på spil

AISI planlægger at udvide og fordype deres evalueringer af AI’s risici. Dette omfatter anvendelsen i avanceret videnskabelig planlægning, realistiske cybersikkerhedsscenarier og andre risikomodeller for autonome systemer. Der er ingen tvivl om, at resultaterne af denne forskning vil forme fremtidens diskussioner og beslutninger om AI-sikkerhed på globale topmøder.

TAGGED:AINyhederSikkerhed
Del denne artikel
Facebook Email Copy Link Print
Forrige Artikel AI kunst: Abstrakt Virvel Mønster
Næste Artikel AI-deepfake Putin-film sælger stort i Cannes
Ingen kommentarer Ingen kommentarer

Skriv et svar Annuller svar

Du skal være logget ind for at skrive en kommentar.

200FollowersLike
300FollowersFollow
1kFollowersPin
- Annonce-
Japanske Plakater

Relaterede AI Artikler

AI kunst

AI kunst: Te-fantasi i natten

Visuel Komposition Billedet er en fantastisk kobling af detaljer og…

1 Min Læsning
Nyheder

Forskere foreslår metoder til at bygge sammenkoblet “Kollektiv AI”

Hive Minds & Robotfluencer: Fremtiden for AI er Kollektiv Forestil…

3 Min Læsning
Nyheder

Kvinder underrepræsenteret i AI-branchen, men brug af AI kan fremme karrierer

Kvinder og AI: Hvorfor er vi bagefter, og hvordan kan…

3 Min Læsning
DanmarkNyheder

Googles chatbot Gemini kommer til mobilen i Danmark

Googles chatbot Gemini kommer nu som mobil-app i Danmark og…

2 Min Læsning
Dagens AIDagens AI
Follow US
© DagensAI. Danske AI nyheder.
  • Privatlivspolitik
  • Kontakt
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?