Dagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Reading: Britisk studie: Sikkerhedsforanstaltninger i LLM’er let at omgå
NYHEDSBREV
Dagens AIDagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Søg
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Har du en konto? Log ind
Follow US
© DagensAI. Alle Rettigheder Forbeholdes.
Dagens AI > Nyheder > Britisk studie: Sikkerhedsforanstaltninger i LLM’er let at omgå
Nyheder

Britisk studie: Sikkerhedsforanstaltninger i LLM’er let at omgå

Senest opdateret: 20. maj 2024 14:37
DagensAI
2 Min Læsning
Del
Del

Storbritanniens AI-udfordring: Nemt at snyde sikkerhedssystemerne

En ny undersøgelse fra AISI (AI Safety Institute i Storbritannien) viser, at store sprogmodeller kan manipuleres til at producere skadelige svar med foruroligende lethed. Forskerne testede fem populære sprogmodeller, der allerede er tilgængelige for offentligheden, og opdagede, at disse modeller kunne narres til at sige næsten hvad som helst.

Indhold
Storbritanniens AI-udfordring: Nemt at snyde sikkerhedssystemerneIntet model-navn, kun farverChokerende enkel manipulationLLM’er: Ikke kun dårlige nyhederFremtidens AI-sikkerhed står på spil

Intet model-navn, kun farver

Interessant nok har AISI valgt ikke at navngive de specifikke AI-modeller i deres forskning. I stedet har de givet hver model en farvekode som “grøn” og “blå”. Dette hemmelighedskræmmeri kunne skyldes ønsket om at bevare gode relationer mellem regeringen og AI-firmaerne.

Chokerende enkel manipulation

Undersøgelsen afslørede, at det var muligt at omgå sikkerhedsmekanismerne med enkelte teknikker, som f.eks. ved at starte en forespørgsel med fraseologi så uskyldig som “Sikker, jeg hjælper gerne”. Dette lykkedes uden avancerede hackerfærdigheder, hvilket rejser alvorlige spørgsmål om AI-sikkerhed.

LLM’er: Ikke kun dårlige nyheder

På trods af bekymringen for LLM’ernes sikkerhedsvulnerabiliteter, viste undersøgelsen også nogle imponerende evner. Flere modeller demonstrerede ekspertniveau viden inden for kemi og biologi, og løste komplekse problemstillinger på niveau med PhD-uddannede fagfolk.

Anthropic undskylder AI-fejl i retssag om sangtekster
16. maj 2025
Microsoft: Ingen beviser for skade i Gaza fra vores teknologi
16. maj 2025

Fremtidens AI-sikkerhed står på spil

AISI planlægger at udvide og fordype deres evalueringer af AI’s risici. Dette omfatter anvendelsen i avanceret videnskabelig planlægning, realistiske cybersikkerhedsscenarier og andre risikomodeller for autonome systemer. Der er ingen tvivl om, at resultaterne af denne forskning vil forme fremtidens diskussioner og beslutninger om AI-sikkerhed på globale topmøder.

TAGGED:AINyhederSikkerhed
Del denne artikel
Facebook Email Copy Link Print
Forrige Artikel AI kunst: Abstrakt Virvel Mønster
Næste Artikel AI-deepfake Putin-film sælger stort i Cannes
Ingen kommentarer Ingen kommentarer

Skriv et svar Annuller svar

Du skal være logget ind for at skrive en kommentar.

200FollowersLike
300FollowersFollow
1kFollowersPin
- Annonce-
Japanske Plakater

Relaterede AI Artikler

Nyheder

DeepMind-chef: Googles AI-investeringer kan overstige 100 milliarder dollars

Google's AI-Udgiftsbudget: Mere End Bare Lommeændringer I en verden, hvor…

4 Min Læsning
Nyheder

Databricks investerer massivt i AI-talent med milliardfinansiering

Databricks skyder millioner i AI-talentkrigen AI-verdenen er blevet en arena…

3 Min Læsning
Nyheder

Canada investerer $2,4 milliarder i AI-industrien for at styrke national kapacitet og sikkerhed

Kanadas AI-industri får et milliardboost! Den 7. april annoncerede den…

3 Min Læsning
AI kunst

AI kunst: Kosmisk Fantasi i Flaske

Komposition og Elementer Billedet præsenterer en frodig visuel fortælling indkapslet…

2 Min Læsning
Dagens AIDagens AI
Follow US
© DagensAI. Danske AI nyheder.
  • Privatlivspolitik
  • Kontakt
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?