Dagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Reading: Britisk studie: Sikkerhedsforanstaltninger i LLM’er let at omgå
NYHEDSBREV
Dagens AIDagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Søg
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Har du en konto? Log ind
Follow US
© DagensAI. Alle Rettigheder Forbeholdes.
Dagens AI > Nyheder > Britisk studie: Sikkerhedsforanstaltninger i LLM’er let at omgå
Nyheder

Britisk studie: Sikkerhedsforanstaltninger i LLM’er let at omgå

Senest opdateret: 20. maj 2024 14:37
DagensAI
2 Min Læsning
Del
Del

Storbritanniens AI-udfordring: Nemt at snyde sikkerhedssystemerne

En ny undersøgelse fra AISI (AI Safety Institute i Storbritannien) viser, at store sprogmodeller kan manipuleres til at producere skadelige svar med foruroligende lethed. Forskerne testede fem populære sprogmodeller, der allerede er tilgængelige for offentligheden, og opdagede, at disse modeller kunne narres til at sige næsten hvad som helst.

Indhold
Storbritanniens AI-udfordring: Nemt at snyde sikkerhedssystemerneIntet model-navn, kun farverChokerende enkel manipulationLLM’er: Ikke kun dårlige nyhederFremtidens AI-sikkerhed står på spil

Intet model-navn, kun farver

Interessant nok har AISI valgt ikke at navngive de specifikke AI-modeller i deres forskning. I stedet har de givet hver model en farvekode som “grøn” og “blå”. Dette hemmelighedskræmmeri kunne skyldes ønsket om at bevare gode relationer mellem regeringen og AI-firmaerne.

Chokerende enkel manipulation

Undersøgelsen afslørede, at det var muligt at omgå sikkerhedsmekanismerne med enkelte teknikker, som f.eks. ved at starte en forespørgsel med fraseologi så uskyldig som “Sikker, jeg hjælper gerne”. Dette lykkedes uden avancerede hackerfærdigheder, hvilket rejser alvorlige spørgsmål om AI-sikkerhed.

LLM’er: Ikke kun dårlige nyheder

På trods af bekymringen for LLM’ernes sikkerhedsvulnerabiliteter, viste undersøgelsen også nogle imponerende evner. Flere modeller demonstrerede ekspertniveau viden inden for kemi og biologi, og løste komplekse problemstillinger på niveau med PhD-uddannede fagfolk.

OnePlus afslører AI-mobil – kun til Indien, ikke USA
27. maj 2025
Nick Clegg advarer: Forudgående samtykke vil dræbe AI-industrien
26. maj 2025

Fremtidens AI-sikkerhed står på spil

AISI planlægger at udvide og fordype deres evalueringer af AI’s risici. Dette omfatter anvendelsen i avanceret videnskabelig planlægning, realistiske cybersikkerhedsscenarier og andre risikomodeller for autonome systemer. Der er ingen tvivl om, at resultaterne af denne forskning vil forme fremtidens diskussioner og beslutninger om AI-sikkerhed på globale topmøder.

TAGGED:AINyhederSikkerhed
Del denne artikel
Facebook Email Copy Link Print
Forrige Artikel AI kunst: Abstrakt Virvel Mønster
Næste Artikel AI-deepfake Putin-film sælger stort i Cannes
Ingen kommentarer Ingen kommentarer

Skriv et svar Annuller svar

Du skal være logget ind for at skrive en kommentar.

200FollowersLike
300FollowersFollow
1kFollowersPin
- Annonce-
Japanske Plakater

Relaterede AI Artikler

Nyheder

Giganterne kæmper om AI-tronen: Nvidia møder øget pres

Kampen om AI-chippen: Giganterne går i krig AI-verdenen er inde…

3 Min Læsning
AI kunst

AI kunst: Psykadelisk Farveorgie

Farvespil og Komposition Ved første øjekast på værket fremstår det…

2 Min Læsning
Nyheder

AI-musikplatformen Udio skaber nu 10 sange i sekundet

AI's Musikalske Fabrik: 10 Sange Hvert Sekund! Forestil dig en…

3 Min Læsning
Nyheder

Interview med Chris Benjaminsen, medstifter af FRVR og direktør for kanaler

En verden hvor alle kan skabe deres eget videospil Forestil…

2 Min Læsning
Dagens AIDagens AI
Follow US
© DagensAI. Danske AI nyheder.
  • Privatlivspolitik
  • Kontakt
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?