Dagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Reading: Britisk studie: Sikkerhedsforanstaltninger i LLM’er let at omgå
NYHEDSBREV
Dagens AIDagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Søg
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Har du en konto? Log ind
Follow US
© DagensAI. Alle Rettigheder Forbeholdes.
Dagens AI > Nyheder > Britisk studie: Sikkerhedsforanstaltninger i LLM’er let at omgå
Nyheder

Britisk studie: Sikkerhedsforanstaltninger i LLM’er let at omgå

Senest opdateret: 20. maj 2024 14:37
DagensAI
2 Min Læsning
Del
Del

Storbritanniens AI-udfordring: Nemt at snyde sikkerhedssystemerne

En ny undersøgelse fra AISI (AI Safety Institute i Storbritannien) viser, at store sprogmodeller kan manipuleres til at producere skadelige svar med foruroligende lethed. Forskerne testede fem populære sprogmodeller, der allerede er tilgængelige for offentligheden, og opdagede, at disse modeller kunne narres til at sige næsten hvad som helst.

Indhold
Storbritanniens AI-udfordring: Nemt at snyde sikkerhedssystemerneIntet model-navn, kun farverChokerende enkel manipulationLLM’er: Ikke kun dårlige nyhederFremtidens AI-sikkerhed står på spil

Intet model-navn, kun farver

Interessant nok har AISI valgt ikke at navngive de specifikke AI-modeller i deres forskning. I stedet har de givet hver model en farvekode som “grøn” og “blå”. Dette hemmelighedskræmmeri kunne skyldes ønsket om at bevare gode relationer mellem regeringen og AI-firmaerne.

Chokerende enkel manipulation

Undersøgelsen afslørede, at det var muligt at omgå sikkerhedsmekanismerne med enkelte teknikker, som f.eks. ved at starte en forespørgsel med fraseologi så uskyldig som “Sikker, jeg hjælper gerne”. Dette lykkedes uden avancerede hackerfærdigheder, hvilket rejser alvorlige spørgsmål om AI-sikkerhed.

LLM’er: Ikke kun dårlige nyheder

På trods af bekymringen for LLM’ernes sikkerhedsvulnerabiliteter, viste undersøgelsen også nogle imponerende evner. Flere modeller demonstrerede ekspertniveau viden inden for kemi og biologi, og løste komplekse problemstillinger på niveau med PhD-uddannede fagfolk.

Adobe lancerer Firefly AI-app til mobilbrugere
17. juni 2025
Applebee’s og IHOP lancerer AI-anbefalinger til menuen
21. juni 2025

Fremtidens AI-sikkerhed står på spil

AISI planlægger at udvide og fordype deres evalueringer af AI’s risici. Dette omfatter anvendelsen i avanceret videnskabelig planlægning, realistiske cybersikkerhedsscenarier og andre risikomodeller for autonome systemer. Der er ingen tvivl om, at resultaterne af denne forskning vil forme fremtidens diskussioner og beslutninger om AI-sikkerhed på globale topmøder.

TAGGED:AINyhederSikkerhed
Del denne artikel
Facebook Email Copy Link Print
Forrige Artikel AI kunst: Abstrakt Virvel Mønster
Næste Artikel AI-deepfake Putin-film sælger stort i Cannes
Ingen kommentarer Ingen kommentarer

Skriv et svar Annuller svar

Du skal være logget ind for at skrive en kommentar.

200FollowersLike
300FollowersFollow
1kFollowersPin
- Annonce-
Japanske Plakater

Relaterede AI Artikler

DanmarkNyheder

Tryg udvider AI-brug: Felix hjælper rådgivere med kundesamtaler

Vær hilset, AI-assistenten Felix: Fremtidens forsikrings-tryllekunstner! Forsikringsgiganten Tryg har besluttet,…

2 Min Læsning
AI kunst

AI kunst: Magisk nattehimmel over landskab

Komposition og elementer Billedet viser en fantasifuld skildring af et…

3 Min Læsning
Nyheder

DeepSeek udfordrer AI-giganter: Lavpris-modeller skaber panik i branchen

DeepSeek ryster AI-industrien med pris-effektive modeller Kinas *DeepSeek* har sendt…

3 Min Læsning
AI kunst

AI kunst: Ildlandskab i Fantasiverden

Farvebrug og Stemning Billedet er domineret af varme farver, primært…

2 Min Læsning
Dagens AIDagens AI
Follow US
© DagensAI. Danske AI nyheder.
  • Privatlivspolitik
  • Kontakt
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?