Dagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Reading: Microsoft afslører “Skeleton Key Jailbreak”, der virker på tværs af forskellige AI-modeller.
NYHEDSBREV
Dagens AIDagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Søg
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Har du en konto? Log ind
Follow US
© DagensAI. Alle Rettigheder Forbeholdes.
Dagens AI > Nyheder > Microsoft afslører “Skeleton Key Jailbreak”, der virker på tværs af forskellige AI-modeller.
Nyheder

Microsoft afslører “Skeleton Key Jailbreak”, der virker på tværs af forskellige AI-modeller.

Senest opdateret: 28. juni 2024 20:54
DagensAI
2 Min Læsning
Del
Del

Microsoft afslører enkel AI-manipulation

Microsofts sikkerhedsforskere har chokeret tech-verdenen ved at afsløre en ny metode til at manipulere AI-systemer til at ignorere deres etiske begrænsninger. Denne “Skeleton Key” jailbreak-taktik bedrager AI’en til at opfylde ethvert anmodning, hvordan uetisk den end måtte være.

Indhold
Microsoft afslører enkel AI-manipulationOverraskende simpel metodeEt alvorligt sikkerhedsbristJailbreaks fortsætter trods fremskridtKreative metoder forhindrer ikke brist

Overraskende simpel metode

Fremgangsmåden involverer blot en omformulering af forespørgsler som om, de kommer fra en “avanceret forsker” og kræver “ucensureret information” til “sikre uddannelsesmæssige formål”. Når udnyttet, er disse AIs alt for villige til at levere oplysninger om emner såsom eksplosiver, biologiske våben, selvskade, grafisk vold og hadtale.

Et alvorligt sikkerhedsbrist

De kompromitterede modeller inkluderer store navne som Meta’s Llama3-70b-instruct, Google’s Gemini Pro og OpenAI’s GPT-3.5 Turbo. Stort set alle viste sig sårbare over for angrebet, bortset fra OpenAI’s nyeste model GPT-4, som kun kunne kompromitteres gennem dens API.

Jailbreaks fortsætter trods fremskridt

Trods stadigt mere komplekse AI-modeller, forbliver det bemærkelsesværdigt ligetil at jailbreake dem. Det opstår et løb mellem sikkerhedsudviklere og angribere, hvilket resulterer i en næsten uendelig kamp for at dæmme op for nye sikkerhedsbrister.

Google giver alle adgang til Pixel-AI i Photos
29. maj 2025
Studerende udvikler AI-løsning til støtte for KOL-patienter
27. maj 2025

Kreative metoder forhindrer ikke brist

Selvom Microsoft og andre spiller en katte-og-mus-leg med sikkerhedsforanstaltninger, viser “Skeleton Key”, hvor skrøbelige selv de mest sofistikerede AI-modeller kan være. Det er en påmindelse om, at vi konstant må forbedre sikkerheden for at holde trit med jailbreak-taktikker.

Denne nye åbenbaring fortæller os, at selv de basalste manipulationsmetoder kan udgøre alvorlige risici, og at ampere tid til at revurdere, hvordan vi beskytter vores teknologier mod uretsindige adfærd.

TAGGED:AIGeminiGoogleMetaMicrosoftNyhederOpenAI
Del denne artikel
Facebook Email Copy Link Print
Forrige Artikel AI kunst: Mystisk Lavarige
Næste Artikel Supercomputer styrker dansk innovation og konkurrenceevne
Ingen kommentarer Ingen kommentarer

Skriv et svar Annuller svar

Du skal være logget ind for at skrive en kommentar.

200FollowersLike
300FollowersFollow
1kFollowersPin
- Annonce-
Japanske Plakater

Relaterede AI Artikler

Nyheder

Strava lancerer AI-drevne indsigt til træning, nu tilgængelig i beta for abonnenter

Strava introducerer AI: Din Nye Fitnessguru Er du træt af…

2 Min Læsning
Nyheder

Apple lancerer iOS 18 med ChatGPT, Genmoji og avanceret AI

Apple træder ind i AI-kampen: iOS 18 byder på ChatGPT,…

4 Min Læsning
AI kunst

AI kunst: Farverig Fantasikrigerinde

Komposition og Farvebrug Billedet fremviser en livlig og dynamisk komposition,…

2 Min Læsning
Nyheder

Elon Musks xAI frigiver Grok som open source

Elon Musk Giver AI Verdenen en Hjælpende Hånd Har du…

3 Min Læsning
Dagens AIDagens AI
Follow US
© DagensAI. Danske AI nyheder.
  • Privatlivspolitik
  • Kontakt
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?