Dagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Reading: Microsoft afslører “Skeleton Key Jailbreak” der virker på tværs af forskellige AI-modeller.
NYHEDSBREV
Dagens AIDagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Søg
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Har du en konto? Log ind
Follow US
© DagensAI. Alle Rettigheder Forbeholdes.
Dagens AI > Nyheder > Microsoft afslører “Skeleton Key Jailbreak” der virker på tværs af forskellige AI-modeller.
Nyheder

Microsoft afslører “Skeleton Key Jailbreak” der virker på tværs af forskellige AI-modeller.

Senest opdateret: 7. juli 2024 23:12
DagensAI
3 Min Læsning
Del
Del

En Ny Æra i AI-Sikkerhed?

Microsofts sikkerhedsforskere har fundet en ny måde at manipulere AI-systemer på, så de ignorerer deres etiske begrænsninger og genererer skadeligt, ubegrænset indhold. Denne Skeleton Key jailbreak teknik anvender en serie af prompts til at narre AI’en til at tro, den skal efterkomme enhver anmodning, uanset hvor uetisk den er.

Indhold
En Ny Æra i AI-Sikkerhed?Så Let Som En LegDe Kompromitterede ModellerEksponering af RisiciBetydningen af Bedre Sikkerhedsforanstaltninger

Så Let Som En Leg

Det er bemærkelsesværdigt nemt at udføre. Angriberen omformulerer blot sin anmodning som kommer fra en avanceret forsker, der kræver ucensureret information til sikre uddannelsesmæssige formål. Når udnyttet, giver disse AI’er villigt oplysninger om emner som eksplosiver, biologiske våben, selvskade, grafisk vold og hadetale.

De Kompromitterede Modeller

De kompromitterede modeller inkluderer Meta’s Llama3-70b-instruct, Google’s Gemini Pro, OpenAI’s GPT-3.5 Turbo og GPT-4o, Anthropic’s Claude 3 Opus, og Cohere’s Commander R Plus. Blandt de testede modeller var kun OpenAI’s GPT-4 modstandsdygtig, selvom den også kunne kompromitteres via dens API.

Eksponering af Risici

Trods at modellerne bliver mere komplekse, forbliver det at jailbreake dem temmelig ligetil. Der findes mange typer jailbreaks, hvilket gør det næsten umuligt at bekæmpe dem alle. Forskere har tidligere offentliggjort metoder til at omgå AI’s indholdsfiltere ved hjælp af ASCII-kunst, og den såkaldte ArtPrompt og andre metoder hvor angribere fodrer AI’en med en omfattende prompt indeholdende fabrikerede dialoger.

Google lancerer AI-værktøj for enklere tekster i iOS-app
7. maj 2025
Peloton: AI booster fitness trods told og fald i hardwaresalg
8. maj 2025

Betydningen af Bedre Sikkerhedsforanstaltninger

Som Microsoft forklarer, afslører Skeleton Key behovet for at styrke AI-systemer fra alle vinkler: Indføre sofistikerede inputfiltreringer til at identificere og afbryde mulige angreb, selv når de er forkælede, implementere stærke output screeningsprocedurer for at fange og blokere ethvert usikkert indhold som AI genererer, omhyggeligt designe prompts for at begrænse en AI’s evne til at tilsidesætte sin etiske træning, og anvende dedikeret AI-drevet monitoring for at genkende ondsindede mønstre i brugerinteraktioner.

Hvis AI-udviklere ikke kan beskytte mod sådan en simpel jailbreak som Skeleton Key, hvad kan man så håbe på med mere komplekse tilgange? Selv med Azure AIs nye sikkerhedsfunktioner er denne hændelse en øjenåbner for, hvor sårbar selv den mest avancerede AI kan være over for grundlæggende manipulationer.

TAGGED:AIAnthropicClaudeGeminiGoogleMetaMicrosoftNyhederOpenAISikkerhed
Del denne artikel
Facebook Email Copy Link Print
Forrige Artikel Figma deaktiverer AI-designfunktion efter kopiering af Apples vejr-app
Næste Artikel AI kunst: Kriger i Neonbyen
Ingen kommentarer Ingen kommentarer

Skriv et svar Annuller svar

Du skal være logget ind for at skrive en kommentar.

200FollowersLike
300FollowersFollow
1kFollowersPin
- Annonce-
Japanske Plakater

Relaterede AI Artikler

Nyheder

Microsoft undgår britisk antitrust-efterforskning af Mistral AI investering

Microsoft Slipper for Antitrust-granskning i Storbritannien Microsoft har netop snubbet…

2 Min Læsning
Nyheder

Microsofts jubilæum: Fyringer efter AI-protest mod Palæstina-kontrakter

Drama ved jubilæumsfest: Microsoft fyrer AI-protestant Microsofts 50-års jubilæum blev…

3 Min Læsning
Nyheder

OpenAI’s Jan Leike Skifter Til Rivalen Anthropic Over Sikkerhedsuenigheder

Jan Leikes Overgang til Anthropic: En Slags 'AI Sikkerhedskamp' Den…

2 Min Læsning
Nyheder

AI-pionerer bliver whistleblowere og kræver sikkerhedsforanstaltninger

Stormvejr hos OpenAI: Flugten fra firmaet Man skulle tro, det…

3 Min Læsning
Dagens AIDagens AI
Follow US
© DagensAI. Danske AI nyheder.
  • Privatlivspolitik
  • Kontakt
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?