Dagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Reading: MIT lancerer database over AI-risici for bedre regulering og sikkerhed
NYHEDSBREV
Dagens AIDagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Søg
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Har du en konto? Log ind
Follow US
© DagensAI. Alle Rettigheder Forbeholdes.
Dagens AI > Nyheder > MIT lancerer database over AI-risici for bedre regulering og sikkerhed
Nyheder

MIT lancerer database over AI-risici for bedre regulering og sikkerhed

Senest opdateret: 14. august 2024 23:34
DagensAI
4 Min Læsning
Del
Del

Forskere fra MIT lancerer AI-risiko repository

Hvilke specifikke risici bør en person, virksomhed eller regering overveje, når de bruger et AI-system, eller udarbejder regler for dets anvendelse? Ja, det er bestemt ikke et let spørgsmål at besvare. Hvis det er en AI, der styrer kritisk infrastruktur, er der den åbenlyse risiko for menneskers sikkerhed. Men hvad med en AI designet til at bedømme eksamener, sortere CV’er eller verificere rejsedokumenter ved grænsekontrol? Hver af disse bærer deres egne, kategorisk forskellige risici, som bestemt ikke er mindre alvorlige.

Indhold
Forskere fra MIT lancerer AI-risiko repositoryAI-lovgivningens store hovedpineEn database født af nødvendighed700 forskellige risici – hvem sagde, at AI var nemt?Fragmenteret litteratur – en springende kravlegårdVil nogen overhovedet bruge den?

AI-lovgivningens store hovedpine

I udarbejdelsen af love for at regulere AI, som EU’s AI Act eller Californiens SB 1047, har lovgivere kæmpet for at nå til enighed om, hvilke risici lovene skal dække. For at bistå lovgiverne, samt interessenter på tværs af AI-industrien og den akademiske verden, har forskere fra MIT udviklet det, de kalder en AI risiko repository – en slags database over AI-risici.

En database født af nødvendighed

“Dette er et forsøg på at kuratere og analysere AI-risici stringent til en offentligt tilgængelig, omfattende, udvidelig og kategoriseret risikodatabase, som alle kan kopiere og bruge, og som vil blive holdt opdateret over tid,” forklarede Peter Slattery, forsker ved MIT’s FutureTech-gruppe, til TechCrunch. “Vi skabte den nu, fordi vi havde brug for den til vores projekt, og havde indset, at mange andre også havde behov for den.”

700 forskellige risici – hvem sagde, at AI var nemt?

Slattery fortæller, at AI risiko repository, som inkluderer over 700 AI-risici grupperet efter årsagsfaktorer (fx intentionalitet), domæner (fx diskrimination) og subdomæner (fx desinformation og cyberangreb), opstod ud fra et ønske om at forstå overlap og uoverensstemmelser i AI-sikkerhedsforskningen.

Opera lancerer AI-browser Neon: Koder for dig mens du sover
28. maj 2025
OpenAI opkøber Jony Ives firma: Ny AI-enhed på vej
29. maj 2025

Fragmenteret litteratur – en springende kravlegård

“Folk antager måske, at der er enighed om AI-risici, men vores resultater tyder på noget andet,” tilføjede Slattery. “Vi fandt, at de gennemsnitlige rammer kun nævnte 34% af de 23 identificerede risikosubdomæner, og næsten en fjerdedel dækkede mindre end 20%. Intet dokument eller oversigt nævnte alle 23 risikosubdomæner, og den mest omfattende dækkede kun 70%. Når litteraturen er så fragmenteret, bør vi ikke antage, at vi alle er på samme side om disse risici.”

Vil nogen overhovedet bruge den?

Men vil nogen bruge den? Det er rigtigt, at AI-regulering rundt om i verden i dag er højst uskøn: et spektrum af forskellige tilgange uden fælles mål. Hvis et AI-risiko repository som MIT’s havde eksisteret før, ville det så have ændret noget? Det er svært at sige.

En anden retfærdig kritik er, om det blot at være enige om de risici, som AI udgør, er nok til at fremme kompetent regulering. Mange sikkerhedsvurderinger for AI-systemer har betydelige begrænsninger, og en risikodatabase vil ikke nødvendigvis løse det problem.

MIT-forskerne planlægger dog at prøve! Neil Thompson, leder af FutureTech-laboratoriet, fortæller TechCrunch, at gruppen i deres næste forskningsfase planlægger at bruge repository til at evaluere, hvor godt forskellige AI-risici bliver adresseret.

“Vores repository vil hjælpe os i det næste skridt af vores forskning, når vi vil evaluere, hvor godt forskellige risici bliver adresseret,” sagde Thompson. “Vi planlægger at bruge dette til at identificere mangler i organisatoriske reaktioner. For eksempel, hvis alle fokuserer på en type risiko og overser andre af lignende betydning, er det noget, vi bør bemærke og adressere.

TAGGED:AIEUNyhederreguleringSikkerhed
Del denne artikel
Facebook Email Copy Link Print
Forrige Artikel Nascar bruger AI til at perfektionere pitstop og brændstofhåndtering
Næste Artikel FTC forbyder falske anmeldelser inklusive dem genereret af AI
Ingen kommentarer Ingen kommentarer

Skriv et svar Annuller svar

Du skal være logget ind for at skrive en kommentar.

200FollowersLike
300FollowersFollow
1kFollowersPin
- Annonce-
Japanske Plakater

Relaterede AI Artikler

AI kunst

AI kunst: Samurai i Neonregn

Stemning og atmosfære Billedet fremkalder en stærk følelse af en…

3 Min Læsning
AI kunst

AI kunst: Farverige Virvelstrømme

Komposition og Form Dette kunstværk er en strålende fremvisning af…

2 Min Læsning
Nyheder

Wix lancerer AI-værktøj til automatisk blogindhold og SEO-optimering

Introduktion af Wix's AI Blog Post Creator: En Revolution i…

3 Min Læsning
Nyheder

Perplexity AI lancerer revolutionerende Valghub før USA-valget 2024

En Revolusjonerende Nyhed fra Perplexity AI Perplexity AI tager nu…

2 Min Læsning
Dagens AIDagens AI
Follow US
© DagensAI. Danske AI nyheder.
  • Privatlivspolitik
  • Kontakt
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?