Dagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Reading: MIT lancerer database over AI-risici for bedre regulering og sikkerhed
NYHEDSBREV
Dagens AIDagens AI
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Søg
  • Nyheder
  • Danmark
  • Artikler
  • AI kunst
  • AI Chat
Har du en konto? Log ind
Follow US
© DagensAI. Alle Rettigheder Forbeholdes.
Dagens AI > Nyheder > MIT lancerer database over AI-risici for bedre regulering og sikkerhed
Nyheder

MIT lancerer database over AI-risici for bedre regulering og sikkerhed

Senest opdateret: 14. august 2024 23:34
DagensAI
4 Min Læsning
Del
Del

Forskere fra MIT lancerer AI-risiko repository

Hvilke specifikke risici bør en person, virksomhed eller regering overveje, når de bruger et AI-system, eller udarbejder regler for dets anvendelse? Ja, det er bestemt ikke et let spørgsmål at besvare. Hvis det er en AI, der styrer kritisk infrastruktur, er der den åbenlyse risiko for menneskers sikkerhed. Men hvad med en AI designet til at bedømme eksamener, sortere CV’er eller verificere rejsedokumenter ved grænsekontrol? Hver af disse bærer deres egne, kategorisk forskellige risici, som bestemt ikke er mindre alvorlige.

Indhold
Forskere fra MIT lancerer AI-risiko repositoryAI-lovgivningens store hovedpineEn database født af nødvendighed700 forskellige risici – hvem sagde, at AI var nemt?Fragmenteret litteratur – en springende kravlegårdVil nogen overhovedet bruge den?

AI-lovgivningens store hovedpine

I udarbejdelsen af love for at regulere AI, som EU’s AI Act eller Californiens SB 1047, har lovgivere kæmpet for at nå til enighed om, hvilke risici lovene skal dække. For at bistå lovgiverne, samt interessenter på tværs af AI-industrien og den akademiske verden, har forskere fra MIT udviklet det, de kalder en AI risiko repository – en slags database over AI-risici.

En database født af nødvendighed

“Dette er et forsøg på at kuratere og analysere AI-risici stringent til en offentligt tilgængelig, omfattende, udvidelig og kategoriseret risikodatabase, som alle kan kopiere og bruge, og som vil blive holdt opdateret over tid,” forklarede Peter Slattery, forsker ved MIT’s FutureTech-gruppe, til TechCrunch. “Vi skabte den nu, fordi vi havde brug for den til vores projekt, og havde indset, at mange andre også havde behov for den.”

700 forskellige risici – hvem sagde, at AI var nemt?

Slattery fortæller, at AI risiko repository, som inkluderer over 700 AI-risici grupperet efter årsagsfaktorer (fx intentionalitet), domæner (fx diskrimination) og subdomæner (fx desinformation og cyberangreb), opstod ud fra et ønske om at forstå overlap og uoverensstemmelser i AI-sikkerhedsforskningen.

AI-wearables: Smart hukommelse udfordrer privatlivets grænser
6. maj 2025
NBC genskaber legendarisk NBA-stemme med AI i 2025
7. maj 2025

Fragmenteret litteratur – en springende kravlegård

“Folk antager måske, at der er enighed om AI-risici, men vores resultater tyder på noget andet,” tilføjede Slattery. “Vi fandt, at de gennemsnitlige rammer kun nævnte 34% af de 23 identificerede risikosubdomæner, og næsten en fjerdedel dækkede mindre end 20%. Intet dokument eller oversigt nævnte alle 23 risikosubdomæner, og den mest omfattende dækkede kun 70%. Når litteraturen er så fragmenteret, bør vi ikke antage, at vi alle er på samme side om disse risici.”

Vil nogen overhovedet bruge den?

Men vil nogen bruge den? Det er rigtigt, at AI-regulering rundt om i verden i dag er højst uskøn: et spektrum af forskellige tilgange uden fælles mål. Hvis et AI-risiko repository som MIT’s havde eksisteret før, ville det så have ændret noget? Det er svært at sige.

En anden retfærdig kritik er, om det blot at være enige om de risici, som AI udgør, er nok til at fremme kompetent regulering. Mange sikkerhedsvurderinger for AI-systemer har betydelige begrænsninger, og en risikodatabase vil ikke nødvendigvis løse det problem.

MIT-forskerne planlægger dog at prøve! Neil Thompson, leder af FutureTech-laboratoriet, fortæller TechCrunch, at gruppen i deres næste forskningsfase planlægger at bruge repository til at evaluere, hvor godt forskellige AI-risici bliver adresseret.

“Vores repository vil hjælpe os i det næste skridt af vores forskning, når vi vil evaluere, hvor godt forskellige risici bliver adresseret,” sagde Thompson. “Vi planlægger at bruge dette til at identificere mangler i organisatoriske reaktioner. For eksempel, hvis alle fokuserer på en type risiko og overser andre af lignende betydning, er det noget, vi bør bemærke og adressere.

TAGGED:AIEUNyhederreguleringSikkerhed
Del denne artikel
Facebook Email Copy Link Print
Forrige Artikel Nascar bruger AI til at perfektionere pitstop og brændstofhåndtering
Næste Artikel FTC forbyder falske anmeldelser inklusive dem genereret af AI
Ingen kommentarer Ingen kommentarer

Skriv et svar Annuller svar

Du skal være logget ind for at skrive en kommentar.

200FollowersLike
300FollowersFollow
1kFollowersPin
- Annonce-
Japanske Plakater

Relaterede AI Artikler

Nyheder

Humane advarer: Stop brug af AI Pin ladekasse straks pga. brandfare

Advarsel Humane har netop advaret alle ejere af deres AI…

1 Min Læsning
AI kunst

AI kunst: Sommerfugl og blomster i farverig ornamentik

Fantasifuld Sammenfletning Billedet udstråler en bemærkelsesværdig sans for detaljer og…

2 Min Læsning
AI kunst

AI kunst: Farverig Fantasi Frisør

Farvebrug og Lys Billedet er en eksplosion af farver med…

3 Min Læsning
Nyheder

Gen AI truer fjernarbejdere: Massive jobændringer og omskoling på vej

AI: Fjernarbejdere er de første på skafottet Historien om automatisering…

2 Min Læsning
Dagens AIDagens AI
Follow US
© DagensAI. Danske AI nyheder.
  • Privatlivspolitik
  • Kontakt
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?