Forskere fra MIT lancerer AI-risiko repository
Hvilke specifikke risici bør en person, virksomhed eller regering overveje, når de bruger et AI-system, eller udarbejder regler for dets anvendelse? Ja, det er bestemt ikke et let spørgsmål at besvare. Hvis det er en AI, der styrer kritisk infrastruktur, er der den åbenlyse risiko for menneskers sikkerhed. Men hvad med en AI designet til at bedømme eksamener, sortere CV’er eller verificere rejsedokumenter ved grænsekontrol? Hver af disse bærer deres egne, kategorisk forskellige risici, som bestemt ikke er mindre alvorlige.
AI-lovgivningens store hovedpine
I udarbejdelsen af love for at regulere AI, som EU’s AI Act eller Californiens SB 1047, har lovgivere kæmpet for at nå til enighed om, hvilke risici lovene skal dække. For at bistå lovgiverne, samt interessenter på tværs af AI-industrien og den akademiske verden, har forskere fra MIT udviklet det, de kalder en AI risiko repository – en slags database over AI-risici.
En database født af nødvendighed
“Dette er et forsøg på at kuratere og analysere AI-risici stringent til en offentligt tilgængelig, omfattende, udvidelig og kategoriseret risikodatabase, som alle kan kopiere og bruge, og som vil blive holdt opdateret over tid,” forklarede Peter Slattery, forsker ved MIT’s FutureTech-gruppe, til TechCrunch. “Vi skabte den nu, fordi vi havde brug for den til vores projekt, og havde indset, at mange andre også havde behov for den.”
700 forskellige risici – hvem sagde, at AI var nemt?
Slattery fortæller, at AI risiko repository, som inkluderer over 700 AI-risici grupperet efter årsagsfaktorer (fx intentionalitet), domæner (fx diskrimination) og subdomæner (fx desinformation og cyberangreb), opstod ud fra et ønske om at forstå overlap og uoverensstemmelser i AI-sikkerhedsforskningen.
Fragmenteret litteratur – en springende kravlegård
“Folk antager måske, at der er enighed om AI-risici, men vores resultater tyder på noget andet,” tilføjede Slattery. “Vi fandt, at de gennemsnitlige rammer kun nævnte 34% af de 23 identificerede risikosubdomæner, og næsten en fjerdedel dækkede mindre end 20%. Intet dokument eller oversigt nævnte alle 23 risikosubdomæner, og den mest omfattende dækkede kun 70%. Når litteraturen er så fragmenteret, bør vi ikke antage, at vi alle er på samme side om disse risici.”
Vil nogen overhovedet bruge den?
Men vil nogen bruge den? Det er rigtigt, at AI-regulering rundt om i verden i dag er højst uskøn: et spektrum af forskellige tilgange uden fælles mål. Hvis et AI-risiko repository som MIT’s havde eksisteret før, ville det så have ændret noget? Det er svært at sige.
En anden retfærdig kritik er, om det blot at være enige om de risici, som AI udgør, er nok til at fremme kompetent regulering. Mange sikkerhedsvurderinger for AI-systemer har betydelige begrænsninger, og en risikodatabase vil ikke nødvendigvis løse det problem.
MIT-forskerne planlægger dog at prøve! Neil Thompson, leder af FutureTech-laboratoriet, fortæller TechCrunch, at gruppen i deres næste forskningsfase planlægger at bruge repository til at evaluere, hvor godt forskellige AI-risici bliver adresseret.
“Vores repository vil hjælpe os i det næste skridt af vores forskning, når vi vil evaluere, hvor godt forskellige risici bliver adresseret,” sagde Thompson. “Vi planlægger at bruge dette til at identificere mangler i organisatoriske reaktioner. For eksempel, hvis alle fokuserer på en type risiko og overser andre af lignende betydning, er det noget, vi bør bemærke og adressere.