Sikkerhedsspørgsmål hos OpenAI: Lovgivere kræver svar fra Sam Altman
U.S. lovgivere, herunder Senator Elizabeth Warren og Repræsentant Lori Trahan, har rejst bekymringer om OpenAI’s sikkerhedspraksis og behandlingen af interne whistleblowere. De kræver nu klarhed fra OpenAI’s CEO Sam Altman om virksomhedens protokoller for whistleblowerbeskyttelse og sikkerhedsevalueringer.
Sikkerhedsbekymringer
I 2022 blev en ikke-godkendt pre-release version af GPT-4 testet inden for en ny Microsoft Bing søgemaskine i Indien, før den havde modtaget godkendelse fra OpenAI’s sikkerhedskomité. I 2023 blev CEO Sam Altman kortvarigt fjernet på grund af bestyrelsens bekymringer om ‘kommercialisering af fremskridt uden fuld forståelse af konsekvenserne’.
Anonyme kilder har hævdet, at OpenAI fremskyndede sikkerhedsevalueringerne og opløste Superalignment-teamet, som var ansvarlige for sikkerhedstilsyn. Derudover trak en sikkerhedsleder sig med henvisning til, at ‘sikkerhedskultur og processer er blevet overskygget af prangende produkter’.
Whistleblower-beskyttelse
Lovgiverne søger oplysninger om beskyttelsen af whistleblowere og interessekonflikter for at afgøre, om føderal indgriben kan være nødvendig. Warren og Trahan har anmodet Altman om indsigt i brugen af den nye AI-sikkerhedshotline til medarbejdere og hvordan virksomheden håndterer rapporter.
Senatorerne har også spurgt ind til OpenAI’s politik for interessekonflikter og om CEO Sam Altman er blevet tvunget til at afhænde nogen eksterne investeringer samt hvilke foranstaltninger der er på plads for at beskytte OpenAI mod hans økonomiske konflikter.
OpenAI’s svar
OpenAI har for nylig udgivet et systemkort for deres GPT-4o model, som klassificerede det som ‘middel’ risiko på grund af potentielle risici som uautoriseret stemmegengivelse, eksplicit indhold og ophavsretligt beskyttet audio. Virksomheden har fjernet ikke-nedgørelsesklausuler fra ansættelsesaftaler og samarbejder med det amerikanske AI Safety Institute, hvor de allokerer 20% af deres computerressourcer til sikkerhed.
En bredere kontekst
Andre lovgivere har også søgt indsigt i OpenAI’s sikkerhedsforanstaltninger, herunder en gruppe senatorer, der har anmodet om yderligere detaljer vedrørende OpenAI’s reaktioner på sikkerhedsproblemer. Særligt Californisk stats senator Scott Wiener arbejder for lovgivning, der skal regulere store sprogmodeller og holde virksomheder juridisk ansvarlige for skadelige anvendelser af deres AI. Forhåbentlig kan dette presse OpenAI til at forbedre deres sikkerhed og gennemsigtighed – ellers risikerer de at blive standset af lovgivningens lange arm.