Lovgivere bekæmper intime AI-dybde forfalskninger
Lovgivere arbejder på at introducere en lov kaldet Intimate Privacy Protection Act, som har til formål at begrænse Section 230-beskyttelsen for teknologivirksomheder, der ikke formår at fjerne intime AI-genererede dybfalske billeder fra deres tjenester. Denne lovgivning sigter mod at tackle problemer som cyberstalking, krænkelser af intim privatliv og digitale forfalskninger, særligt når det gælder ikke-samtykkede intime billeder og videoer, mest rettet mod kvinder.
Ændring i Section 230
Det foreslåede lovforslag, introduceret af repræsentanterne Jake Auchincloss (D-MA) og Ashley Hinson (R-IA), vil ændre Section 230 i Communications Act fra 1934. Denne ændring vil fjerne rettens beskyttelse mod juridisk ansvar, når platforme ikke tager passende handling for at forhindre disse privatlivskrænkelser. Forslaget understreger en “plejepligt” for platforme, som kræver, at de har en “rimelig proces” på plads til at:
- Tackle disse problemer: Platforme vil være forpligtet til at implementere strategier for at forhindre privatlivskrænkelser og forfalskninger.
- Rapporteringsmekanismer: Der skal være en enkel mekanisme for brugere til at rapportere skadeligt indhold.
- Indholdsfjernelse: Platforme skal sikre fjernelse af sådant indhold inden for 24 timer.
Hvad er digitale forfalskninger?
Begrebet “digitale forfalskninger” inkluderer AI-dybfalske billeder, som defineres som manipulerede eller ændrede digitale materialer, der stort set er uadskillelige fra autentiske optegnelser af tale, adfærd eller udseende. Forslaget søger at holde platforme ansvarlige for deres rolle i at beskytte brugere mod disse privatlivsrisici.
Platforme skal holdes ansvarlige
Forslaget til lovgivningen hævder, at teknologiplatforme ikke skal have lov til at gemme sig bag Section 230-beskyttelsen, hvis de ikke beskytter brugerne mod dybfalske billeder og andre privatlivskrænkelser. Denne indsats for ansvarlighed er en del af en bredere tendens, da lovgivere har forsøgt at begrænse Section 230-beskyttelser i nogen tid, selvom det har været udfordrende at opnå enighed.
En større diskussion om AI-regulering
Denne indsats for at tackle intime AI-dybfalske billeder er en del af en større diskussion omkring AI-regulering og privatlivslove. Andre foranstaltninger inkluderer en nyligt vedtaget lovgivning i Senatet kaldet DEFIANCE Act, som giver ofre for ikke-samtykkede intime billeder mulighed for at søge civile retsmidler mod gerningsmændene. Nogle virksomheder, såsom Microsoft, har også opfordret til kongresoversigt over brugen af AI-genererede dybfalske billeder i svigagtige og misbrugende sammenhænge.