AI afslører maskerede immigrationsofficerer i USA
En kontroversiel teknologisk udvikling har taget fart i USA, hvor aktivister nu bruger kunstig intelligens til at afsløre identiteten på maskerede embedsmænd fra den amerikanske immigrations- og toldmyndighed (ICE). Dette skaber bekymring hos myndigheder og åbner for en bredere debat om anvendelsen af AI-overvågningsteknologier.
Sådan fungerer den kontroversielle teknologi
Den hollandsk-baserede aktivist Dominick Skinner står bag projektet “ICE List”, som har identificeret mindst 20 ICE-officerer, der er blevet filmet med masker under anholdelser. Teknologien kan angiveligt rekonstruere et ansigt ved hjælp af kunstig intelligens, hvis bare 35 procent af ansigtet er synligt.
“Vi kan afsløre et ansigt ved hjælp af AI, hvis de har 35 procent eller mere af ansigtet synligt,” fortalte Skinner til POLITICO.
Processen involverer flere trin: Først genererer AI-værktøjet et billede af, hvordan den maskerede person kunne se ud uden maske. Derefter sendes billedet gennem reverse image search-tjenester som PimEyes, der gennemsøger millioner af billeder på internettet og ofte finder frem til sociale medieprofiler på LinkedIn og Instagram.
Politisk sprængstof og lovgivningsmæssige dilemmaer
Situationen har udløst en heftig politisk debat i Washington. Republikanere og embedsfolk fra ICE hævder, at disse afsløringer bringer officerernes sikkerhed i fare.
“ICE-agenter fortjener ikke at blive jagtet online af aktivister, der bruger AI,” udtaler senator James Lankford (R-Okla.), formand for Senatets underudvalg for grænsehåndtering.
På den anden side presser nogle demokrater på for reguleringer, der ville gøre det nemmere at identificere retshåndhævelsespersonale – samtidig med at de udtrykker bekymring over aktivisternes metoder.
Senator Marsha Blackburn har som reaktion introduceret “Protecting Law Enforcement from Doxxing Act”, der vil gøre det ulovligt at offentliggøre en føderal embedsmands navn med hensigt om at obstruere en strafferetlig efterforskning.
Teknologiens præcision er tvivlsom
Privatlivseksperter har stillet spørgsmålstegn ved nøjagtigheden af denne anvendelse af teknologien. Jake Laperruque fra Center for Democracy and Technology’s Security and Surveillance Project kalder det en “ret upålidelig anvendelse af teknologien, når man holder op med faktisk at scanne ansigtet og begynder at scanne et kunstigt billede.”
Skinner indrømmer selv, at teknologien er fejlbehæftet. Omkring 60 procent af de AI-genererede resultater og ansigtsgenkendelsessøgninger fører til forkerte matches på sociale medieprofiler, hvilket kræver yderligere verificering, før navne offentliggøres.
Det lovgivningsmæssige vakuum
Det kontroversielle ved projektet understreger den manglende føderale lovgivning om overvågning og privatlivsbeskyttelse i USA. Mens politikere strides om, hvorvidt embedsmænd bør bære masker, eller om det skal være ulovligt at afsløre politiets identitet, mangler der omfattende lovgivning, der begrænser offentlig brug af ansigtsgenkendelse.
Privatlivseksperter foreslår, at stærkere databeskyttelse ville være mere effektiv til at beskytte embedsmænd end forbud mod maskering eller offentliggørelse af navne.
Det større billede
Denne sag repræsenterer blot en af mange nye anvendelser af AI, der udfordrer vores opfattelser af privatliv, sikkerhed og ansvarlighed. Efterhånden som teknologien bliver mere avanceret, rejser det grundlæggende spørgsmål om balancen mellem transparens i offentlige myndigheders arbejde og individers ret til privatliv.
Med AI-drevne værktøjer, der bliver stadig mere tilgængelige for offentligheden, står lovgivere over for presserende spørgsmål om, hvordan man regulerer disse teknologier på en måde, der både beskytter individuelle rettigheder og opretholder den offentlige sikkerhed.
Denne nye form for digital aktivisme viser, hvordan kunstig intelligens ikke længere kun er et værktøj for myndigheder og virksomheder, men også kan vendes mod magthavere af borgere med teknologisk viden – på godt og ondt.