AI i Spionage: Rusland, Kina og Andre Brugte OpenAI’s Teknologi i Skjulte Kampagner
OpenAI har afsløret, at deres generative kunstige intelligens teknologi er blevet udnyttet af statslige aktører og private firmaer i Rusland, Kina, Iran og Israel for at manipulere den offentlige mening og påvirke geopolitik. En rapport fra virksomheden afslører, at fem online kampagner er blevet identificeret og stoppet. Disse operationer forsøgte at vinde støtte til politiske kampagner eller ændre folkestemningen i globale konflikter.
Snydekampagner i Fuld Gang
De pågældende kampagner brugte OpenAI’s teknologi til at generere sociale medie-poster, oversætte artikler, skrive rubrikker og endda debugge computerprogrammer. Men trods den teknologiske finesse ser det ikke ud til, at kampagnerne har opnået den store gennemslagskraft. “Disse påvirkningsoperationer kæmper stadig med at opbygge et publikum,” siger Ben Nimmo, en hovedefterforsker hos OpenAI.
Grænsen mellem Fiktion og Virkelighed
Trods det store potentiale har de A.I.-baserede kampagner vist sig at være mere klodsede end frygtet. Ét eksempel på fiasko var en russisk kampagne, hvis indlæg indeholdt sætninger som “As an A.I. language model, I am here to assist and provide the desired comment.” Ikke præcis det mest overbevisende.
Forskellige Nationer, Forskellige Mål
Rusland brugte teknologien til at generere anti-Ukraine kommentarer, der blev postet på sociale medier som X. Kina derimod brugte A.I. til at debugge kode og generere sociale medie-poster der kritiserede personer, der var negative over for den kinesiske regering. Iran brugte værktøjerne til at producere og oversætte artikler, der spredte pro-iranske, anti-Israelske og anti-amerikanske synspunkter. I Israel blev teknologien brugt til at skabe fiktive profiler, der spredte anti-islamiske budskaber.
Disinformation: Stadig Under Udvikling
Selvom generative A.I.-værktøjer har potentialet til at gøre påvirkningskampagner mere effektive, har de endnu ikke skabt den bølge af overbevisende desinformation, som mange eksperter frygtede. “Det tyder på, at nogle af vores største frygt om A.I.-aktiverede påvirkningsoperationer endnu ikke er blevet realiseret,” siger Jack Stubbs, chef for efterretning hos Graphika.
Selv med de mislykkede kampagner ser fremtiden for A.I. i disinformation stadig bekymrende ud. OpenAI’s nye flagsskibs-modeller lover “næste niveau af kapaciteter,” så vi er langt fra færdige med at se, hvordan teknologien vil forme fremtidens digitale landskab. Hold øje med DagensAI.dk for at følge udviklingen!