FN-chefens bekymring: AI i krigsførelse
Det er ikke hver dag, at FN’s generalsekretær, António Guterres, bliver nødt til at kommentere på avanceret teknologi. Men når det kommer til Israels innovative, om end kontroversielle brug af kunstig intelligens (AI) til at identificere mål i Gaza, lyder alarmklokkerne højere end nogensinde. “Ingen beslutningerne om liv og død bør uddelegeres til algoritmens kolde kalkule,” siger han. En bemærkning, som både skaber eftertanke og minder os om, at dystopiske sci-fi film måske ikke er så fjerne fra virkeligheden, som vi tror.
Hvordan AI bliver brugt
Det lyder som en scene taget direkte ud af en Hollywood-blockbuster: Israel benytter sig af AI til at spotte mål i Gaza med en præcision, der ville gøre selv den mest nørdede tech-entusiast grøn af misundelse. Problemet? Et menneske er kun involveret i beslutningsprocessen i sølle 20 sekunder. Du kan nå længere i et TikTok-klip, end det tager for en person at sige “måske vi skulle tænke os om en ekstra gang?”
De uventede hovedroller
I denne tragikomiske saga har de mest usandsynlige karakterer fundet vejen til forgrunden: titusinder af palæstinensere mærket til henrettelse af et AI-system, med lige så lidt menneskelig overvågning som det kræver at holde øje med en steg i ovnen. Og så var der lige historien om syv nødhjælpsarbejdere, fejlagtigt antaget for at være medlemmer af Hamas, som viste sig at have en noget bredere international rollebesætning end forventet, inklusive borgere fra Canada, Storbritannien, Polen og Australien, alle sammen samlet i Gaza for at uddele mad.
FN’s opråb
Guterres’ bekymringer stikker dybt. Blandingen af AI og militærstrategi i tætbefolkede områder ryster verdenssamfundet. “Det fører til et højt antal ofre,” konstaterer han dybt berørt, noget der får de fleste af os til at reflektere over, hvor grænsen går mellem teknologisk innovation og menneskelig etik.
Israel indrømmer ‘oops’
I en verden, hvor fejl kun sjældent indrømmes, har Israel trådt frem og sagt “vi lavede en ups”. De erkender en række fejl, der førte til drabet på syv nødhjælpsarbejdere tidligere på ugen. “Vi troede, det var Hamas,” lyder undskyldningen, der er så kikset, at den næsten kunne være en del af et dårligt sketchshow – hvis det altså ikke var fordi, det var tragisk sandt.
Kan vi lave om på det?
António Guterres’ ord efterlader os med en tung tanke: Hvis vi kan få AI til at gøre så meget, kan vi så også få den til at stoppe? Måske er det på tide, vi bruger lige så meget energi på at kode etik og medfølelse, som vi gør på at perfektionere vores målretningssystemer. For i dette tilfælde er det tydeligt, at ikke alt, der kan tælles, tæller, og ikke alt, der tæller, kan tælles.