Google’s AI forvirrer stort: Holocaust-info “ukendt”
Google har atter skabt overskrifter, og denne gang ikke af de gode grunde. En viral video viser en Google Nest assistent, der ikke kan svare på grundlæggende spørgsmål om Holocaust, men den kan til gengæld give en detaljeret redegørelse for Nakba. Michael Apfel, Instagram-bruger, spurgte: “Hey Google, hvor mange jøder blev dræbt af nazisterne?” Hvortil Google svarede med et forbløffende “Beklager, jeg forstår ikke.”
Negation af historien eller teknisk fejl?
Dette dilemma bliver endnu mere intrigerende, når man tænker på, at Googles AI havde nul problem med at beskrive antallet af dødsfald under andre tragiske begivenheder som f.eks. det rwandiske folkedrab. Tim Urban, kendt forfatter og blogger, gentog eksperimentet med samme resultat og udtrykte sin skuffelse og betænkeligheder omkring Googles troværdighed.
Algoritmer med politisk slagside?
Kritikken vokser, og flere er begyndt at spørge, om Googles AI er farvet af politisk bias. Googles uformående svar står i skærende kontrast til dens detaljerede beskrivelse af “den etniske udrensning af palæstinensere”, en sætning fyldt med politisk ladede ord.
Teknologi på dybt vand
Clifford D. May fra Foundation for Defense of Democracy retter en hård kritik mod situationen, idet han mener, at vi nu ser en ny form for Holocaust-benægtelse – denne gang fra en kunstig intelligens. Det rejser alvorlige spørgsmål om ansvar og etik i AI-udviklingen.
Google svarer (måske) igen
Midt i denne storm har Google endnu ikke givet en offentlig forklaring på hændelsen. Mange venter spændt på et svar, som kan kaste lys over, om dette er et bevidst valg eller en simpel fejlkodning. Her håber vi ikke, at svaret bliver “Beklager, jeg forstår ikke.”
Fremtiden for AI-ethik
Dette incident understreger behovet for en dybere diskussion om og vurdering af etik inden for AI-udvikling og -implementering. Med teknologiens hastige udvikling er det væsentligt, at vi sikrer, at den ikke kun repræsenterer teknologiske fremskridt, men også moralsk og etisk ansvarlighed. Vil Google træde i karakter og lede vejen, eller skal vi vente på den næste AI-blunder?
Stilhed før stormen?
Googles tavshed er måske den mest talende i hele denne affære. Som teknologiens grænser udforskes, er det klart, at vi som samfund må granske og muligvis omdefinere grænserne for ansvar og gennemsigtighed i digitale assistenter. Instance som denne er en kraftig påmindelse om, at AI ikke kun skal udvikles med intelligens, men også med visdom.