Google fjerner løftet om ikke at udvikle AI-våben
Google har officielt opdateret sine etiske retningslinjer for kunstig intelligens (AI), og et tidligere løfte om ikke at anvende teknologien til overvågning, våben eller formål, der kan skade mennesker, er nu *historie*. Ændringen blev først observeret af The Washington Post og signalerer en skelsættende drejning i Googles tilgang til AI.
Et nyt fokus – med åbne døre til militæret
I et blogindlæg forklarer CEO for Google DeepMind, Demis Hassabis, at selskabet vil prioritere “innovation,” “samarbejde,” og “ansvarlig” udvikling af AI. Det er dog værd at bemærke, at sidstnævnte ikke længere inkluderer *konkrete løfter*. I stedet fremhæver Google nødvendigheden af, at demokratier leder AI-udviklingen med værdier som frihed og respekt for menneskerettigheder – hvilket nu også inkluderer national sikkerhed.
Fortidens idealisme kastes på bålet
Det nye princip står i stærk kontrast til tidligere løfter. I 2018 nægtede Google at forny sin kontrakt med det amerikanske forsvarsministerium for AI-projektet Maven, efter protester fra medarbejdere, der mente, samarbejdet stred imod virksomhedens værdier. Dette samme moralske kompas syntes dengang at få Google til at distancere sig fra lignende kontroversielle projekter som Nimbushandelsaftaler med den israelske regering.
AI-rustningsløbet er i fuld gang
Google virker imidlertid til at have tilpasset sig markedets nye realiteter. Andre teknologigiganter som *Meta* og *OpenAI* arbejder allerede på AI-teknologi med militære formål, og selskaber som *Amazon* har samarbejder med det amerikanske forsvar. Det ser ud til, at Google ikke længere ønsker at stå tilbage på sidelinjen i dette moderne “kapløb om våben”.
Økonomi versus etik?
Denne drejning rejser spørgsmål omkring Googles gamle motto: “Don’t be evil.” Mens mottoet for længst er blevet til “Do the right thing,” undrer kritikere sig nu over, hvorvidt det faktisk betyder, at etikken kan *bøjes* for økonomisk gevinst. AI’s stigende relevans for både forsvar og overvågning er en gylden mulighed for virksomheder til at kapitalisere på milliardkontrakter, men risikoen for misbrug og uigennemsigtighed er skræmmende høj.
Og hvad så nu?
Google har tilpasset sig en verden, hvor AI ikke længere kun handler om innovation, men også strategi og geopolitik. Med hånden på våben-kontakten spørger nogle: Er dette et nødvendigt skridt for at beskytte demokratier – eller tabet af en grundlæggende etisk sjæl?