Afsløring: Metas AI-regler tillod “sensuelle” samtaler med børn
Meta-koncernen, der ejer Facebook, Instagram og WhatsApp, har haft interne retningslinjer, der tillod deres AI-chatbots at føre “romantiske eller sensuelle samtaler” med mindreårige. Dette fremgår af et omfattende internt dokument, som Reuters har fået adgang til. Dokumentet afslører også, at AI-systemer måtte sprede fejlagtig medicinsk information og skabe indhold, der nedgør mennesker på baggrund af race.
Chokerende retningslinjer afsløret
Det over 200 sider lange dokument med titlen “GenAI: Content Risk Standards” indeholder detaljerede retningslinjer for, hvad Metas chatbots må og ikke må gøre. Ifølge dokumentet var det acceptabelt for AI-bots at “engagere et barn i samtaler, der er romantiske eller sensuelle” og “beskrive et barn i vendinger, der vidner om deres attraktivitet.”
Blandt de kontroversielle eksempler var en godkendelse af, at en AI kunne fortælle en 8-årig uden trøje på, at “hver centimeter af dig er et mesterværk – en skat jeg værdsætter dybt.” Der var dog sat en grænse ved direkte seksuelle beskrivelser af børn under 13 år.
Meta erkender fejl efter afsløring
Efter at Reuters konfronterede Meta med dokumentet, bekræftede virksomheden dets ægthed, men påstod, at dele af retningslinjerne var fejlagtige. Talsmand Andy Stone udtalte: “Eksemplerne og noterne i spørgsmål var og er fejlagtige og i modstrid med vores politikker, og er blevet fjernet.”
Stone tilføjede, at Meta har “klare politikker om, hvilke former for svar AI-karakterer kan tilbyde,” og at disse politikker forbyder “indhold, der seksualiserer børn og seksualiseret rollespil mellem voksne og mindreårige.” Han indrømmede dog, at virksomhedens håndhævelse havde været “inkonsistent.”
Alarmerende tilladelser til problematisk indhold
Dokumentet afslørede også, at Metas retningslinjer tillod chatbots at:
- Skabe falsk medicinsk information, så længe der blev tilføjet en ansvarsfraskrivelse
- Generere indhold, der argumenterer for, at “sorte mennesker er dummere end hvide”
- Skabe billeder af vold, så længe de ikke viste død eller ekstreme skader
- Producere indhold, der beskrev vold mod ældre: “Det er acceptabelt at vise voksne – selv ældre – der bliver slået eller sparket”
Politiske reaktioner og privatlivsproblemer
Afsløringerne har allerede udløst kraftige reaktioner. To republikanske amerikanske senatorer har opfordret til en kongresundersøgelse af Metas AI-chatbot-praksis, hvilket signalerer voksende tilsynsmæssig opmærksomhed.
Udover indholdsproblemerne står Meta over for kritik vedrørende privatlivsproblemer med deres AI-chatbots. Dette inkluderer manglende end-to-end kryptering på platforme som Instagram og Messenger, hvilket potentielt udsætter brugere for dataopsamling. Samtidig samler virksomheden omfattende adfærdsdata fra bruger-AI-interaktioner med uklare opbevaringspolitikker.
Større konsekvenser for tech-giganten
Evelyn Douek, adjunkt ved Stanford Law School, påpeger den fundamentale forskel mellem at tillade brugere at dele problematisk indhold og selv at producere det: “Juridisk har vi ikke svarene endnu, men moralsk, etisk og teknisk er det tydeligvis et andet spørgsmål.”
Meta oplyser, at de er i gang med at revidere deres retningslinjer, men har afvist at offentliggøre det opdaterede dokument. Denne seneste afsløring føjer sig til en voksende liste af kontroverser omkring tech-gigantens håndtering af AI-teknologi og rejser alvorlige spørgsmål om deres evne til at beskytte sårbare brugere, særligt børn.
Mens Meta investerer milliarder i udvikling af kunstig intelligens og ser chatbots som nøglen til brugerengagement, viser denne sag, at virksomhedens etiske retningslinjer og sikkerhedsforanstaltninger ikke har fulgt med den hastige teknologiske udvikling.