Google forklarer: Hvad gik der galt med AI Overviews?
Google har endelig forsøgt at forklare, hvad der gik galt med sine nye AI Overviews, som foreslog at vi skulle spise sten og putte lim på vores pizzaer. I et blogindlæg i går, forklarede Google Search VP Liz Reid de problemer, der opstod efter, at funktionen blev lanceret.
Fra beta til problemer på ingen tid
AI Overviews blev introduceret til Googles søgemaskine den 14. maj og gik levende for alle i USA. Ideen var at levere AI-baserede svar på næsten enhver søgning, men det varede ikke længe, før systemet begyndte at foreslå alt fra lim på pizzaer til potentielt livsfarlige helseråd. Reid forklarer, at mens funktionen blev testet, “er der intet som at have millioner af mennesker, der bruger funktionen med mange nye søgninger.”
Hvorfor gik det galt?
Reid siger, at AI Overviews fungerer meget anderledes end chatbots og andre LLM-produkter. Fejlene skyldes ikke hallucinationer, men modellerne mislæser, hvad der allerede findes på nettet. “Fora er ofte en stor kilde til autentisk, førstehånds information, men i nogle tilfælde kan det føre til mindre nyttige råd.”
Når der er “datahuller” om bestemte emner, kan Overviews uheldigvis trække fra satiriske kilder frem for legitime. For at bekæmpe disse fejl har Google foretaget flere forbedringer.
Forbedringer er på vej
Google har indbygget bedre detektionsmekanismer for at forhindre ulogiske forespørgsler, begrænset brugen af humoristisk indhold, og tilføjet afgrænsninger for, hvornår AI Overviews ikke er nyttige. De har også lanceret yderligere refinements for helserelateret indhold.
Brugertilfredshed vs. Buzz
På trods af sociale mediers buzz, siger Google, at “brugerfeedback viser, at folk er mere tilfredse med deres søgeresultater med AI Overviews.” Dog virker der stadig at være en afbrydelse mellem Google og brugerne. Google kritiserede brugere, der bevidst bad om meningsløse søgninger for at fremprovokere fejl.
Ansvarsfraskrivelse eller løftet slør?
Der er en vis tone af ansvarsfraskrivelse i Google’s blogindlæg, idet virksomheden benægter ansvar for flere fejlagtige svar og siger, at nogle farlige resultater var falske. Selvom Google hævder, at AI Overviews kun “misfortolker sprog” i “et lille antal tilfælde,” kan man ikke undgå at have lidt ondt af dem, der måske fulgte dens “squat plug” råd i et forsøg på at forbedre deres træningsrutine.