Google har afsløret en række nye AI-funktioner på denne uges I/O-event, hvor Gemini spiller en større rolle i fremtiden.
Gemini tager over
Ved Google’s I/O 2024 udviklerkonference brugte virksomheden stort set hele tiden på at tale om AI (som forventet). Under hovedtalen uddybbede Google, hvordan kunstig intelligens ville blive integreret med Android fremadrettet, med Gemini i rollen som virtuel assistent på en mere integreret og kontekstuel måde end Google Assistant.
Lidt som Google Assistant, men bedre
Efter at have lanceret Gemini-appen tilbage i februar, er Google begyndt at udbygge Gemini til Android med en række nye funktioner, der kan integrere AI i flere aspekter af dit hverdag. Gemini bliver nu designet til at flyde oven på hvad end du laver, i stedet for at tage hele din skærm. Dette giver en mere “Google Assistant”-agtig oplevelse, men nu med en kæmpe tekstfelt til at indtaste dine forespørgsler.
Kontekst er nøgleordet
Med den nye overlay-tilpasning vil Gemini give dig kontekstualiserede kontroller. Eksempelvis, hvis du ser en YouTube-video, kan du trække Gemini op og bruge en knap, der siger “Spørg denne video,” så du kan bruge videobasis for at stille spørgsmål eller opsummere indholdet. Denne funktion vil også virke med PDF’er, så længe du abonnerer på Gemini Advanced, som har en længere kontekstuel vindue.
Gemini som din AI-makker
Google demoede også hvordan Gemini flyder let inden for apps. Du kan eksempelvis bede chatbotten om at generere et billede og derefter trække resultatet ind i en besked-app og sende det til din ven. Over tid siger Google, at Gemini vil blive mere kontekstuelt bevidst om apps på din telefon og gøre det lettere at navigere med Dynamiske Forslag.
Hjælp til de nørdede opgaver
Google opgraderer også Circle to Search, som allerede er tilgængeligt på over 100 millioner Android-enheder, til at hjælpe med hjemmearbejde. Den nye funktion vil gøre det muligt for studerende at forstå komplekse fysik- og matematikopgaver bedre ved at give en detaljeret gennemgang af, hvordan man løser problemet. Dette er drevet af Google’s LearnLM-model med mål om at gøre læring lettere med AI.
Gemini Nano forbedres
Google annoncerede også, at Gemini Nano, modellen der er bygget direkte ind i Android (dog på meget få enheder), vil modtage en opgradering kaldet “Gemini Nano med Multimodality.” Den opdaterede LLM vil tillade brug af forskellige medieinput såsom tekst, fotos, videoer og stemme for at interagere med Gemini og få svar på spørgsmål, information om forespørgsler og mere. Funktionen vil også støtte TalkBack til tekstbeskrivelser af billeder og realtids-spammeddelelser under opkald.
Denne strøm af AI-funktioner vil finde vej til Android 15 og fremover over tid. Nogle af dem vil først lancere på Pixel-enheder, mens andre vil være tilgængelige for alle, der downloader Gemini-appen. Hvordan det hele vil udfolde sig, må tiden vise, men én ting er sikkert: Hvis du ejer og bruger en Android-telefon, er den ved at blive meget mere kraftfuld.