Ugens AI-nyheder
Apple AI Forsinket: Kommer Efter iOS 18 Lancering
Det ser ud til, at Apples nye artificielle intelligens-funktioner får brug for lidt ekstra tid i opladningsstationen, inden de er klar til offentligheden. Ifølge pålidelige kilder vil teknologi-giganten rulle Apple Intelligence ud til sine trofaste brugere først i oktober – et par uger efter den planlagte lancering af iOS 18 og iPadOS 18.
Beta-test forud for offentlig debut
Allerede i denne uge kan softwareudviklere dog få lov til at snuse til de nye funktioner gennem beta-versioner af iOS 18.1 og iPadOS 18.1. Ja, du læste rigtigt! Apple skruer op for nørdefaktoren og inviterer udviklere til at hjælpe med at glatte børnesygdommene ud på dette grønne AI-tog, før det præsenteres for den brede befolkning.
En strategisk forsinkelse
Grunden til forsinkelsen? Jo, Apple har selvfølgelig ikke tænkt sig at gøre noget halvt. Stabiliteten af Apple Intelligence-funktionerne har været en større bekymring hos ingeniørerne, hvilket har ført til beslutningen om at adskille AI-lanceringen fra den øvrige iOS 18-lancering.
AI features, men ikke alle på én gang
Selv når Apple Intelligence endelig ruller ud med iOS 18.1 og iPadOS 18.1, vil visse funktioner stadig mangle. Nogle af de største forbedringer til Siri, som evnen til at bruge enhedens egne data for at besvare forespørgsler og kontekstualisere svar baseret på, hvad der er på skærmen, vil være savnet i den første runde.
Helhjertet satsning på AI
Apple stikker hovedet dybt i AI-spillepladen for at sikre sin plads i den generative AI-verden, som på rekordtid har revolutioneret både forretning og forbrugerenheder. Med den kommende iPhone 16-linje og en række softwareopdateringer vil Apple forsøge at charmere brugerne til at opgradere, selvom der kun er få designændringer på horisonten.
Så hvis du lægger penge til side til den nye iPhone eller iPad, kan du altså ende med en ekstra godbid nogle uger efter din første udpakningssession. Bare husk at opdatere din software!
Instagram lancerer AI Studio til at skabe brugerdefinerede AI-profiler
Instagram Introducerer AI Studio: Skab Din Egen AI-version
Instagram har netop lanceret et spændende nyt værktøj kaldet AI Studio, som giver brugere mulighed for at skabe AI-versioner af sig selv eller helt skræddersyede AI-karakterer. Denne funktion er i øjeblikket tilgængelig i USA, og brugere kan få adgang til den via Instagram-appen eller den dedikerede AI Studio-webside (ai.meta.com/ai-studio).
Tilpasning på Et Helt Nyt Niveau
Med AI Studio kan brugere skræddersy AI-profiler med personlige træk og interesser. For indholdsskabere er der også mulighed for at bruge deres egne Instagram-opslag og undgå bestemte emner i AI’ens svar. Dette sikrer, at AI-profilen interagerer på en måde, der passer til deres brand og personlighed.
Interaktioner på Sociale Medier
En af de mest fascinerende funktioner ved AI Studio er evnen til, at AI-versioner kan interagere med følgere på vegne af brugeren. Dette inkluderer direkte beskeder og svar på kommentarer, som kan gøre dagligdagen lettere for mange influencere og brands, der ønsker at opretholde en høj grad af engagement.
Kontrol og Begrænsninger
Brugere har mulighed for at begrænse, hvilke konti deres AI interagerer med og specifikt angive emner, der skal undgås. Dette gør det muligt at holde en tæt kontrol med AI-profilens aktiviteter og sikre, at den opfører sig ansvarligt.
Kendisser og Fremtidige Planer: Flere kendisser som kokken Marc Murphy og fotografen Angel Barclay har allerede skabt AI-chatbots til specifikke opgaver som f.eks. madanbefalinger og fototips. Meta planlægger desuden at udvide AI Studio til alle brugere i USA inden for de næste par uger og integrere det i WhatsApp og Facebook Messenger på sigt.
Læring fra Fortiden og Ansvarlig Udvikling
Meta har tidligere forsøgt sig med AI-chatbots baseret på kendisser, men med begrænset succes. Nu har de finjusteret deres tilgang ved at tilbyde mere tilpasning og kontrol til brugerne. For at sikre en ansvarlig udvikling, sørger Meta for, at AI-profiler er tydeligt markeret, så de ikke forveksles med rigtige brugere: “Labeling is key”. Skaberne har også ansvaret for at sætte grænser for, hvilke emner AI’erne bør undgå, hvilket understreger vigtigheden af ansvarlig AI-udvikling.
Microsoft opfordrer Kongressen til lov mod AI-genereret deepfake-svindel
Microsoft Beder Kongressen om Hjælp Mod Deepfake-Svindel
Teknologigiganten Microsoft har netop sendt en stærk opfordring til den amerikanske Kongres om at vedtage en omfattende lovgivning mod deepfake-svindel. Initiativet kommer på baggrund af den stigende brug af AI-genererede deepfakes til svigagtige formål, som rammer alt fra børnebørn til bedsteforældre.
Beskyttelse af Sårbare Grupper
I et nyligt blogindlæg fra virksomhedens næstformand og præsident, Brad Smith, understreges det, hvor vigtigt det er at beskytte særligt sårbare grupper. “En af de vigtigste ting, USA kan gøre, er at vedtage en omfattende lovgivning mod deepfake-svindel for at forhindre cyberkriminelle i at stjæle fra almindelige amerikanere,” skriver Smith.
Et Lovgivningsmæssigt Behov
Microsoft fremhæver nødvendigheden af, at Kongressen indfører en lov, der specielt retter sig mod deepfake-svindel. Denne lov skal give retshåndhævende myndigheder, inklusive statsadvokater, et klart juridisk grundlag for at retsforfølge svindel med AI-genereret indhold. Ifølge Smith er sådan en lov afgørende, da teknologien bag deepfakes udvikler sig langt hurtigere end de eksisterende love kan følge med.
Microsofts Sikkerhedstiltag
Ud over at rette bønnen mod Kongressen har Microsoft selv taget flere skridt for at forbedre sikkerheden i sine AI-produkter. De har indført strengere beskyttelsesforanstaltninger mod eksplicit AI-genereret indhold og arbejder aktivt på at identificere og fjerne deepfake-svindel.
Tilhængere og Anbefalede Handlinger
Microsoft står ikke alene i kampen mod deepfake-svindel. Flere andre teknologivirksomheder og nonprofitorganisationer har også taget initiativer for at tackle problemet. Alligevel mener Microsoft, at der er brug for regeringsindgreb for effektivt at bekæmpe svindel. Smith anbefaler blandt andet, at lovgivningen opdateres for at inkludere AI-genereret materiale i eksisterende love mod børnemisbrug og udnyttelse.
Så hvis du endnu ikke har overvejet det, er det måske på tide at skrue ned for tilliden til de søde kattevideoer og kigge lidt nærmere på, hvad der ligger bag. Fremtiden venter ikke på nogen, og hverken børnebørn eller bedsteforældre skal lide under deepfake-svindels greb.
Canva opkøber australsk AI-startup Leonardo.AI for at styrke konkurrenceevnen
En Stærk Position
Canva har netop annonceret overtagelsen af den australske generative AI-opstartsvirksomhed Leonardo.AI den 30. juli 2024. Denne erhvervelse styrker Canvas position på det kreative software marked og intensiverer konkurrencen mod Adobe. Med denne milepæl viser Canva ingen tegn på at slippe gashåndtaget.
Avanceret Teknologi Integration
Erhvervelsen bringer Leonardo.AI’s avancerede generative AI-værktøjer, såsom tilpasselige tekst-til-billede og tekst-til-video generatorer, ind i Canva’s Magic Studio suite. Dette inkluderer den robuste Phoenix Foundation Model, som vil give en stærk platform for AI-drevne design- og produktivitetsværktøjer.
Forbedret Brugeroplevelse
Integrationen af Leonardo.AI’s teknologi i Canva’s Magic Studio suite vil løfte design- og kreativ output for brugerne, hvilket øger både effektivitet og innovation. Canva stræber efter at levere hurtigere og tilgængelige visuelle designværktøjer, hvilket især er nyttigt for markedsføringseksperter og designere.
Markedets Reaktion
Med over 190 millioner månedlige aktive brugere har Canva en stærk tilstedeværelse i markedet for visuelt kommunikationsværktøj. Leonardo.AI, trods sin unge alder siden grundlæggelsen i 2022, har allerede tiltrukket 19 millioner brugere og er blevet brugt til at generere over én milliard billeder. Det er klart, at Canva’s nye partner er en hurtig klatrer i den teknologiske stige.
Økonomisk Investering
Canva forpligter sig til at fortsætte investeringen i Leonardos selvstændige platform og integrere virksomhedens teknologi gennem hele virksomhedens Magic Studio produkter. Denne strategiske beslutning repræsenterer en betydelig acceleration i udvikling og investering i Canva’s AI-teknologi. Canva sikrer sig som en førende spiller på et marked, der aldrig har været mere dynamisk – og det næste store projekt kan allerede være på tegnebrættet!
Ny AI-ven på vej: Bærbar pendant tilbyder konstant selskab
Avi Schiffmann Introducerer “Friend” – Din AI-Kompis
Den visionære udvikler Avi Schiffmann er i gang med at skabe en revolutionerende AI-kompis kaldet “Friend”. Denne banebrydende teknologi er designet som en bærbar pendent, der konstant giver støtte og selskab til brugeren.
Hovedtræk
Friend er udstyret med en AI-chatbot, som altid lytter til brugeren og leverer støtte gennem tekstmeddelelser på en smartphone via en speciel app. Interessant nok engagerer AI’en sig ikke i verbal kommunikation, men planlægger at inkludere et kamera i fremtiden. Prisen er sat til $99 uden løbende abonnementsgebyrer.
Formål og Indvirkning
Modsat mange andre AI-enheder har Friend fokus på selskab frem for produktivitet. Dette baner vejen for dybere forhold mellem AI og brugeren. Brugerne kan dele personlige tanker og oplevelser med deres AI-ven, hvilket rejser interessante spørgsmål om privatliv og følelsesmæssig tilknytning.
Virkelighedens Brug
Friend tilbyder muligheden for at dele lokale attraktioner og daglige oplevelser. AI’en engagerer sig i bekræftende og opmuntrende samtaler, hvilket gør den ideel til at tale om personlige emner, herunder forhold.
Sammenligning med Andre AI-Platforme
Friend kombinerer det bedste fra Character.AI og Replika ved at være en konstant følgesvend i modsætning til session-baserede platforme. Dette konstant tilgængelige selskab er det, der adskiller Friend fra mængden.
Lansering og Tilgængelighed
De første 30.000 enheder af Friend forventes at blive frigivet i januar, og Schiffmann håber, at dette nye produkt vil demonstrere potentialet i AI-venskab. Klar til at finde en ny bedste ven i form af AI? Hold øje med denne spændende lancering!
Lovforslag vil begrænse tech-giganters ansvar for intime AI-deepfakes
Lovgivere bekæmper intime AI-dybde forfalskninger
Lovgivere arbejder på at introducere en lov kaldet Intimate Privacy Protection Act, som har til formål at begrænse Section 230-beskyttelsen for teknologivirksomheder, der ikke formår at fjerne intime AI-genererede dybfalske billeder fra deres tjenester. Denne lovgivning sigter mod at tackle problemer som cyberstalking, krænkelser af intim privatliv og digitale forfalskninger, særligt når det gælder ikke-samtykkede intime billeder og videoer, mest rettet mod kvinder.
Ændring i Section 230
Det foreslåede lovforslag, introduceret af repræsentanterne Jake Auchincloss (D-MA) og Ashley Hinson (R-IA), vil ændre Section 230 i Communications Act fra 1934. Denne ændring vil fjerne rettens beskyttelse mod juridisk ansvar, når platforme ikke tager passende handling for at forhindre disse privatlivskrænkelser. Forslaget understreger en “plejepligt” for platforme, som kræver, at de har en “rimelig proces” på plads til at:
- Tackle disse problemer: Platforme vil være forpligtet til at implementere strategier for at forhindre privatlivskrænkelser og forfalskninger.
- Rapporteringsmekanismer: Der skal være en enkel mekanisme for brugere til at rapportere skadeligt indhold.
- Indholdsfjernelse: Platforme skal sikre fjernelse af sådant indhold inden for 24 timer.
Hvad er digitale forfalskninger?
Begrebet “digitale forfalskninger” inkluderer AI-dybfalske billeder, som defineres som manipulerede eller ændrede digitale materialer, der stort set er uadskillelige fra autentiske optegnelser af tale, adfærd eller udseende. Forslaget søger at holde platforme ansvarlige for deres rolle i at beskytte brugere mod disse privatlivsrisici.
Platforme skal holdes ansvarlige
Forslaget til lovgivningen hævder, at teknologiplatforme ikke skal have lov til at gemme sig bag Section 230-beskyttelsen, hvis de ikke beskytter brugerne mod dybfalske billeder og andre privatlivskrænkelser. Denne indsats for ansvarlighed er en del af en bredere tendens, da lovgivere har forsøgt at begrænse Section 230-beskyttelser i nogen tid, selvom det har været udfordrende at opnå enighed.
En større diskussion om AI-regulering
Denne indsats for at tackle intime AI-dybfalske billeder er en del af en større diskussion omkring AI-regulering og privatlivslove. Andre foranstaltninger inkluderer en nyligt vedtaget lovgivning i Senatet kaldet DEFIANCE Act, som giver ofre for ikke-samtykkede intime billeder mulighed for at søge civile retsmidler mod gerningsmændene. Nogle virksomheder, såsom Microsoft, har også opfordret til kongresoversigt over brugen af AI-genererede dybfalske billeder i svigagtige og misbrugende sammenhænge.
OpenAI lancerer avanceret stemmefunktion til mere naturlig ChatGPT-dialog
Mere Naturlige Samtaler
OpenAI har netop begyndt at rulle sin avancerede stemmefunktion ud for ChatGPT, som gør det muligt for brugere at samtale med AI’en på en mere naturlig og engagerende måde. Denne nye funktion leverer realtidsrespons, som kan afbrydes, og den reagerer også bedre på humor og sarkasme.
Forbedret Latency
Med den nye stemmemodel bliver tale ikke omdannet til tekst og tilbage til tale, hvilket resulterer i lavere latency sammenlignet med den nuværende ChatGPT-stemme. Det betyder, at interaktionerne føles hurtigere og mere flydende.
Sikkerhedsforanstaltninger
Den avancerede stemmefunktion opererer inden for fire forudindstillede stemmer skabt med stemmeskuespillere, hvilket forhindrer AI’en i at imitere berømte stemmer. Derudover er der indbyggede beskyttelser, som blokerer for voldelige eller copyrightbeskyttede outputs.
Faset Udrulning
Tjenesten blev først annonceret til at starte i juni, men blev forsinket en måned grundet sikkerhedstest.