Sammenlignet med Google og Microsoft har Apples fremgang i den forbrugerorienterede AI-afdeling været langsom. Mens Cupertino-firmaet efter sigende er blevet testet Apple GPT i dets hemmelige laboratorier har iPhone-brugere stadig ingen adgang til en smart assistent. I dag kan dem på iOS bruge Siris gamle viden til at få nogle grundlæggende opgaver udført. Men selv da, forstår denne assistent ofte usofistikerede kommandoer. Efter brug af Personlig stemme-funktion på iOS 17, dog blev min tro på Apple og dets fremskridt på AI-området fornyet.
Hvad er personlig stemme?
For dem, der ikke kender til, annoncerede Apple først Personal Voice for et par måneder siden som en af flere tilgængelighedsfunktioner, der kommer til deres platforme senere i år. Denne tilføjelse er nu tilgængelig i beta for dem, der kører iOS 17 og iPadOS 17, og det kræver en 15-minutters opsætning. Under opsætningsprocessen bliver du bedt om at læse korte sætninger i et roligt miljø. Efter at have læst over hundrede af dem, begynder iOS at analysere dem, når din iPhone er låst og tilsluttet dens oplader. Bemærk at forberedelsesfasen tog min
iPhone 14 Pro flere dage til at afslutte. Så selvom du køb den nyeste iPhone (og en beskyttende etui for det), forvent ikke, at processen er superhurtig. Når den er klar, vil din iPhone eller iPad være i stand til at læse tekst ved hjælp af din virtuelle stemme.Hands-on med personlig stemme
I starten havde jeg meget lave forventninger til slutresultatet, da Apple ikke ligefrem er berømt for sine AI-smarts. Men dreng, mit sind var blæst efter at have testet det for første gang. Ja, der er et uundgåeligt robotlag til den virtuelle stemme, men det lyder bestemt som mig. Og i betragtning af, at denne funktion fungerer fuldstændig offline, er det virkelig imponerende, hvor langt Apple er kommet på dette felt.
For at få et mere objektivt overblik over funktionens resultater sendte jeg endda virtuelle talebeskeder til en række kontakter. Nogle var fuldstændig uvidende om, at stemmen var kunstig, mens andre kunne registrere det robotlag, der fulgte med den. Alle var dog enige om, at den personlige stemme virkelig lyder som min rigtige stemme.
Stoler jeg aktivt på personlig stemme i mit daglige liv? Ikke rigtig. Det er trods alt en tilgængelighedsfunktion designet til dem med talebesvær, eller som risikerer at miste stemmen hen ad vejen. Det er bestemt et fedt festtrick at vise frem et par gange for dem, der ikke er bekendt med de nyeste mobilteknologier. Du vil dog sandsynligvis ikke bruge det meget, medmindre du har talebesvær. Ikke desto mindre er det en lovende materialisering af Apples ikke-så-hemmelige indsats, når det kommer til AI-drevne funktioner, især da rapporter indikerer, at vi kunne se nogle store AI-fokuserede tilbud fra Apple næste år.
Hvordan det kunne bane vejen for mere avancerede funktioner
Da Personal Voice bliver tilgængelig for millioner af iPhone-kunder senere i år, får det dig til at spekulere på, om brugerne med tiden vil være i stand til at generere virtuelle identiteter af sig selv. Selvom jeg ikke kan se Apple udføre det, er det nu muligt at manipulere videoer og de inkluderede ansigtsudtryk, for ikke at nævne at replikere en persons stemme. Giv den virtuelle version af dig et par års chathistorie med nogen, og du kan lige så godt være i stand til at kopiere en persons personlighed, taletone og stil. Se resultatet med en Apple Vision Pro, og du har en identisk virtuel tvilling, der kan kopiere en persons udseende, stemme og mentalitet.