Personal Voice på iOS 17: Apples hittills mest framträdande AI-funktion

Jämfört med Google och Microsoft har Apples framsteg i den konsumentinriktade AI-avdelningen varit långsam. Medan Cupertino-företaget enligt uppgift har testat Apple GPT i sina hemliga labb har iPhone-användare fortfarande ingen tillgång till en smart assistent. Idag kan de på iOS använda Siris uråldriga kunskap för att få några grundläggande uppgifter gjorda. Men även då misslyckas den här assistenten ofta med att förstå osofistikerade kommandon. Efter att ha använt Funktionen Personlig röst på iOS 17, men min tilltro till Apple och dess framsteg inom AI-området förnyades.

Vad är personlig röst?

För de som inte är bekanta tillkännagav Apple Personal Voice först för några månader sedan som en av flera tillgänglighetsfunktioner som kommer till dess plattformar senare i år. Detta tillägg är nu tillgängligt i beta för de som kör iOS 17 och iPadOS 17, och det kräver en 15-minuters installation. Under installationsprocessen uppmanas du att läsa korta fraser i en tyst miljö. Efter att ha läst över hundra av dem börjar iOS analysera dem när din iPhone är låst och ansluten till laddaren. Observera att förberedelsefasen tog min

iPhone 14 Pro flera dagar att avsluta. Så även om du köp den senaste iPhonen (och a Skyddsfodral för det), förvänta dig inte att processen ska vara supersnabb. När den är klar kommer din iPhone eller iPad att kunna läsa text med din virtuella röst.

Hands-on med personlig röst

Inledningsvis hade jag väldigt låga förväntningar på slutresultatet, eftersom Apple inte precis är känt för sin AI-smart. Men grabben, jag var blåst efter att ha testat det för första gången. Ja, det finns ett oundvikligt robotlager till den virtuella rösten, men det låter verkligen som jag. Och med tanke på att den här funktionen fungerar helt offline är det verkligen imponerande hur långt Apple har kommit på detta område.

För att få en mer objektiv bild av funktionens resultat skickade jag till och med virtuella röstmeddelanden till ett antal kontakter. Vissa var helt omedvetna om att rösten var konstgjord, medan andra kunde upptäcka robotlagret som åtföljde den. Alla var dock överens om att den personliga rösten verkligen låter som min riktiga röst.

Förlitar jag mig aktivt på personlig röst i mitt dagliga liv? Inte riktigt. Det är trots allt en tillgänglighetsfunktion designad för personer med talsvårigheter eller som riskerar att tappa rösten på vägen. Det är verkligen ett coolt partytrick att visa upp några gånger för de som inte är bekanta med den senaste mobila tekniken. Men du kommer förmodligen inte att använda det mycket om du inte har talsvårigheter. Icke desto mindre är det en lovande materialisering av Apples inte så hemliga ansträngningar när det kommer till AI-drivna funktioner, särskilt eftersom rapporter indikerar att vi kan se några stora AI-fokuserade erbjudanden från Apple nästa år.

Hur det kan bana väg för mer avancerade funktioner

När Personal Voice blir tillgängligt för miljontals iPhone-kunder senare i år, får det dig att undra om användare så småningom kommer att kunna skapa virtuella identiteter av sig själva. Även om jag inte ser att Apple kör det, är det nu möjligt att manipulera videor och de inkluderade ansiktsuttrycken, för att inte tala om att replikera en persons röst. Mata den virtuella versionen av dig några års chatthistorik med någon, och du kan lika gärna kunna replikera någons personlighet, talton och stil. Se resultatet med en Apple Vision Pro, och du har en identisk virtuell tvilling som kan replikera någons utseende, röst och mentalitet.