Personlig stemme på iOS 17: Apples mest fremtredende AI-funksjon til nå

Sammenlignet med Google og Microsoft har Apples fremgang i den forbrukerrettede AI-avdelingen vært sakte. Mens Cupertino-firmaet skal ha blitt testet Apple GPT i sine hemmelige laboratorier har iPhone-brukere fortsatt ingen tilgang til en smart assistent. I dag kan de på iOS bruke Siris eldgamle kunnskap for å få gjort noen grunnleggende oppgaver. Men selv da klarer ikke denne assistenten ofte å forstå usofistikerte kommandoer. Etter bruk av Personlig stemme-funksjon på iOS 17, men min tro på Apple og dets fremgang på AI-feltet ble fornyet.

Hva er personlig stemme?

For de som ikke er kjente, annonserte Apple personlig stemme for noen måneder siden som en av flere tilgjengelighetsfunksjoner som kommer til plattformene senere i år. Dette tillegget er nå tilgjengelig i beta for de som kjører iOS 17 og iPadOS 17, og det krever et 15-minutters oppsett. Under oppsettsprosessen blir du bedt om å lese korte setninger i rolige omgivelser. Etter å ha lest over hundre av dem, begynner iOS å analysere dem når iPhone er låst og koblet til laderen. Merk at forberedelsesfasen tok min

iPhone 14 Pro flere dager å konkludere. Så selv om du kjøp den nyeste iPhone (og a beskyttende etui for det), ikke forvent at prosessen skal være superrask. Når den er klar, vil iPhone eller iPad kunne lese tekst ved hjelp av den virtuelle stemmen din.

Hands-on med personlig stemme

I utgangspunktet hadde jeg veldig lave forventninger til sluttresultatet, siden Apple ikke akkurat er kjent for sine AI-smarts. Men gutt, tankene mine ble blåst etter å ha testet den for første gang. Ja, det er et uunngåelig robotlag til den virtuelle stemmen, men det høres absolutt ut som meg. Og med tanke på at denne funksjonen fungerer helt offline, er det virkelig imponerende hvor langt Apple har kommet på dette feltet.

For å få en mer objektiv oversikt over funksjonens resultater sendte jeg til og med virtuelle talemeldinger til en rekke kontakter. Noen var helt uvitende om at stemmen var kunstig, mens andre kunne oppdage robotlaget som fulgte med den. Alle var imidlertid enige om at den personlige stemmen virkelig høres ut som min virkelige stemme.

Stoler jeg aktivt på personlig stemme i mitt daglige liv? Ikke egentlig. Tross alt er det en tilgjengelighetsfunksjon designet for de med talevansker eller som står i fare for å miste stemmen på veien. Det er absolutt et kult festtriks å vise seg frem noen ganger for de som ikke er kjent med de nyeste mobilteknologiene. Imidlertid vil du sannsynligvis ikke bruke det mye med mindre du har talevansker. Ikke desto mindre er det en lovende materialisering av Apples ikke-så-hemmelige innsats når det kommer til AI-drevne funksjoner, spesielt siden rapporter indikerer at vi kan se noen store AI-fokuserte tilbud fra Apple neste år.

Hvordan det kan bane vei for mer avanserte funksjoner

Med Personal Voice som blir tilgjengelig for millioner av iPhone-kunder senere i år, får det deg til å lure på om brukere til slutt vil kunne generere virtuelle identiteter av seg selv. Selv om jeg ikke ser at Apple utfører det, er det nå mulig å manipulere videoer og de inkluderte ansiktsuttrykkene, for ikke å snakke om å replikere en persons stemme. Gi den virtuelle versjonen av deg noen års chat-historie med noen, og du kan like godt være i stand til å gjenskape noens personlighet, taletone og stil. Se resultatet med en Apple Vision Pro, og du har en identisk virtuell tvilling som kan gjenskape noens utseende, stemme og mentalitet.