Vergeleken met Google en Microsoft is de vooruitgang van Apple op de consumentengerichte AI-afdeling traag. Terwijl de firma uit Cupertino naar verluidt aan het testen was Apple GPT in zijn geheime laboratoria hebben iPhone-gebruikers nog steeds geen toegang tot a slim assistent. Tegenwoordig kunnen iOS-gebruikers de eeuwenoude kennis van Siri gebruiken om enkele basistaken uit te voeren. Maar zelfs dan slaagt deze assistent er vaak niet in om ongecompliceerde commando's te begrijpen. Na gebruik van de Persoonlijke stemfunctie op iOS 17Mijn vertrouwen in Apple en zijn vooruitgang op AI-gebied werd echter hernieuwd.
Wat is persoonlijke stem?
Voor degenen die niet bekend zijn: Apple heeft Personal Voice een paar maanden geleden voor het eerst aangekondigd als een van de vele toegankelijkheidsfuncties die later dit jaar naar zijn platforms komen. Deze toevoeging is nu beschikbaar in bèta voor degenen die actief zijn iOS 17 En iPadOS 17, en het vereist een installatie van 15 minuten. Tijdens het installatieproces wordt u gevraagd korte zinnen te lezen in een rustige omgeving. Nadat iOS er meer dan honderd heeft gelezen, begint iOS ze te analyseren wanneer je iPhone is vergrendeld en aangesloten op de oplader. Houd er rekening mee dat de voorbereidingsfase mijn tijd kostte
iPhone 14 Pro enkele dagen om af te ronden. Dus zelfs als je koop de nieuwste iPhone (en een beschermende hoes daarvoor), verwacht niet dat het proces supersnel zal zijn. Zodra het klaar is, kan uw iPhone of iPad tekst lezen met uw virtuele stem.Hands-on met persoonlijke stem
Aanvankelijk had ik zeer lage verwachtingen van het eindresultaat, aangezien Apple niet bepaald bekend staat om zijn AI-slimheid. Maar jongen, ik was verbijsterd nadat ik het voor de eerste keer had getest. Ja, er zit een onvermijdelijke robotlaag in de virtuele stem, maar het klinkt zeker zoals ik. En gezien het feit dat deze functie volledig offline werkt, is het echt indrukwekkend hoe ver Apple op dit gebied is gekomen.
Om een objectiever beeld te krijgen van de resultaten van de functie, heb ik zelfs virtuele spraakberichten naar een aantal contacten gestuurd. Sommigen waren zich er totaal niet van bewust dat de stem kunstmatig was, terwijl anderen de bijbehorende robotlaag konden detecteren. Iedereen was het er echter over eens dat de Persoonlijke Stem inderdaad klinkt als mijn echte stem.
Vertrouw ik in mijn dagelijks leven actief op Personal Voice? Niet echt. Het is tenslotte een toegankelijkheidsfunctie die is ontworpen voor mensen met spraakproblemen of die het risico lopen hun stem onderweg te verliezen. Het is zeker een coole feesttruc om een paar keer te pronken met degenen die niet bekend zijn met de nieuwste mobiele technologieën. U zult het echter waarschijnlijk niet veel gebruiken, tenzij u spraakproblemen heeft. Desalniettemin is het een veelbelovende verwezenlijking van de niet zo geheime inspanningen van Apple op het gebied van AI-aangedreven functies, vooral omdat uit rapporten blijkt dat we volgend jaar een aantal grote AI-gerichte aanbiedingen van Apple zouden kunnen zien.
Hoe het de weg zou kunnen vrijmaken voor meer geavanceerde functies
Nu Personal Voice later dit jaar toegankelijk wordt voor miljoenen iPhone-klanten, vraag je je af of gebruikers uiteindelijk in staat zullen zijn een virtuele identiteit van zichzelf te genereren. Hoewel ik het Apple niet zie uitvoeren, is het nu mogelijk om video's en de bijbehorende gezichtsuitdrukkingen te manipuleren, om nog maar te zwijgen van het repliceren van iemands stem. Geef de virtuele versie van jou een paar jaar chatgeschiedenis met iemand, en je kunt net zo goed iemands persoonlijkheid, spraaktoon en stijl repliceren. Bekijk het resultaat met een Apple Vision Pro en je hebt een identieke virtuele tweeling die iemands uiterlijk, stem en mentaliteit kan repliceren.