Live Text on Apple'i Google Lensi versioon iOS-ile

WWDC ajal teatas Apple reaalajas tekstist. See sarnaneb Google Lensiga ja suudab tuvastada fotodel teksti, objekte ja numbreid.

Apple lisab iOS 15 ja selle teiste uute operatsioonisüsteemidega uue funktsiooni nimega Live Text. Kui olete juba tuttav Google Lens, Live Text näib olevat Apple'i versioon sellest. See võimaldab iPhone'idel piltidel teksti ära tunda ja seejärel sellega toiminguid teha.

Saate pildistada dokumendist või tahvlist ja seejärel kopeerida sellel oleva teksti redigeeritavasse dokumenti. Live Text tunneb teksti ära ka sellistes kohtades nagu restoranisildid. See võimaldab kasutajatel puudutada nuppu "Otsi üles", et leida restoran veebis ja broneerida. Tegelikult suudab reaalajas tekst isegi telefoninumbreid tuvastada ja nende puudutamine võimaldab kasutajatel helistada kohtadesse otse pildilt.

Need pildituvastusvõimalused võimaldavad ka Spotlightil otsida piltidelt sisu. Kui hakkate teksti otsima, leiab teie iPhone selle teksti varem tehtud piltidelt, et saaksite konkreetset teavet hõlpsamini leida.

Reaalajas tekst töötab käivitamisel tekstiga seitsmes erinevas keeles. Nende hulka kuuluvad inglise, hiina, prantsuse, itaalia, saksa, hispaania ja portugali keel. Samuti saate tõlkida pildil oleva teksti, mis on veel üks sarnasus Google Lensiga.

Reaalajas tekst on aga enamat kui lihtne tekstituvastus. Apple'i seadmed suudavad ära tunda ka teatud esemeid, loomi või kunstiteoseid. Visual Look Up abil saavad kasutajad objektist pildi teha ja seejärel veebist selle kohta lisateavet leida. Näiteks kui näete maali, mida te ei tunne, saate sellest pildistada, et teada saada, mis see on.

Kui see kõik tundub tuttav, siis loomulikult on see nii, sest see on väga sarnane Google Lensiga. Teksti- ja objektituvastus on mõlemad asjad, mida Google'i pakkumine on juba mõnda aega teinud, nagu ka tõlkimine. Google Lens on saadaval ka mitmel platvormil, sealhulgas iOS. Tõenäoliselt tunneb reaalajas tekst Apple'i ökosüsteemi kasutajatele rohkem.