Live Text er Apples versjon av Google Lens for iOS

Under WWDC har Apple annonsert Live Text. Det ligner på Google Lens og kan identifisere tekst, objekter og tall i bilder.

Apple legger til en ny funksjon kalt Live Text med iOS 15 og de andre nye operativsystemene. Hvis du allerede er kjent med Google Lens, Live Text ser ut til å være Apples versjon av den. Den lar iPhones gjenkjenne tekst i bilder og deretter iverksette tiltak på den.

Du kan ta et bilde av et dokument eller tavle og deretter kopiere teksten på det til et redigerbart dokument. Live Text kan også gjenkjenne tekst på steder som restaurantskilt. Dette lar brukere trykke på en "Søk opp"-knapp for å finne restauranten på nettet for å reservere. Faktisk kan Live Text til og med identifisere telefonnumre, og ved å trykke på dem kan brukere ringe steder direkte fra et bilde.

Disse bildegjenkjenningsmulighetene lar også Spotlight søke etter innhold i bilder. Hvis du begynner å søke etter tekst, kan iPhone finne teksten i bilder du har tatt tidligere, slik at du lettere kan finne spesifikk informasjon.

Live Text jobber med tekst på syv forskjellige språk ved lansering. Disse inkluderer engelsk, kinesisk, fransk, italiensk, tysk, spansk og portugisisk. Du kan også oversette tekst på et bilde, som er en annen likhet med Google Lens.

Det er imidlertid mer ved Live Text enn enkel tekstgjenkjenning. Apple-enheter vil også kunne gjenkjenne visse gjenstander, dyr eller kunstverk. Ved å bruke Visual Look Up kan brukere ta et bilde av et objekt og deretter finne mer informasjon om det på nettet. Hvis du for eksempel ser et maleri du ikke kjenner, kan du ta et bilde av det for å finne ut hva det er.

Hvis alt dette høres kjent ut, er det selvfølgelig fordi det er veldig likt Google Lens. Tekst- og objektgjenkjenning er begge ting Googles tilbud har gjort en stund, og det samme er oversettelse. Google Lens er også tilgjengelig på flere plattformer, inkludert iOS. Imidlertid vil Live Text sannsynligvis føles mer hjemmehørende for brukere i Apple-økosystemet.