Live Text ist Apples Version von Google Lens für iOS

click fraud protection

Während der WWDC hat Apple Live Text angekündigt. Es ähnelt Google Lens und kann Text, Objekte und Zahlen in Fotos identifizieren.

Apple fügt mit iOS 15 und seinen anderen neuen Betriebssystemen eine neue Funktion namens Live Text hinzu. Wenn Sie bereits damit vertraut sind Google Lens, Live Text scheint Apples Version davon zu sein. Damit können iPhones Text in Bildern erkennen und darauf reagieren.

Sie können ein Foto von einem Dokument oder Whiteboard machen und dann den Text darauf in ein bearbeitbares Dokument kopieren. Live Text kann auch Text an Orten wie Restaurantschildern erkennen. Anschließend können Benutzer auf die Schaltfläche „Nachschlagen“ tippen, um das Restaurant online zu finden und eine Reservierung vorzunehmen. Tatsächlich kann Live Text sogar Telefonnummern identifizieren, und durch Antippen können Benutzer Orte direkt von einem Bild aus anrufen.

Dank dieser Bilderkennungsfunktionen kann Spotlight auch nach Inhalten in Bildern suchen. Wenn Sie mit der Suche nach Text beginnen, kann Ihr iPhone diesen Text in Bildern finden, die Sie zuvor aufgenommen haben, sodass Sie bestimmte Informationen leichter finden können.

Live Text funktioniert beim Start mit Text in sieben verschiedenen Sprachen. Dazu gehören Englisch, Chinesisch, Französisch, Italienisch, Deutsch, Spanisch und Portugiesisch. Sie können auch Text auf einem Bild übersetzen, was eine weitere Ähnlichkeit mit Google Lens darstellt.

Live Text bietet jedoch mehr als nur einfache Texterkennung. Apple-Geräte werden auch in der Lage sein, bestimmte Objekte, Tiere oder Kunstwerke zu erkennen. Mit Visual Look Up können Benutzer ein Foto eines Objekts machen und dann online weitere Informationen darüber finden. Wenn Sie beispielsweise ein Gemälde sehen, das Sie nicht kennen, können Sie ein Foto davon machen, um herauszufinden, um was es sich handelt.

Wenn Ihnen das alles bekannt vorkommt, liegt das natürlich daran, dass es Google Lens sehr ähnlich ist. Text- und Objekterkennung sind beides Dinge, die das Angebot von Google schon seit einiger Zeit leistet, ebenso wie die Übersetzung. Google Lens ist auch auf mehreren Plattformen verfügbar, einschließlich iOS. Allerdings wird sich Live Text für Benutzer im Apple-Ökosystem wahrscheinlich eher heimisch anfühlen.