라이브 텍스트는 Apple의 iOS용 Google Lens 버전입니다.

WWDC에서 Apple은 라이브 텍스트(Live Text)를 발표했습니다. Google Lens와 유사하며 사진 속 텍스트, 개체, 숫자를 식별할 수 있습니다.

Apple은 iOS 15 및 기타 새로운 운영 체제에 라이브 텍스트라는 새로운 기능을 추가하고 있습니다. 이미 익숙하신 분들이라면 구글 렌즈, 라이브 텍스트는 Apple 버전인 것 같습니다. 이를 통해 iPhone은 사진 속 텍스트를 인식하고 이에 대한 조치를 취할 수 있습니다.

문서나 화이트보드의 사진을 찍은 다음 그 안에 있는 텍스트를 편집 가능한 문서에 복사할 수 있습니다. 라이브 텍스트는 레스토랑 간판과 같은 장소의 텍스트도 인식할 수 있습니다. 그런 다음 사용자는 '조회' 버튼을 탭하여 온라인으로 레스토랑을 찾아 예약할 수 있습니다. 실제로 라이브 텍스트는 전화번호도 식별할 수 있으며 이를 탭하면 사용자가 사진에서 직접 장소에 전화를 걸 수 있습니다.

이러한 이미지 인식 기능을 통해 Spotlight는 이미지의 콘텐츠를 검색할 수도 있습니다. 텍스트 검색을 시작하면 iPhone이 이전에 찍은 사진에서 해당 텍스트를 찾을 수 있으므로 특정 정보를 더 쉽게 찾을 수 있습니다.

라이브 텍스트는 출시 시 7개 언어로 된 텍스트와 함께 작동합니다. 여기에는 영어, 중국어, 프랑스어, 이탈리아어, 독일어, 스페인어, 포르투갈어가 포함됩니다. 사진의 텍스트를 번역할 수도 있는데, 이는 Google Lens와 또 다른 유사점입니다.

그러나 라이브 텍스트에는 단순한 텍스트 인식보다 더 많은 기능이 있습니다. Apple 장치는 특정 물체, 동물 또는 예술 작품도 인식할 수 있습니다. 시각적 조회를 사용하면 사용자는 개체의 사진을 찍은 다음 온라인에서 해당 개체에 대한 자세한 정보를 찾을 수 있습니다. 예를 들어, 모르는 그림이 보이면 사진을 찍어서 그것이 무엇인지 알아낼 수 있습니다.

이 모든 것이 익숙하게 들린다면 물론 Google Lens와 매우 유사하기 때문입니다. 텍스트와 객체 인식은 모두 Google이 제공하는 기능이며 번역도 마찬가지입니다. Google Lens는 여러 플랫폼에서도 사용할 수 있습니다.

iOS를 포함해. 그러나 라이브 텍스트는 Apple 생태계의 사용자에게 더 친숙하게 느껴질 것입니다.