Live Text คือ Google Lens เวอร์ชันของ Apple สำหรับ iOS

ในช่วง WWDC Apple ได้ประกาศ Live Text คล้ายกับ Google Lens และสามารถระบุข้อความ วัตถุ และตัวเลขในรูปภาพได้

Apple กำลังเพิ่มคุณสมบัติใหม่ที่เรียกว่า Live Text พร้อม iOS 15 และระบบปฏิบัติการใหม่อื่น ๆ หากคุณคุ้นเคยแล้ว กูเกิลเลนส์ดูเหมือนว่า Live Text จะเป็นเวอร์ชันของ Apple ช่วยให้ iPhone จดจำข้อความในรูปภาพแล้วดำเนินการกับข้อความนั้น

คุณสามารถถ่ายรูปเอกสารหรือไวท์บอร์ดแล้วคัดลอกข้อความบนนั้นลงในเอกสารที่แก้ไขได้ Live Text ยังสามารถจดจำข้อความในตำแหน่งต่างๆ เช่น ป้ายร้านอาหารได้ จากนั้นให้ผู้ใช้แตะปุ่ม "ค้นหา" เพื่อค้นหาร้านอาหารออนไลน์เพื่อทำการจอง ในความเป็นจริง Live Text ยังสามารถระบุหมายเลขโทรศัพท์ได้ และการแตะหมายเลขดังกล่าวจะทำให้ผู้ใช้สามารถโทรไปยังสถานที่ต่างๆ ได้โดยตรงจากรูปภาพ

ความสามารถในการจดจำรูปภาพเหล่านี้ยังทำให้ Spotlight สามารถค้นหาเนื้อหาในรูปภาพได้อีกด้วย หากคุณเริ่มค้นหาข้อความ iPhone ของคุณจะพบข้อความนั้นในรูปภาพที่คุณถ่ายไว้ก่อนหน้านี้ ดังนั้นคุณจึงสามารถค้นหาข้อมูลที่เฉพาะเจาะจงได้ง่ายขึ้น

Live Text ใช้งานได้กับข้อความในเจ็ดภาษาที่แตกต่างกันเมื่อเปิดตัว ได้แก่ภาษาอังกฤษ จีน ฝรั่งเศส อิตาลี เยอรมัน สเปน และโปรตุเกส คุณยังสามารถแปลข้อความบนรูปภาพได้ ซึ่งมีความคล้ายคลึงกับ Google Lens อีกประการหนึ่ง

Live Text มีอะไรมากกว่าการจดจำข้อความธรรมดา อุปกรณ์ Apple จะสามารถจดจำวัตถุ สัตว์ หรืองานศิลปะบางชนิดได้ การใช้ Visual Look Up ผู้ใช้สามารถถ่ายภาพวัตถุแล้วค้นหาข้อมูลเพิ่มเติมเกี่ยวกับวัตถุนั้นทางออนไลน์ ตัวอย่างเช่น หากคุณเห็นภาพวาดที่คุณไม่รู้จัก คุณสามารถถ่ายรูปเพื่อดูว่ามันคืออะไร

หากทั้งหมดนี้ฟังดูคุ้นเคย แน่นอนว่าเป็นเพราะว่ามันคล้ายกับ Google Lens มาก การจดจำข้อความและวัตถุเป็นทั้งสิ่งที่ Google นำเสนอมาระยะหนึ่งแล้ว และการแปลก็เช่นกัน Google Lens ยังมีให้บริการในหลายแพลตฟอร์ม รวมทั้ง iOS ด้วย. อย่างไรก็ตาม Live Text น่าจะให้ความรู้สึกเป็นธรรมชาติมากกว่าสำหรับผู้ใช้ในระบบนิเวศของ Apple