במהלך WWDC, אפל הכריזה על טקסט חי. זה דומה ל-Google Lens והוא יכול לזהות טקסט, אובייקטים ומספרים בתמונות.
אפל מוסיפה תכונה חדשה בשם Live Text עם iOS 15 ושאר מערכות ההפעלה החדשות שלה. אם אתה כבר מכיר עדשת גוגל, נראה שטקסט חי הוא הגרסה של אפל שלו. זה מאפשר לאייפון לזהות טקסט בתמונות ולאחר מכן לבצע עליו פעולה.
אתה יכול לצלם תמונה של מסמך או לוח ואז להעתיק את הטקסט שעליו למסמך הניתן לעריכה. טקסט חי יכול לזהות טקסט גם במקומות כמו שלטי מסעדות. זה מאפשר למשתמשים להקיש על כפתור "חפש" כדי למצוא את המסעדה באינטרנט כדי לבצע הזמנה. למעשה, Live Text יכול אפילו לזהות מספרי טלפון, והקשה עליהם מאפשרת למשתמשים להתקשר למקומות ישירות מתמונה.
יכולות זיהוי תמונות אלו גם מאפשרות ל-Spotlight לחפש תוכן בתמונות. אם אתה מתחיל לחפש טקסט, האייפון שלך יכול למצוא את הטקסט הזה בתמונות שצילמת בעבר, כך שתוכל למצוא מידע ספציפי ביתר קלות.
טקסט חי עובד עם טקסט בשבע שפות שונות בעת ההשקה. אלה כוללים אנגלית, סינית, צרפתית, איטלקית, גרמנית, ספרדית ופורטוגזית. אתה יכול גם לתרגם טקסט על תמונה, וזה עוד דמיון עם Google Lens.
עם זאת, יש יותר בטקסט חי מאשר זיהוי טקסט פשוט. מכשירי אפל יוכלו גם לזהות חפצים מסוימים, בעלי חיים או יצירות אמנות. באמצעות Visual Look Up, משתמשים יכולים לצלם תמונה של אובייקט ואז למצוא מידע נוסף עליו באינטרנט. לדוגמה, אם אתה רואה ציור שאתה לא מכיר, אתה יכול לצלם אותו כדי לגלות מה זה.
אם כל זה נשמע מוכר, זה כמובן בגלל שזה מאוד דומה ל-Google Lens. זיהוי טקסט ואובייקט הם שני הדברים שההצעה של גוגל עושה כבר זמן מה, וכך גם התרגום. Google Lens זמין גם במספר פלטפורמות, כולל iOS. עם זאת, טקסט חי ככל הנראה ירגיש מקורי יותר למשתמשים במערכת האקולוגית של אפל.