Live Text は、iOS 用 Google レンズの Apple バージョンです

WWDC 中に Apple は Live Text を発表しました。 これは Google レンズに似ており、写真内のテキスト、オブジェクト、数字を識別できます。

Apple は、iOS 15 およびその他の新しいオペレーティング システムに Live Text と呼ばれる新機能を追加します。 すでに慣れている場合は、 Googleレンズ, Live TextはそれのApple版のようです。 これにより、iPhone は写真内のテキストを認識し、それに対してアクションを実行できるようになります。

ドキュメントまたはホワイトボードの写真を撮り、その上のテキストを編集可能なドキュメントにコピーできます。 Live Text は、レストランの看板などの場所にあるテキストも認識できます。 これにより、ユーザーは「検索」ボタンをタップしてオンラインでレストランを見つけて予約できるようになります。 実際、Live Text は電話番号を識別することもでき、ユーザーは電話番号をタップすることで画像から直接場所に電話をかけることができます。

これらの画像認識機能により、Spotlight で画像内のコンテンツを検索することもできます。 テキストの検索を開始すると、iPhone は以前に撮影した写真の中からそのテキストを検索できるため、特定の情報をより簡単に見つけることができます。

Live Text は、起動時に 7 つの異なる言語のテキストを処理します。 これらには、英語、中国語、フランス語、イタリア語、ドイツ語、スペイン語、ポルトガル語が含まれます。 写真上のテキストを翻訳することもできます。これも Google レンズと似ています。

ただし、Live Text には単純なテキスト認識以上の機能があります。 Apple デバイスは、特定の物体、動物、芸術作品を認識することもできるようになります。 Visual Look Up を使用すると、ユーザーはオブジェクトの写真を撮り、それに関する詳細情報をオンラインで見つけることができます。 たとえば、知らない絵があった場合、写真を撮ってそれが何であるかを知ることができます。

これに見覚えがあると思われる場合は、もちろん、それは Google レンズに非常に似ているからです。 テキスト認識とオブジェクト認識はどちらも Google のサービスがしばらく前から行っているものであり、翻訳も同様です。 Google レンズは複数のプラットフォームでも利用できます。

iOSを含む. ただし、Apple エコシステムのユーザーにとって Live Text はよりネイティブに感じられるでしょう。