Google Lens已经慢慢成为最有用的增强现实应用程序之一,因此 Apple 决定在iOS 15 中建立自己的竞争对手。在WWDC 2021 上,Apple 宣布“Live Text”和“Visual Look Up”将作为 iOS 15 的一部分出现在 iPhone 的相机和照片应用程序中。两者都是 Google Lens 的直接竞争对手,后者已成为一种越来越强大的方式通过 Android 和 iOS 上的智能手机摄像头搜索现实世界。
虽然我们已经在 Android 手机上看到了类似的东西,但“实时文本”似乎是 iPhone 用户将复制的手写或打印文本从现实世界转换为数字文本的便捷方式。苹果表示,它基于使用设备上处理的“深度神经网络”,而不是基于云的方法。
Apple 展示的示例是办公室白板上的笔记——您将能够点击相机应用程序取景器右下角的新图标,然后只需使用 Apple 常用的文本选择手势(将手指拖到文本上)即可将手写文本复制到电子邮件或 Notes 应用程序中。
您还可以在图库中的现有照片上使用“实时文本”,尽管这些用例看起来不太有用。Apple 的例子是在旧照片的背景中复制餐厅的名称和电话号码,但也许该技术的一些更有趣的用途会在它出现在现实世界中时实现。
Apple 的“Live Text”自然比 Google Lens 受限得多,因为后者自 2017 年以来就已经推出。目前,Apple 表示它只能理解七种语言(英语、中文、法语、语、德语、西班牙语、葡萄牙语),相比之下,Google Lens 能够将单词翻译成 100 多种语言。
这意味着谷歌镜头更有用的技巧之一——在你旅行时实时翻译餐厅菜单或标志——现在无法与苹果的“实时文本”相提并论。但对于 Apple 的相机应用程序来说,这是一个有用的新技巧,并且适用于所有类型的照片,包括屏幕截图和网络上的照片。
同样,Apple 的新“Visual Look Up”是对 Google Lens 一些主要功能的另一个直接挑战。
虽然它在 WWDC 2021 期间没有深入展示,但该功能显然可以让您自动查找照片中的信息,例如狗的品种或您拍摄的花朵类型。
据苹果称,这将适用于书籍、艺术、自然、宠物和地标,尽管其知识的详尽程度还有待观察。考虑到这家搜索巨头能够从其其他服务中收集到海量数据,在这方面与谷歌竞争肯定会很棘手。
但是,虽然此功能最初可能会受到一些限制,但这一举措似乎与增强现实有关,最终可能与传闻中的Apple Glasses 有关。自动识别视觉信息(如地标)很可能是任何智能眼镜的重要组成部分,因此“视觉查找”可以被视为迈向某些 Apple 面部家具的又一重要步骤。
“Visual Look Up”显然也可以在 iPhone、iPad 和 Mac 上运行,因此只要更新到最新的软件,它就会融入您正在使用的任何 Apple 设备中。您可以预计 iOS 15 的完整版本将在 9 月中旬左右发布。