Apple Live Text vs Google Lens:谁才是最佳图像识别?

Apple Live Text vs Google Lens:谁才是最佳图像识别?

在iOS的众多新功能中,有些可能听起来是小变化,但对你的日常使用确实有帮助。无论是FaceTime的屏幕共享、iCloud+、离线Siri等,都有很多新功能可以探索。iOS中的一个功能是实时文本,苹果早在2021年WWDC上展示了这个功能。因此,如果你想知道Live Text是否和Google Lens一样好,这里有一份苹果Live Text与Google Lens的详细比较。

Apple Live Text vs Google Lens:最佳图像识别工具?

在这篇文章中,我们将从多个方面比较Live Text与Google Lens。我们将讨论语言支持、离线可用性,以及Live Text和Google Lens的其他功能。像往常一样,使用下面的目录在本文的不同部分之间进行导航。

什么是Live Text?

对于那些没有看过苹果开发者大会的人来说,让我给你一个关于iOS中新的Live Text(实时文本)功能的快速概述。

基本上,一旦你在iPhone上安装了iOS,你的设备将能够识别图片中的文字–也就是从相机中直接识别。这样一来,你就可以从现实世界中复制粘贴东西,查找你拍下的业务,以及更多。它本质上是Google Lens,但来自苹果。

基本功能对比

首先,让我们看看Live Text和Google Lens提供的基本功能。这样一来,我们就可以看到这两者中哪一个能在一开始就带来更多的好处。

Apple Live Text

正如我上面提到的,苹果Live Text可以从你的图片库中识别文字、电话号码、电子邮件等,也可以直接从相机应用中识别。还有视觉查询,它可以识别动物和知名地标,因此你可以通过取景器点击它们来获得更多信息。

一旦你识别了图片中的文字,你就可以以各种方式使用它。很明显,你可以把文字复制粘贴到你想要的地方,但你可以做的还有很多。如果你已经确定了一个电子邮件,Live Text会直接给你一个选项,让你创建一个新的电子邮件到该地址。如果确定的文本是一个电话号码,你将得到打电话的选项,在苹果地图中打开任何确定的地址,以及更多。

Live Text识别文字

由于苹果翻译应用的存在,也有内置的翻译。你可以点击弹出式上下文菜单中的 “Translate” 按钮,将确定的文本翻译成英语(或任何支持的语言)。

苹果翻译应用

也许对我来说最有用的是,Live Text能够理解图片中的追踪号码,并能让你直接打开追踪链接,这让我印象深刻。

Google Lens

另一方面,Google Lens也能做很多漂亮的事情。很明显,它可以识别图片中的文字,或者直接从你的相机应用中识别。然后,你可以复制-粘贴突出显示的文本,或者,类似于实时文本,拨打电话,发送电子邮件,以及更多。你还可以直接从Google Lens创建一个新的日历事件,这可能会很方便。

Google Lens文本扫码

Google Lens的另一个整洁的功能是名片扫描。如果有人递给你他们的名片,你可以用Google Lens扫描它,你会得到一个选项,即添加一个新的联系人,并自动填写他们的所有细节。这真是太酷了,这也是我们在参加发布会和与人交流时经常使用的东西。

现在,Live Text的视觉查询功能可能能够识别著名的地标、书籍、动物等,但在物体识别方面,Google Lens完全是另一个层次。

由于谷歌在搜索和图像搜索方面的专长,Google Lens可以利用所有这些知识,识别你周围看到的几乎任何物体。无论是植物、笔,还是你发现的你最喜欢的名人所穿的手提包。只要用Google Lens扫描图片,你就会得到相关的搜索结果。这是Google Lens的一个很酷的功能,是苹果的Live Text/Visual Lookup所没有的。

此外,Google Lens还可以帮助你完成作业。这是另一件Live Text根本无法做到的事情。你可以用Google Lens扫描一道数学题,它就会给你分步解决。它也适用于其他科目,包括物理学、生物学、历史、化学等。

Google Lens扫描解决数据问题

显然,Google Lens目前提供的功能比苹果的Live Text要多得多。希望随着时间的推移,苹果将使Live Text更加有用,并在其中加入更多的功能。但就目前而言,Google Lens的功能比Live Text更丰富,提供的功能也更多。

集成对比

接着,让我们来谈谈这些图像识别功能与整个操作系统的整合情况。好吧,苹果公司一直对集成体验有着独特的关注,这也延伸到了Live Text。

在你的iPhone上,运行iSO 15,实时文本被嵌入到默认的照片应用程序,以及相机中。虽然安卓手机上的Google Lens也是这种情况,但不同的是,你必须点击启用Google Lens,才能开始扫描文字、物体或其他你想做的事情。另一方面,”实时文本 “几乎是一直在运行的。你只需长按你想复制粘贴的文字或你想拨打的电话号码,就可以继续操作了。

更重要的是,实时文本也被嵌入到iOS本身。因此,如果你正在使用像WhatsApp这样的短信应用程序,或任何其他应用程序,如Notes,或iPhone上的电子邮件应用程序,并想从现实世界中扫描和粘贴一些文本,你可以使用 “来自相机的文本 “功能,直接输入文本。在此查看这一功能的使用情况:

Google Lens也有类似的功能,但在这种情况下,你必须先切换到相机应用,进入Google Lens,扫描文本并复制它,然后回到原始应用并在那里粘贴它。这是很多额外的步骤,如果你使用实时文本,你不需要为这些步骤而烦恼。

苹果通常非常善于将其功能整合到它所销售的设备中,Live Text也不例外。它在你需要的地方工作,并以你想使用它的方式使自己有用。对于安卓系统中的Google Lens,我不能这么说,尤其是在日常使用中。

显然,Live Text在这方面做得更好,但我希望Google Lens能尽快带来类似的整合。因为当好的功能从其他地方被复制过来时,最终会使产品对我们更好,我很支持。

准确性对比

就准确性而言,Google Lens和苹果Live Text都同样出色。我已经广泛使用了Google Lens,过去几天我一直在我的iPhone上使用Live Text,我还没有注意到这两个图像识别软件的准确性有任何问题。

尽管如此,我注意到,如果你用Live Text扫描文字,它有时会把 “O”(字母)误认为 “0”(数字),反之亦然。这可能有点烦人,不是我想给的东西,但考虑到这仍然是一个测试版,我不会认为这是一个大问题。

另一方面,当涉及到物体识别时,Google Lens完全占据了上风。它不仅能比iPhone上的Visual Lookup识别更多的物体和动物,而且其结果也很准确。Visual Lookup在识别任何物体方面完全失败,我甚至给它提供了一张金门大桥的照片,这正是苹果在WWDC 2021主题演讲中使用的例子。但这也没有用,所以很明显,这个功能需要大量的工作。

Google Lens对象识别

总的来说,Google Lens比苹果在iOS中的Live Text功能有更好的准确性。不过,就文本、电子邮件、电话号码等而言,这是一场激烈的竞争。

语言支持对比

由于Google Lens和Live Text都支持翻译,因此必须考虑它们都适用于哪些语言。这也延伸到了它们甚至可以识别哪些语言的文本,而且,当涉及到这些指标时,Live Text比Google Lens落后很多。

以下是Live Text所支持的翻译语言:

  • English
  • Chinese
  • French
  • Italian
  • German
  • Portuguese
  • Spanish

另一方面,Google Lens支持Google Translate可以使用的所有语言的翻译。这就是超过103种语言的文字翻译。与这个数字相比,苹果的七种语言支持渐渐变成了虚无。

设备支持对比

苹果的新实时文本功能可用于iOS 15的iPhone、iPadOS 15的iPad和macOS 12 Monterey。

谷歌镜头可在所有装有Android 6.0 Marshmallow及以上版本的设备上使用。此外,它被整合到谷歌照片和谷歌应用程序中,这意味着你也可以在iOS设备上使用它。

谷歌镜头在更多的设备上比苹果Live Text可用,这并不奇怪。然而,如果你使用多台设备,并希望有一个单一的图像识别解决方案,那么Google Lens在不同的生态系统中可用的机会更大。

谁更有优势?

现在我们已经经历了Live Text和Google Lens的所有不同的比较点,问题仍然是,你应该使用哪一个?这个答案将因人而异。作为一个深入苹果生态系统的人,我在上周使用Live Text的次数比我使用Google Lens的次数多。然而,Google Lens提供了Live Text和Visual Lookup没有的独特功能。

这完全取决于你的用例和你的工作流程。我并不经常发现自己想知道在哪里可以买到克里斯-海姆斯沃斯穿的牛仔裤。但我确实发现自己想在WhatsApp对话中添加文字,而不需要从Mac上复制粘贴,而Live Text让我比Google Lens更容易做到这一点。那么,你对Google Lens和Live Text有什么看法?你认为哪一个更好,为什么?请在评论中告诉我们。

评论留言