请选择 进入手机版 | 继续访问电脑版

石家庄老站长

点击联系客服
客服QQ:509006671 客服微信:mengfeiseo
 找回密码
 立即注册
查看: 1|回复: 0

iOS 15“实况文本”比较测试:Android战争目前 苹果“战争未来”?

[复制链接]

1

主题

1

帖子

-7

积分

限制会员

积分
-7
发表于 4 天前 | 显示全部楼层 |阅读模式
编辑:这篇文章是微信公众号《Ray  technology》,作者:三明治。原标题:《这就是iOS  15的最强黑科技?小米用户笑出声!》

前天凌晨,苹果带来了近年来最幻灭的系统更新。没有屏幕显示,没有新的UI设计,没有惊人的黑技术,只有Android用户熟悉的“新功能”很多。网民评价说,iOS  15比新的系统版本更像iOS  14的优化版本,iOS  14.8可能更合适。

但是iOS  15的功能更新令人失望,但部分网民毫不犹豫地决定品尝新鲜的beta版本。根据实际经验,IOs  15 Beta版本错误不少,唯一可以获取的更新内容Facetime  SharePlay面临无法使用的尴尬局面。现在,实时文本(Live  Text)功能似乎是此次普通IOs  15 beta版更新中最实用的新功能。

图像识别,人人都有

首先,“实况文本”实际上是可以从iOS摄像头应用程序开始的字符识别功能。相机正在拍摄的画面、已经拍摄的照片、手机截图、网络照片等此功能使您能够自动识别和转换照片中的文字,支持复制、粘贴、查找和翻译,支持照片中的文本提取和快速应用。

当然,类似的图像识别功能已经在很多Android品牌的手机上实现。无论是谷歌4年前推出的Google  Rain应用程序,还是国产手机企业拥有的“清洁”应用程序,几乎都可以轻松地提取文字。借此机会,小雷今天对读者感到疑惑,苹果的“实况文本”究竟与其他同类的功能有何不同。





首先,苹果公司的“实况文本”被集成到相机中,用户可以打开相机、打开相册或在备忘录中使用“相机的文本”来使用此功能。实测iphone可以自动识别屏幕上的文字,按下按钮即可提取所需的文字,还可以查询、翻译、复制和共享提取的文字。因此,苹果“实况文本”印刷体的文本识别率仍然很好。对中文手写体的文本识别率不太好,需要改善。





(印刷体)





(手写体)

另外,苹果提取的“实况文本”会自动识别号码、网址和地址,并生成超链接。点击网址即可进入该网站。单击地址可打开该地址的地图信息。点击号码可以发送短信并添加到联系方式。使用起来很方便。





(网址,地址)





(号码)

接下来,我将尝试Google  Lens的默认Google  Lens应用程序。对于文字识别,用户可以直接在定位框中单击相应的内容,提取所需的文字。通过实际体验,谷歌对印刷体和手写体的文本识别率出人意料地优秀。谷歌多年研究的文字识别技术确实不是虚幻的。(威廉莎士比亚、温斯顿、)。
mg-size-val="993,1079">

(印刷体)



(手写体)

此外,Google Lens同样会自动识别网址、号码等信息。被识别出来的网址,可以通过点击下方的网页选项完成跳转;被识别出来的号码,更是可以直接拨打给对方。此外,在面对比较复杂的大段图文内容时,Google Lens基本也能实现即拍即取,文本识别率相当不错。



最后,我们来试试国产厂商自带的文本提取功能。以小雷常用的小米10为例,小米相机、「传送门」和「扫一扫」里的文档功能,均可以对图片进行文本识别。实际体验下来,小米相机对印刷体和手写体的文本识别率都还不错,作为文本识别功能而言绝对是合格的。

值得注意的是,小米「扫一扫」本身并没有识别网址、号码等特殊信息的能力,所有图片扫出来都是可以编辑的无格式文本。用户当然可以自己复制网址、地址,然后打开对应App进行搜索,就是使用起来比较繁琐。



经过测试,我们可以大致看出这三款产品之间的功能差异。文本识别方面,谷歌的Google Lens识别率毋庸置疑地排在榜首,小米的三种文本识别功能虽然各有差异,但是识别率排在第二还是没什么问题的,苹果的「实况文本」在这方面还可以多加改进。操作方面,三款产品均可通过实时拍照进行文字提取,操作起来都很直观。功能方面,没有识别能力的小米要稍逊一筹,而谷歌的搜索识别能力要比苹果显得更加方便好用。

谷歌能在这方面大获全胜,自然是有其原因的。早在2010年,谷歌文档就已经加入了OCR文字识别功能,支持用户将PDF档案或图片档案中的文字转换为可编辑的文本,而Google Lens在2017年就已经与大家见面了,两者之间的经验差距是巨大的,需要时间去弥补。

什么让苹果够“苹果”?
作为一个全新推出的功能,苹果的「实况文本」确实存在诸多不足之处。首先,目前Google Lens支持上百种语言识别,而苹果「实况文本」只支持七种语言,两者泛用性完全不对等。其次,「实况文本」的手写文字识别率确实比较微妙,还有很大的提升空间。

当然,该功能也有其优势所在。首先,谷歌的Google Lens是需要用户联网交换数据的,在国内想要使用谷歌服务可不是一件容易的事。国内厂商的图像识别功能倒是可以正常联网,但是在没有网络的情况下也就运作不了了。作为对比,「实况文本」功能是基于采用机载处理的“深层神经网络”,而不是基于云计算的方法。换句话说,该功能在没有联网的情况下也可以正常使用。



其次,目前手机上的文本识别功能大多都以独立应用的形式存在着,例如谷歌自研的应用Google Lens、三星的图像识别软件Bixby Vision、小米的「扫一扫」、OPPO的「Breeno识屏」等。和它们不同,苹果的「实况文本」功能是内建在相机里面的,而所有的文本都是在用户拍照时自动捕捉的,用户不必启动单独的应用程序就能使用对应功能。

再次,虽然是后来者,但是苹果的生态结合得更加紧密。在WWDC 2021上,苹果公布了全新升级的「聚焦搜索」功能。现在「聚焦搜索」通过智能技术,可以根据定位信息、人物、场景或物品来搜索图片,用户只要下拉菜单栏,输入关键词,就可以轻松搜索到所有包含该文字的图片。



一直以来,安卓厂商最为人诟病的就是生态割裂。举个例子,小雷在小米10上能找到三个图像识别功能,三者之间互不关联,和小米自身的全局搜索也没有产生任何联系,都是独立存在的功能。2019年,谷歌曾经试过将Google Lens和Google Photos相结合,让使用者可以用文字搜索到想要的照片。问题是,市面上很少会有大厂会使用谷歌自家的相簿,生态也就无从谈起。



(Google Photo的图文搜索)

有的人觉得,苹果是不是已经黔驴技穷了?事实上,手机厂商相互「借鉴」不是从现在才开始的,在一个行业中学习对手并且取长补短并不是什么坏事,都是为了更好地服务用户。小雷认为,好的系统就应该积极倾听用户的呼声,及时推出高效易用的功能。

总的来说,「实况文本」功能还是很实用的。该功能的推出,让果粉明白自己手机上的相机并不是只能用来拍照的。利用「实况文本」功能,苹果相机现在可以随时随地呈现信息。用户只需对准相机,就可以获知身边环境的上千万个单词、短语、位置和事物,更好地浏览周围的世界。

此外,在「实况文本」的基础上,苹果还加入了全新的「视觉查找」功能。该功能和「实况文本」相辅相成,可以自动识别照片中的地标、自然、书籍以及宠物信息,并进行突出显示,帮助用户获得更多相关的信息。



融洽的生态,为用户带来了更加优秀的体验。设想一下,当我们走在国外陌生的街道上,只要掏出手机对着素不相识的文字,相机就可以为我们自动进行翻译;当我们站在某栋地标建筑面前,打开相机,就可以了解关于这个建筑物的相关信息。这样的体验,可以给我们带来很多便利。

小雷认为,在苹果的启发之下,现在已经拥有类似功能的安卓厂商也会开始尝试将其整合到生态里面,让用户的体验不再割裂。这般增强现实的体验,或许离我们已经不远了。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|无图版|手机版|小黑屋|石家庄@IT精英团

GMT+8, 2021-6-15 16:52 , Processed in 4.041984 second(s), 21 queries .

Powered by Discuz! X3.4

© 2001-2021 Comsenz Inc.

快速回复 返回顶部 返回列表