加入收藏 | 设为首页 | 会员中心 | 我要投稿 淮安站长网 (https://www.0517zz.com.cn/)- 数据开发、人脸识别、智能机器人、图像处理、语音技术!
当前位置: 首页 > 站长百科 > 正文

苹果ARKit和谷歌ARCore,凭什么说他们不是55开?

发布时间:2022-07-16 10:07:54 所属栏目:站长百科 来源:互联网
导读:库克曾不止一次在媒体采访中表达了自己对AR的期待和愿景,所以苹果在WWDC大会上发布ARkit几乎是我们意料之中的事情。这也意味着,苹果准备好以布道者的身份向整个世界推广AR,和当年乔布斯向世人展示第一台iPhone那样,让更多的人知道手机可以这么玩,AR竟然
  库克曾不止一次在媒体采访中表达了自己对AR的期待和愿景,所以苹果在WWDC大会上发布ARkit几乎是我们意料之中的事情。这也意味着,苹果准备好以布道者的身份向整个世界推广AR,和当年乔布斯向世人展示第一台iPhone那样,让更多的人知道手机可以这么玩,AR竟然能有如此操作。
 
苹果ARKit
 
  苹果的意料之中,对于谷歌来说可能是一次意料之外。在AR上吃力不讨好的Project Tango被苹果一个发布会弄得“颜面扫地”,本来的先发者却被后手制裁。两个月不到的时间,谷歌向开发者抛出ARCore,打算和苹果ARKit头碰头,正面刚。
 
1我们不妨先从ARKit和ARCore的功能上看两者的模样
 
苹果ARKit的三大构成关键:
 
苹果ARKit
 
  视觉惯性测量VIO(Visual Inertial Odometry):ARKit利用VIO能够精确追踪周围的环境。VIO结合相机传感器数据和加速传感器数据,能让设备感知在空间中的移动状态,无需额外校准就可以实现高精度的测算。
 
  场景识别和光线评估(Scene Understanding & Lighting Estimation):无需额外设备,利用ARKit就可以让iPhone和iPad通过相机视角对场景进行分析,识别空间中的水平面。ARKit可以检测例如桌面和地面这类的水平面,并且支持放置和追踪虚拟物品到更小的特征点上。ARKit可以利用相机传感器去评估环境光线,对应地调整虚拟物体地亮度。
 
  高效硬件和渲染优化(High Performance Hardware & Rendering Optimizations):ARKit需要在苹果A9及其以上的芯片上运行。这些处理器提供强大的运算能力,使得场景识别更加快捷,让你在真实世界中构建更加细节的虚拟内容。
 
  开发者可使用Metal,SceneKit和第三方工具如Unity和Unreal Engine在ARKit中渲染。
 
谷歌ARCore同样也有三大核心特征:
 
苹果ARKit
 
  动态追踪(Motion Tracking):在使用智能手机摄像头观察房间内特征点和IMU(惯性测量单元)传感器数据时,ARCore能够在移动的过程中确定手机的位置和方向(姿势),保持虚拟对象被放置在准确的位置。
 
  环境理解(Environmental Understanding):AR 虚拟对象经常会被放置在地板或桌面上。通过动态追踪所使用的特征点,ARCore能够探测到放置虚拟对象的水平面。
 
  光线评估(Light Estimation):ARCore能够对环境光线进行观测,让开发者可以根据周围的光照环境对虚拟对象的亮度进行调节,创造出更加逼真的虚拟对象。
 
  谷歌还表示,除了支持从Tilt Brush VR绘画应用或VR建模工具Blocks直接导出ARCore对象外,ARCore还支持使用Java/OpenGL、Unity和Unreal开发虚拟角色。
 
  可以看到,苹果ARkit上的每个关键功能都能在谷歌ARCore中找到与之相对应的点,就连在渲染工具的支持上也基本如出一辙。还有一个不能忽略的相同点就是,在硬件上它们都不需要借助额外的设备,声称一部iPhone/一台Android就能实现所有功能。看上怎么有点像斗地主里面,一对5被一堆6管上的感觉?
 
2我们把WWDC上演示的AR Demo和谷歌放出的ARcore视频做了如下对比:
 
苹果ARKit
 
视觉测量VS动态追踪
 
苹果ARKit
 
场景识别VS环境理解
 
苹果ARKit
 
光线评估
 
  从这些Demo我们也不难看到,用ARKit做出来的AR效果都被ARCore“还原”了出来。ARCore的宣传视频更是用大字报这种敲直白的方式把ARCore的特性See、 Move、Light秀给苹果看——你能的,我也能。
 
  即便如此,在小编看来,这也不意味着苹果和谷歌将以五五开的姿态在AR上对垒。准确来说,苹果很可能会在半年时间内把谷歌甩开一截。
 
3谷歌一个人的尬舞,苹果买买买的狂欢
 
  作为“不折腾就会死”的谷歌,其实早在2014年就开始倒腾AR项目了。这个项目还有个非常动感的名字——Project Tango(不知道的人还以为谷歌在搞部门联谊)。Tango项目包含了三个核心技术:运动追踪、深度感知以及区域学习。基于这些技术可以让设备感知周围环境,绘制出现实环境的3D模型,并且实现距离、大小等物理测算。
 
苹果ARKit
 
  但是本该一路高歌猛进的Project Tango实际上却过得异常“低调”。由于Tango项目对设备的整体性能要求非常高,除了标配高性能SOC、大内存和高分屏以外,Tango还需要额外的硬件支持(如深度感知摄像头、运动追踪摄像头)。这是一般安卓机都迈不过的坎儿。
 
苹果ARKit
 
  更为尴尬的是,包括三星、华为、小米在内的这些安卓手机厂商似乎对Tango的前景保持观望态度,都选择按兵不动,吃瓜看戏。直到目前,具备运行Tango平台能力的仅有去年发布的联想Phab 2和刚发布不久的华硕ZenFone AR两款手机。
 
  别急,还有更尴尬的。据内部消息透露,因为Tango手机销量不理想,相关的芯片供应商已经停止为Tango项目供货。
 
  相比于谷歌“爱作”的自定义路线,苹果更热衷于买买买的风格。从2010年至今,苹果先后将瑞典脸部识别技术公司Polar Rose、以色列体感技术公司PrimeSense、瑞士3D虚拟图像传感公司FaceShift、AR场景构建公司Metaio、AR通讯公司Flyby Media收归麾下。这些公司都有自家拿得出手的技术,而把这些技术整合起来,苹果在AR上基本不差什么了。
 
苹果ARKit
 
  除了收购以外,苹果还大量地从其他的VR/AR团队挖人,微软的HoloLens、Facebook的Oculus以及谷歌重金投资过的Magic Leap,苹果一个都没放过。就连NASA的技术大牛杰夫·诺里斯也被苹果请进了AR项目研发中。据外媒报道,苹果目前已经有过百人的专家团队从事AR研究。
 
  前面说到,ARKit和ARCore都表示直接用手机、平板就能实现综上的AR效果,无需额外的硬件辅助。然而理智告诉小编,这当中一定有套路。
 
  果然,苹果ARKit要求设备至少拥有A9处理器,也就是说只有iPhone6s/iPad(9.7英寸)及其以后的手机/平板才有资格享用。
 
苹果ARKit
 
  谷歌虽然没有公开说明ARCore的最低要求,但从目前仅支持Google Pixel和三星S8这两款手机来看,下面这个起步要求估计是没跑了:
 
    牛轧糖(安卓7.0及其以上)系统版本。
 
  根据IHS Markit的2016年全球手机出货量统计数据,iPhone6s、iPhone6s plus、iPhone7以及iPhone7 plus出货量在1亿5千万部以上。今年作为iPhone手机上市十周年,推出的新一代iPhone手机势必得到更多消费者青睐,预计今年的出货量会比去年高出5%左右。所以,苹果在接下来的AR推广上可以说是比较轻松的。

(编辑:淮安站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读