神评列表

iPhone 的「第四颗摄像头」位置,一个,两个,三个,四个……旗舰手机摄像头从2016年开始,以大...

2020-10-18 14:25:32
0

神回复:

iPhone 的「第四颗摄像头」位置, 为什么给了激光雷达?图1

一个,两个,三个,四个……旗舰手机摄像头从2016年开始,以大约每年1个摄像头的数量在增长,有人调侃说麻将「八筒」将是所有智能手机摄像头的终极归宿。

今年全新一代iPhone发布前,不少人推测iPhone12ProMax会配备第四颗摄像头,没想到iPhone12Pro系列在宝贵的「第四颗摄像头」位置,放置了一颗LiDAR(激光雷达)。

不按「常理」出牌,一直是苹果的「常理」。

LiDAR是什么?

iPhone 的「第四颗摄像头」位置, 为什么给了激光雷达?图2

▲iPhone12Pro系列手机摄像头模组右下方圆形黑色区域即为LiDAR

LiDAR的全称是LightDetectionAndRanging,中文名激光雷达,是以发射激光束探测目标的位置、速度等特征量的雷达系统,由激光发射机、光学接收机、转台和信息处理系统等组成,可获得目标的距离、方位、高度、速度、姿态、甚至形状等参数,从而进行探测、跟踪和识别。

抛开专业术语,通俗理解iPhone12上的LiDAR,它就是一个能探测物体距离和记录深度信息的微型装置,和手机摄像头差不多大小。

工作的时候,LiDAR可以实现两个重要功能。

1.测算物体离手机的大致距离

iPhone 的「第四颗摄像头」位置, 为什么给了激光雷达?图3

▲通过发射肉眼不可见的激光束来测算距离

2.记录投射范围内事物的深度信息

iPhone 的「第四颗摄像头」位置, 为什么给了激光雷达?图4

目前苹果给出的LiDAR范围是最远五米,也就是说,搭载LiDAR的iPhone12Pro系列手机,理论上可以测算和记录5米范围左右的距离和深度信息。

LiDAR和ToF区别在哪里?

说到估算物体距离和记录深度信息,不少安卓厂商早在部分机型上搭载了ToF(Time-of-Flight,飞行时间)传感器来实现这两个功能。

例如P40Pro有一颗3D深感摄像头(ToF),可以深度感知物体深度信息,实现大片般的景深效果。

iPhone 的「第四颗摄像头」位置, 为什么给了激光雷达?图5

目前部分手机厂商大多采用iToF(间接飞行时间传感器),而LiDAR属于dTof(直接飞行时间传感器)。

iToF和LiDAR虽说都是ToF,但区别不小。

第一,发出的「信号」不同。

iToF发出的是经过正弦波调制,明暗强度呈规律变换的光信号。LiDAR发出的是激光束。

iPhone 的「第四颗摄像头」位置, 为什么给了激光雷达?图6

▲dToF原理

第二,估算距离的原理不同。

iToF靠感知正弦波光信号的差异来「估算」其从发射到反射回来的距离。LiDAR是激光直接测算距离。

iPhone 的「第四颗摄像头」位置, 为什么给了激光雷达?图7

▲iToF原理

第三,精度范围、测算速率和抗干扰能力不同。

iToF的信号很容易被干扰,测算精度随着距离变远而下降,测算也相对较慢,比较适合用于厘米范围内的测距。

LiDAR的激光束抗干扰能力强,理论上测算精度不随距离变远而下降,测算更快,更适合远距离测距。

最后,iToF更易小型化,dToF集成小型化难度更高,所以两者有较为明显的商用场景差异,iToF大多数用在手机上,dToF比较常用在汽车和无人机等大型装置上。

iPhone 的「第四颗摄像头」位置, 为什么给了激光雷达?图8

▲汽车雷达

LiDAR比iToF快、准、远,但集成难度更大,成本更高。苹果能把LiDAR集成在iPhone12摄像头模组里,想必是花了一番心思的。

为什么苹果选LiDAR?

或许iPhone有一天会变成四五六摄手机,但在被人讨论「iPhone拍照掉队了吗」的紧要关头,选择把宝贵的「第四颗摄像头」位置给LiDAR,足以可见苹果对未来的布局多么重视。

苹果究竟想干嘛?

iPadPro2020的官方网页上,苹果直截了当给出了答案,LiDAR现阶段主要就是为AR(AugmentedReality增强现实)服务的。

iPhone 的「第四颗摄像头」位置, 为什么给了激光雷达?图9

在手机摄影几乎到天花板的时刻,苹果选择了一条和其它厂商不一样的路,没有选择上高像素和多倍光学变焦,而是加了LiDAR,让用户记录「深度信息」。

用户能记录深度信息的好处非常明显,我把它总结为「双向融合」。

一个是现实虚拟化,也就是AR,可以用摄像系统和LiDAR把现实事物的各种信息记录下来,再虚拟展示在屏幕上,从任意角度近距离观察,也打破了时间和空间的限制。

iPhone 的「第四颗摄像头」位置, 为什么给了激光雷达?图10

▲没有iPhone12的深度信息,也就不可能使用AR观看虚拟iPhone

另一个是虚拟现实化,也就是VR,可以给虚拟的事物增加现实维度的信息,让虚拟事物在网络里「活」出现实事物的特征。

iPhone 的「第四颗摄像头」位置, 为什么给了激光雷达?图11

▲动态emoji可以看做简化版的VR,虚拟人物有了真实人物的面部深度信息数据

这两种融合都离不开深度信息,深度信息也是AR和VR打通的桥梁,比如老师用可以记录深度信息的AR设备自拍直播教学,学生戴上VR眼镜听课,每个学生看到的老师都是虚拟形象,但虚拟形象的表情和动作细节特征都是一样的,很难再单纯用AR或VR简单描述。

iPhone 的「第四颗摄像头」位置, 为什么给了激光雷达?图12

▲电影《头号玩家》展现了现实和虚拟的融合,推荐配合本文「食用」

再来说说手机

手机对于人类社会来说是什么?

这个问题很难回答。往小了说,它不过就是一台便捷的通讯工具,往大了说,它对人类社会的影响可以说无比深远。

回顾手机出现之后的人类历史,用户对信息处理交换的共性需求一直是去中心化。

一开始用户的共性需求是提升信息交流效率,所以手机的核心功能是打电话发短信。信息交流的中心节点——被线绑住的固定电话、邮件、传真、邮电等被彻底边缘化,如今只是一种特殊场景下的补充工具。

iPhone 的「第四颗摄像头」位置, 为什么给了激光雷达?图13

▲被电话线拴住的中心

接下来用户的共性需求是打破信息不平衡,进一步去中心化,每个人都想要有自己的声音,所以手机的核心功能变成了社交,大量社交app异军突起。

正是由于苹果的全触屏形态产品iPhone,在恰当的时机精准高效地解决了用户在第二阶段的共性需求痛点,苹果才能打败诺基亚,一跃成为市场综合第一名。

现在,用户的共性需求会是什么呢?

用户需要进一步去中心化,不仅要发声,还要把自己的个体文明尽可能记录并传递下去,让自己的个体文明在人类文明史上留下记录。

iPhone 的「第四颗摄像头」位置, 为什么给了激光雷达?图14

▲iPhone广告片展示iPhone的生活记录功能

很久以前,芸芸众生是没有历史存在感的,更不能掌握记录自身的工具。手机的出现,让存储在服务器上的数据变成了「个人史书」,这些渺小如蝼蚁的「个人史书」又发挥着无与伦比的影响力,共同组成了一部人类「大史书」——人类社会共同的大数据库,个体不再是历史里可以直接忽略的「无名」,也不是可以大笔一挥一笔勾销的某某,而是在人类共同「大史书」里一个个有血有肉的鲜活存在。

现在,LiDAR给了我们更高维度的「书写」能力,在声音、平面图像、行为习惯等维度之上,增加了深度信息,突破了平面限制。

永生,从深度信息开始

对于普通用户而言,目前LiDAR带来的直观帮助还不是很明显,更多属于「有更好,没有也没多大影响」的程度。

它带来的潜藏益处却是非常明显的,如果条件和相机app允许,每个人一生中经历的每个场景,每个瞬间,遇到的每个人,看过的每朵花,摸过的每件餐具,每张自拍,都可以被LiDAR记录下深度信息,只要时机和技术成熟,数据量足够大,再配合以声音、图像、行为习惯等数据,完全可以在服务器中创造出一个虚拟的世界和虚拟的自己,和真实的世界和真实的自己一模一样,甚至等待科技水平足够高的那天,可以在现实世界中造出一个自己。

iPhone 的「第四颗摄像头」位置, 为什么给了激光雷达?图15

▲如果《西部世界》里的机器人都有一个对应的真实人类,那么拿到真人的深度信息则是制作机器人的第一步

如果哪天科技更加发达,可以赋予这个虚拟的自己一套「人性的算法」,百年之后,有人想我们了,只需要进入虚拟世界,就能看到一个「活着」的我们,何尝不是做到了另一种形式的永生?

注:本文部分内容曾以不同笔名在其它平台发表过,文内有删改

6954
0
179
可匿名神评,需审核
匿名神评

最新评论

猜你喜欢

最新资讯