最近好奇都是TOF 相机 L5151 和 Ipad pro 上带的深度相机模块有啥不一样, 网上很少有相关的中文资料来介绍 原理上的差异, 简单搜索了一下, 在此小小总结.
Apple Lidar Camera
苹果采用的激光是 VCSEL(Vertical-Cavity Surface-Emitty Laser) 技术 又称为垂直共振腔平面, 直观感觉就是将常用的旋转的雷达, 做到了一个平面上, 相当于在平面上射出多个激光, 根据TOF 估计每束激光的深度.
以下是几张拆解图.
从上图可以看出, 苹果VCSEL Lidar 发出的是 9 * 64 的点阵(9组, 每组 8 * 8 = 64 个点 ), 也就是说, 这个东西测量一次, 能够获得 9 * 64 个点的位置的深度信息(其实并不很多)
Realsense L515
L515 使用微型 MEMS(微机电系统)镜像来扫描场景。返回光由单个光电二极管 APD 收集,具有低输入参考噪声 IRN. L515 成为高分辨率, 每秒可收集高达 2300 万的环境深度信息。
下图是他的扫描方式, 内部应该是有一个运动的结构, 不断地旋转扫描.
总结
总之, Apple 能将传统的大型激光雷达, 嵌入到手机上是一个很有意思的创举. 不过为了功耗也做了很多妥协, 较少的点对空间解析力有限, 对远距离大场景下 9 * 64 个深度点环境感知较为有限, 在能讲一个更好的故事前, 让这个技术接触到普通人群, 也非常有意义, 反正苹果用户大多也不差这点钱…
L515 实验室已经购买, 还在学习, 欢迎大家探讨.
##################
Peace!