从手机拍摄、图像处理、显示器呈现、到人眼看到拍摄的照片是一个较为复杂的过程,要想保证人眼最终看到图像的分辨率和拍摄画面一样高,需要清楚该过程是如何转换的。
CMOS
CMOS(Complementary Metal Oxide Semiconductor,互补金属氧化物半导体器件),是一种常用的固体图像传感器,常应用于手机等拍照设备感光。当入射光线到达CMOS光敏面时,便产生光电荷,光强越强产生光电荷越多。在一段时间内,电荷以积分的形式积累,在未达到积分饱和的情况下,CMOS的积分电荷与光强和时间的积分成正比,此积分过程与曝光量有关。这就是图片亮暗差异原因。
译码电路把光电二极管耦合的电荷取出来形成电流,电流经过数/模转换电流转化成数字信号,数字图像信号经ISP等处理后记录在存储介质中。
CMOS上的每一个像素相当于一个蓄水池,通过一定的积分时间进行蓄水,然后将水放掉。像素面积越大,曝光宽容度、动态范围越大,单个像素对光线敏感度越大,就像蓄水池接雨水,蓄水池越大,接的雨水越多。
像素与成像质量关系
像素个数影响图像清晰度,在一定情况下,像素越多图像越细腻饱满。
像素个数也不是影响成像质量的唯一因素,同样2000W像素的手机相机和单反相机得到的图像,手机拍摄的照片通常不如单反画质好。这是因为单反相机的sensor通常比手机大,因此单反相机的像素会相应变大。我们在上面提到过,当像素尺寸增大时,像素对光线的敏感程度增加。在CMOS成像过程中,像素接收一定量光线才能准确计算色彩值,如果像素单元过小,接收光线信息过少,便难以准确还原色彩信息。我们常说“底大一级压死人”,就讲的是sensor尺寸大会对成像质量有诸多好处。
sensor面积大还有一个好处,就是可以让两个像素之间距离不要太近。像素在工作时会产热,像素之间距离太近会在sensor表面产生热噪,热噪在最终成像上会体现为噪点。噪点是成像质量变差的一大原因。同样的,在夜晚拍照时,单反的像素面积通常大于手机像素,对光线敏感度更高,从而使曝光时间缩短。曝光时间越短,产生热噪越少,最终在夜晚拍摄的图像噪点就会越少。
图片分辨率
CMOS将光学信号转换为电信号后还需转化为数字信号,才能将图像信息以数字矩阵的形式保存下来。比如,我们用分辨率为2048*1536=3145728≈3000000,即300w像素的相机拍摄一只猫咪,CMOS将原本一副图像离散化,然后转变成红、绿、蓝三张照片。每张照片的每个像素可通过数字记录256个层次(每像素的颜色用3个BYTE来记录),将RGB三色合成后可呈现256*256*256=16777216种不同的颜色,即16M,也称为24位颜色深度。照片被无压缩状态保存时,图片大小需要2048X1536X3=9437184个BYTE,即9MB,再加上文件头等其他信息,最终要大于9MB。
如果想保证最终接收到人眼的图片有300W像素,保存照片时必须要在无损状态下进行。某手机厂商宣称自己拍摄的照片可达1亿像素,可在传图等大多数操作下会进行有损压缩,导致最终图像分辨率与其他手机没有太大差别。比如拍照发朋友圈,平台会在照片发布前进行减值运算,可能会去除部分像素或色彩深度(较少见)。一张1300w像素手机拍摄的照片处理后变成51w,一张2400w像素单反拍摄的照片处理后变成61w。
显示分辨率
目前市场上主流显示技术是采用LCD(Liquid Crystal Display)的液晶显示技术,和采用有机发光半导体技术(OLED,Organic Light-emitting Diode)。两种显示技术的都是通过RGB三个子像素调和成实际我们看到的色彩,即每个像素下面均有用以显示红、蓝、绿三种颜色的子像素,通过调和每个子像素的色彩值得到需要的实际色彩。
主流的电脑显示器分辨率举例:
1K分辨率1024×540
2K分辨率2048×1080
4K分辨率4090×2160
8K分辨率8192×4320
10K分辨率10240×5400
上文用2048*1536的手机相机拍摄一副猫咪照片,要想完全无损将画面呈现在屏幕上不仅需要将照片在无损状态下保存,还要选择一个合适的显示器。如果想看到分辨率稍微受损的图片,采用剪裁或像素合并的方法减少分辨率,然后采用2K显示器即可呈现出效果还不错的图像。如果确实想要完全无损图片,那就直接上4K显示器好了。
人眼分辨率
人眼的视网膜有和CMOS感光单元同样功能的细胞,叫做视锥细胞和视杆细胞。视锥细胞可以感受到光强和颜色,黄斑中央凹全是视锥细胞。视杆细胞主要分布在视网膜周边,对光线强弱非常敏感,对不同波长的颜色不敏感。视网膜上大约有1.2亿视杆细胞,600~800w视锥细胞。感光细胞在视网膜上并非均匀分布,黄斑中央凹每平方毫米有15w个感光细胞,以黄斑中心向周围的感光细胞急剧减少。视盘处布满神经,极少存在感光细胞。感光细胞不像相机上的像素,并不是均匀分布的。
视杆细胞与双极细胞连接,神经节细胞可连接多个双极感光细胞,因此感光细胞之间并不独立,信息通过神经节细胞相互作用后传导,这与相机上的像素作用机理是不相同的,相机上每个像素相互独立。
感光细胞只是人眼视觉系统的很小一部分,最终需要与视神经交叉、外侧漆状体、视觉皮层共同作用实现对外部世界的认知,而人类视觉系统对信息处理能力及其复杂,比普通的拍摄系统复杂很多,不能简单的类比成相机和感光单元。
人眼可视区域并非同样清晰的,我们要先明确“人眼只能够清晰分辨中央10度范围内物体”,和“人眼视觉范围内,越往外越模糊”。当人眼注视到一位女士的时候,视觉范围内中心位置清晰,边缘模糊。随后眼球会进行扫描,扫描哪个位置,哪个中心位置清晰,最终便能清晰看到人像。人眼能够看到清晰物体归结于人眼的快速转动与扫描。
那么人眼到底如何等效成相机像素呢?有人将人眼所有的感光细胞等效成CMOS的像素,因此推算出人眼有1.2亿像素。有人认为视杆细胞对颜色不敏感,不能与相机中的像素等效,因此将视锥细胞等效为相机分辨率,即700w像素。有人认为人眼是动态的,应该根据人眼的空间分辨率计算,即正常眼可分辨两条细线的极限是0.01度,因此可认为人眼等效像素为0.005度,而人眼的可视范围为水平120度,垂直60度,可计算出人眼的等效像素为5.76亿。
还有人认为人眼分清晰区域和非清晰区域,对于清晰区域的可视范围为水平35度,垂直20度。同时人眼在中等亮度、中等对比度下能分辨两条细线的最小分辨角为1.5″,因此推算出清晰区域的分辨率为2169*1213,约等于260w,加上模糊区域可达6000*4000。
以上的理论都存在或多或少的问题,目前为止也没有一个明确统一的回答。我们已经知道无法简单将感光细胞等效成像素数,那么是否可以用测量人眼分辨能力的直观方法得到等效人眼分辨率呢?网上有人用ISO 12233和一把尺子测量来人眼多远能看清楚4000线的位置,然后换算出结果。
从结果中可以看出,等效像素与人眼视力有很大关系,最高达到10亿像素。这也可以理解,因为视力本来就反应了一个人分辨细节的能力。这个测试也存在一些局限性,并没有经过严格的学术讨论,严谨性有待考证,仅作为参考。
总结
人眼获取手机拍摄的照片是一个复杂的过程,涉及CMOS的光电的转换,数字图像的后期处理与记录,显示器的信号转换,人眼对显示器图片的复杂处理。如果要保证源头分辨率不降低,那么这个复杂过程涉及的分辨率都不应低于CMOS的分辨率。
近段时间比较火爆的一个概念叫“4K电视”。现在我们可以分析出,显示4K分辨率的必备要素是片源分辨率和人眼等效分辨率均在4K以上。人眼的分辨率潜力巨大,我们刚刚已经讨论过了,区区4K分辨率也就将近900W像素,但目前主流的视频片源最高清晰度仍然以蓝光高清为主,即1080p的分辨率。因此以现在的眼光来看,4K电视在绝大多数时间是不必要的,2k电视即可搞定,但哪个时代的技术不是这么迭代过来的。你愿意承担高溢价,喜欢科技尝鲜,还是愿意等待4K视频逐渐普及,4K电视价格便宜实用,这就因人而异了。