其实呢,iPhone拍出惊艳的照片背后,有个鲜为人知的秘密,就是多个“低动态范围图像”(LDR)给合合成的。我们要把不同曝光时间拍下的三张LDR图,把各自最精彩的部分拼起来,变成一张“高动态范围图像”(HDR),俗称“High Dynamic Range Imaging”。想要彻底搞懂这个,得从计算机图形学和人眼看到的现象开始说起。我们眼睛看到的亮度(Luminance)跟辐射度(Radiance)差别巨大,系统必须把这些数据变成数字信号,再编码成一张我们能看到的照片。大家看这两张图,左边是同一场景的三张曝光图,右边是合成之后的效果,画面亮部不死白,暗部不死黑。说白了,网上90%的大片都是通过HDR合成出来的,只不过我们的肉眼察觉不到。 iPhone早就支持HDR了,但很多人拍出来效果却不怎么好。我也试过,在同一个场景下开启和关闭HDR对比,左边红框正常曝光但黄框暗部模糊;右边蓝框过曝却还有细节保留。整体来说,HDR确实让过渡更顺滑一些,但是细节还不够好。主要原因是拍摄时间太短:iPhone只能在极短时间内抓取几张LDR图片,角度选择有限,所以最好的细节也不多。系统算法自动合成这些图像时,必须在毫秒级别完成判断处理,根本无法像人工后期那样精心雕琢。 相比之下专业全景团队的工作流程就完全不同了。他们会给整个拍摄过程拉长到黎明到黄昏这样超长周期,单张素材往往能达到上百张。而且他们会有专门人员逐帧校对亮度、色彩和噪点等因素,把一天的光影变化浓缩进一张像素级完美的HDR图像里。差距主要体现在时间和人力这两个方面——自动合成再聪明也比不上人工精修带来的细腻度。