九锋网

苹果iPhone 14和14 Pro在相机配置上有提升吗,像素是多少

九锋网

在这个相机的配置上。iPhone 14以及iPhone 14 Plus延续了iPhone13系列是双摄设计,iPhone 14 Pro以及iPhone 14 Pro Max延续了iPhone 13 Pro系列的三摄方案,Pro系列的主摄采用了一款4800万像素的全新感光元件,并且支持四像素合一,输出1200万像素照片。全新的4800万像素传感器的加入,也是苹果从2015年iPhone6S首次采用1200万像素传感器至今,首次提升iPhone主摄的像素。因此,iPhone 14 Pro系列的影像能力依旧是发布会上重点内容。

首先,还是简单介绍下iPhone 14系列和iPhone 14 Pro系列的相机规格。

iPhone 14和iPhone 14 Plus依然为1200万像素广角+超广角双摄配置。这次iPhone 14的广角镜头传感器采用了单位像素1.9微米的大尺寸感光元件,像头焦距维持在26mm,镜头光圈为f/1.5,支持传感器位移防抖;超广角镜头配置维持不变,但全新算法加持,让主摄和超广角的暗光拍摄能力分别提升了2.5倍和2倍。如果看iPhone13主摄的硬件配置,与去年的iPhone 13 Pro系列主摄规格相同,说明苹果延续了老策略,将iPhone 13 Pro的主摄传感器下放到了iPhone 14上。

iPhone 14 Pro和iPhone 14 Pro Max则采用了4800万像素主摄+1200万像素超广角+1200万像素长焦全新三摄配置,外加一颗LiDAR镜头。其中,iPhone 14 Pro系列的主摄4800万像素传感器,支持四像素合一技术,单位相机面积1.22μm,四合一之后可以得到2.44μm的单像素面积,大幅提升了传感器的感光能力,进而提升暗光拍摄能力。而超广角镜头和长焦镜头依然维持1200万像素,等效焦距依然维持13mm和77mm不变。如果你观察细节的话,会发现iPhone 14 Pro主摄和超广角两枚镜头的光圈分别为f/1.78和f/2.2,于上一代iPhone 13 Pro主摄f/1.5,超广角f/1.8的光圈对比来说,要小了一点。变化的原因,无外乎传感器面积增加,相机模组为了体积的平衡,故而镜头光圈变小,但实际使用上,这一点变化对于拍摄的影响并不大。

从参数上看,今年苹果对iPhone 14以及iPhone 14 Pro系列的升级思路与去年相似,广角主摄镜头使用更大尺寸的感光元件,所以iPhone 14用上了去年iPhone 13 Pro Max使用的那块单位像素1.9微米的感光元件,而iPhone 13 Pro的两款相机都采用了4800万像素全新传感器,通过四像素合一的方式,提升传感器单位像素面积。

虽然苹果从来不会公布iPhone相机采用的传感器型号和尺寸,但是从近两年iPhone相机传感器升级来看,苹果一直在新款iPhone上采用更大尺寸的传感器,目的也十分明确:提升iPhone的画质,特别是暗光下的画质。iPhone 14 Pro采用了4800万像素传感器以及四像素合一技术,在安卓手机上已经十分常见。毕竟,“底大一级压死人”的规律,同样适用于手机摄影。看看安卓阵营相机疯狂堆料,即使苹果依然有着非常好的影像算法和系统操作性,但想扩大传感器单位像素的面积,得到更好的拍摄画质表现,多像素合一技术是目前最好的解决方案,苹果自然也会选择这个方式。

因此,也就不难理解,iPhone 14系列会延续iPhone13系列相机排列方式,而iPhone 14 Pro系列的镜头凸起更多了。至于iPhone 14 Pro系列这块4800万像素传感器的尺寸,通过计算猜测这么传感器的面积大概在1/1.2-1/1.3英寸之间,传感器面积比去年iPhone 13 Pro增加了65%,成为了iPhone历史上最大面积的相机传感器。