的时间连续性是指使用景深佳能镜头景深标尺对吗

一般来说,高像素的相机可以比大像素的相机拍出更清晰的图象,但这并非是绝对的。能否拍摄出高分清晰度的图像不仅要看相机传感器的像素密度,还得要看整个成像链的各个环节。这些环节包括:镜头的分辨能力,对焦精度以及按快门时的机身震动大小等等。如果成像链的任何一环保证不了高分辨率的要求,就无法发挥出高像素相机的优势,拍摄出高分辨率的图像。
APS画幅可以放多少万像素?1200万够不够?1700万多不多?135全幅最多可以放多少万像素?可以有多高的分辨率?镜头的分辨能力与传感器的尺寸以及像素的尺寸是什么关系?是不是像素越多分辨能力就越高?像素增长的极限是什么?
这些问题一直在争论不休,难以形成一致的意见。本文试图依托DXO的测试数据构建一个数学模型来解答上述问题。
DXOmark网站不仅测试了的数码相机传感器的各种数据,而且测试了各种镜头包括分辨能力在内的数据。DXOmark测试镜头分辨能力时是将要测试的镜头装到与此镜头配合的各型数码相机上。测试的数据可在下述链接中找到:
下面的图为DXO网站4支镜头在佳能不同机型上测试的结果:
其中,镜头分辨能力的单位为lp/mm,归一化到135全幅(24x36mm),横坐标上的像素密度要加100。
具体数字见下表:
从这些数据可以看出,镜头的实际分辨能力不仅与镜头有关,而且与传感器的像素密度有关。通过分析比较这些数据,可以发现一些很有意思的结果,这些结果表明:
1、由于镜头分辨能力的限制,实际拍摄出来的图像分辨率要小于相机图像传感器的分辨率;
2、同样画幅相机大像素与高像素之间在分辨率上的差距减少了;
3、画幅对实际镜头分辨率有很大的影响,全幅的实际分辨能力要大大高于同样像素密度的apsc画幅的机身,也高于像素数量更多的apsc的机身。最明显的是5D与7D比,全幅的5D只有1300万像素,其实际分辨能力比1800万像素的7D更高;
4、APSC画幅上1200万像素后,增加像素来提升分辨率的边际效用是递减的。即增加像素后,对分辨率的提升作用越来越小。全幅上1DS3的分辨率比D3x的还高一点。
如何理解上述数据?可否根据这些数据以及摄影和光学的一些基础知识来构建一个理论模型来分析、比较镜头分辨能力、镜头分辨能力的利用率与像素的密度和传感器的尺寸之间的关系是一个有着实际意义的课题。笔者不揣冒昧,抛砖引玉,提出自己的观点,欢迎有关人士提出批评和质疑。如确实是我的错误,我会修正自己的观点并向指出者表示感谢。如果没有驳倒我的观点,我会继续坚持。希望能够通过质疑和修正,达成对上述问题的共识。欢迎引用我的观点,但请注明来源和出处。
一些基本的概念和知识
一、爱里斑、象差、弥散圆、瑞利判据和理想镜头
镜头在焦点上投射的不是一个几何点而是一个弥散圆。这个弥散圆的大小受到衍射和像差的影响。衍射是由于光的波动性产生的现象,其表现形式就是爱里斑。
最重要的衍射源是镜头孔径光阑的边缘,点光源经过一个理想(即无像差)镜头成像后,像点是一个具有特殊性质的光斑,而不是几何成像理论推测的点。Airy(爱里)在1835年发现了该现象,该图案即称为爱里衍射图。
爱里斑的直径与光的波长、像距镜头的距离、镜头的孔径有关,具体计算公式见上图。对于聚焦于无穷远或近乎无穷远的情况下,波长为400nm的蓝紫光,孔径为f/8的理想镜头,爱里斑的直径为0.008毫米。可以将它与有象差镜头中通常采用的弥散圆直径0.03-01毫米相比较。
注:本段以及上图均引自《大不列颠摄影教程》第九版的中文版,吉林摄影出版社2002年出版,以下相同。
实际的镜头,尤其是简单镜头,只是对理想镜头的一种近似,有以下三个原因:
(1)玻璃的折射率随波长变化而变化;
(2)透镜表面通常为球面;
(3)光具有波动性。
这些与理想成像的偏差称为透镜误差或光学像差。由(1)引起的效果叫做色差,由(2)引起的效果叫球差,由(3)引起的效果称为衍射效应(爱里斑)。一般来说,像差对像质的劣化作用会随视场角及孔径的增大而加大。
有7种初级色差和球差。其中两种直接误差或轴上像差影响像方视场的所有区域及中心区域,称为轴向色差和球差。其它五种象差只影响斜入射通过透镜的光线,并且不影响中心区域,这些斜误差或轴外像差的作用随像点距透镜的距离增大而增大。它们分别是横向色差(倍率色差)、慧差、场曲、像散和(曲线)畸变。它们对象质的影响随着视场增大而增大。(《大不列颠摄影教程》,p.125)
如果摄影镜头的f数由最大值逐渐减小,则像差会逐渐减小(除了倍率色差和畸变),但衍射会逐渐增强。在大孔径时衍射效果较弱,但此时未校正的高级象差会降低像质。在缩小孔径时增强的衍射与减小的像差之间应取得平衡。这意味着对于一个有像差的镜头应该有个最佳孔径,通常从最大光圈缩小3档光圈。对于绝大多数镜头,缩小量不会很大,通常其最小值为f/16或f/22,此时衍射效应可能不明显,实际情况还会随景深增大而增强。对于广角镜头,由于残余轴外象差的存在,在不同的孔径上有不同的性能。此时,使用小光圈是比较有利的,这同样也适用于变焦镜头。对于近距摄影、宏观摄影及放大,有效孔径远大于标定的f数,相应地,衍射效应比用于远物摄影的镜头要强。在这种情况下,镜头应在最大光圈下使用以给出整体上清晰的像。(《大不列颠摄影教程》,p.140)
可见,镜头在焦点上投射的光斑不仅受到衍射的影响,还会受到像差的影响,二者的作用是相反的。可以用弥散圆来表示在衍射和像差共同作用下的光斑。这里说的弥散圆与景深计算中所涉及到的弥散圆有所不同,景深计算中弥散圆的出现是偏离焦点的结果,在焦点上是一个几何点。这里所说的弥散圆就是景深计算中在焦点上的那个点。
4、瑞利判据
镜头的分辨率(R)是指其对两个相邻点细节成像的能力,主要取决于镜头的残余像差大小、孔径光圈的衍射以及物体的对比度(亮度比例)。在实际摄影中,使用分辨能力(RP)更有助于分析成像质量,RP是分辨率R的倒数。
= 1/R = 1/d
瑞利在1879年将衍射与分辨率之间的关系作为一个准则而提出来。他指出,对于像中亮度相等的邻近两点,只有当其中一个点的主亮度最大值与另一个点的第一亮度最小值相重合时,才能刚好分辨开它们。如果将该准则用于两个爱里衍射图,则对一个性能只受衍射限制的镜头来说,其线性分辨率为爱里斑直径的一半,即
式中N为镜头的f数,单位为毫米(mm),因此,其分辨能力为
= 1/R = 1/(1.22λN)
其单位是毫米的倒数(1/mm)或周/mm,或是线对/mm(lp/mm)。
对于一个无像差镜头,0.008毫米的爱里斑对应的分辨能力为250lp/mm左右,而实际的镜头会有残余像差,会降低其性能,即所谓的伪分辨率,使得其实际的分辨率约为理论值的1/4。若测试物体的对比度由1000:1(白区域与黑区域的比例)降低到5:1(更普通常见的物体),则分辨率还会进一步下降。需要对各种不同对比度物体进行测试以给出有效的数据。(《大不列颠摄影教程》,p.140)
5、理想镜头
所谓理想镜头是指没有象差,只受衍射影响的镜头,衍射是自然现象,无法用人工来消除。
实际上,在f/8光圈下,很难有超过200lp/mm的镜头。capss兄指出,蔡斯公司2004年推出过一款分辨能力高达400lp/mm的镜头――ZM-Biogon
25。但这支镜头测试的时候光圈是开在f/4,与此光圈下的爱里斑直径很接近。所以蔡斯公司才会宣称:
result was a whopping 400 lp/mm on film, recorded with the Biogon 25 at f/4 in
the center of the image.&This
value, 400 lp/mm, corresponds to the maximum resolution theoretically possible
at f/4; in other words it represents the calculated “diffraction limited” performance
at this aperture.
It is noteworthy that this test was conducted with a production lens on a production
camera, indicating that the film was precisely positioned and flat.
这个f/4下的最高分辨能力已经与理论上的最大值一致。也就是说,与计算出来的在这个光圈下的“衍射限制”一致。这表明这只镜头基本上没有像差。
因此,我们可以推论,如果这支镜头的光圈开在f/8,其测试的分辨能力应该与250lp/mm的理论值很接近,但不可能超过250lp/mm,因为250lp/mm是f/8光圈下的衍射限制。
由于镜头的分辨能力与光圈有关,在不同的光圈下会有不同的分辨率。因此,比较镜头的时候应该开在同一挡光圈下来比较,否则无法比较出哪一支镜头有更高的分辨能力或者像差更小,更接近理想镜头。由于f/8是常用光圈,一般不明确标出的话,镜头的分辨能力比较都是在f/8光圈下。所以,一般认为200lp/mm是一个比较高的分辨能力,目前市场上销售的大多数镜头都在200lp/mm之下,很少有超过200lp/mm以上的镜头。即便有,也只会在几个像差容易控制的焦段上,如50毫米焦距等。
从像差的种类来看,除了轴向色差和球差外,其它5种像差都与视场角有关,也就是说其会随着画幅的增加而增加。
小DC由于传感器的尺寸小,主要像差是轴向色差和球差。而轴向色差可以用两种不同的材料(光学玻璃或者树脂)的元件组合在一起,通过适当的控制参数使其色差相互抵消。产生球差的原因是因为透镜的表面是球面,通过适当选择两个球差大小相等但正负相反的正负透镜组合可以校正球差。所以,可以通过将两种不同材料的正负透镜胶合在一起,可以同时消除色差并校正球差和慧差,在小视场、小孔径情况下能到令人满意的结果。可以看出,小DC的镜头那怕是用塑料做镜片,也有着天然的优势,会比用于大像场的镜头有着更高的分辨率,很容易达到衍射限制。因此,小DC要拍得清晰应该尽量使用大光圈,以充分发挥视场小的优势。
反之,画幅尺寸增加会使得镜头的孔径也增加,像差校正会变得很困难。要做到衍射极限很不容易,成本也很昂贵。
在讨论中,capss兄不仅给出了蔡斯这支镜头的链接地址,并且还给出了Zeiss
50/1.4这支镜头的分辨能力是180lp/mm。capss兄还认为,机身的实际分辨能力应该按公式1/R = 1/r1 + 1/r2 + ...,来计算。Zeiss
50/1.4的镜头分辨能力是180,在使用分辨能力为200lp/mm的胶片时,根据公式1/R = 1/r1 + 1/r2来计算,其实际分辨能力只有94.7lp/mm。
我不知道94.7lp/mm这个数字是如何测试出来的,对这个公式能否这样使用也感到迷惑不解,因此专门向他请教。
capss兄答复:这是由MTF来的,如果系统中有许多元素,比如镜头→胶片→相纸,只要三者MTF相乘就得到总和表现,但是两条曲线相乘需要相当的计算,所以Kodak才发展出这简化概算公式。
问题是如果按照这个公式来计算蔡斯给出的ZM-Biogon
25这支镜头的数据就会出现一个明显的矛盾。蔡斯的资料上写的很清楚,400lp/mm这个分辨率是在胶片上实际拍摄的结果,使用的是SPUR Orthopan UR
提供并处理的高分辨率胶片。
显然,如果蔡斯说的数据和方式是正确的,用公式1/R
= 1/r1 + 1/r2来计算实际分辨能力就是错误的。因为即使用分辨能力为1000lp/mm的胶片,按照这个公式计算出来的机身分辨能力R也只有286lp/mm,远未达到400lp/mm。实际上,无论胶片的分辨能力有多高,按照这个公式都不可能得出实际分辨能力为400lp/mm。只有在镜头的分辨能力为667lp/mm,胶片分辨能力为1000lp/mm的情况下,机身的分辨能力才有400lp/mm。但400lp/mm已经是f/4光圈下的极限了,667lp/mm是不可能的。因此,到底该如何使用这个公式?其适用范围是什么?是一个值得认真思考的问题。
二、奈奎斯特采样定理与信号混叠
采样定理,又称香农采样定理,奈奎斯特采样定理,是信息论,特别是通讯与信号处理学科中的一个重要基本结论.E.
T. Whittaker(1915年发表的统计理论),克劳德.香农 与Harry Nyquist都对它作出了重要贡献。另外,V. A. Kotelnikov
也对这个定理做了重要贡献。
采样是将一个信号(即时间或空间上的连续函数)转换成一个数值序列(即时间或空间上的离散函数)。采样定理指出:
如果信号是带限的,并且采样频率高于信号带宽的一倍,那么,原来的连续信号可以从采样样本中完全重建出来。
带限信号变换的快慢受到它的最高频率分量的限制,也就是说它的离散时刻采样表现信号细节的能力是有限的。采样定理是指,如果信号带宽小于奈奎斯特频率(即采样频率的二分之一),那么此时这些离散的采样点能够完全表示原信号。高于或处于奈奎斯特频率的频率分量会导致混叠现象。大多数应用都要求避免混叠,混叠问题的严重程度与这些混叠频率分量的相对强度有关。
从信号处理的角度来看,此采样定理描述了两个过程:其一是采样,这一过程将连续时间信号转换为离散时间信号;其二是信号的重建,这一过程离散信号还原成连续信号。
连续信号在时间(或空间)上以某种方式变化着,而采样过程则是在时间(或空间)上,以T为单位间隔来测量连续信号的值。T称为采样间隔。在实际中,如果信号是时间的函数,通常他们的采样间隔都很小,一般在毫秒、微秒的量级。采样过程产生一系列的数字,称为样本。样本代表了原来地信号。每一个样本都对应着测量这一样本的特定时间点,而采样间隔的倒数,1/T即为采样频率,fs,其单位为样本/秒,即赫兹(hertz)。
信号的重建是对样本进行插值的过程,即,从离散的样本x[n]中,用数学的方法确定连续信号x(t)。
从采样定理中,我们可以得出以下结论:
如果已知信号的最高频率fH,采样定理给出了保证完全重建信号的最低采样频率。这一最低采样频率称为临界频率或奈奎斯特频率,通常表示为fN。
相反,如果已知采样频率,采样定理给出了保证完全重建信号所允许的最高信号频率。
以上两种情况都说明,被采样的信号必须是带限的,即信号中高于某一给定值的频率成分必须是零,或至少非常接近于零,这样在重建信号中这些频率成分的影响可忽略不计。
在第一种情况下,被采样信号的频率成分已知,比如声音信号,由人类发出的声音信号中,频率超过5
kHz的成分通常非常小,因此以10 kHz的频率来采样这样的音频信号就足够了。
在第二种情况下,我们得假设信号中频率高于采样频率一半的频率成分可忽略不计。这通常是用一个低通滤波器来实现的。
如果不能满足上述采样条件,采样后信号的频率就会重叠,即高于采样频率一半的频率成分将被重建成低于采样频率一半的信号。这种频谱的重叠导致的失真称为混叠,而重建出来的信号称为原信号的混叠替身,因为这两个信号有同样的样本值。
一个频率正好是采样频率一半的弦波信号,通常会混叠成另一相同频率的波弦信号,但它的相位和振幅改变了。
以下两种措施可避免混叠的发生:
提高采样频率,使之达到最高信号频率的两倍以上;
引入低通滤波器或提高低通滤波器的参数;该低通滤波器通常称为抗混叠滤波器。抗混叠滤波器可限制信号的带宽,使之满足采样定理的条件。从理论上来说,这是可行的,但是在实际情况中是不可能做到的。因为滤波器不可能完全滤除奈奎斯特频率之上的信号,所以,采样定理要求的带宽之外总有一些“小的”能量。不过抗混叠滤波器可使这些能量足够小,以至可忽略不计。
对数码相机来说,采样是将空间上的连续信号转换成一个数值系列,即空间上的离散函数。这些空间上的连续信号是所摄对象将光线通过镜头反射到传感器上形成的无数个重重叠叠的弥散圆,这些弥散圆的直径与镜头的分辨率、光圈的大小以及波长、像距等有关。而镜头能够分辨出的最小信号按照瑞利判据是两个圆心距离等于弥散圆半径的半叠在一起的弥散圆。所以,认为镜头是一个低通滤波器的观点是有问题的,因为不能被镜头分辨出来的弥散圆并没于被镜头过滤掉。
可以想象得到,在一般情况下镜头所拍摄的对象并没有固定的信号频率,除非是拍摄栏杆、分辨率测试标板之类有固定间距的对象,才会出现周期性的固定信号频率,因此很难按照采样定理来确定符合要求的采样频率以避免信号混叠。
严格来说,能够出现周期性固定信号频率的情况只会发生在拍摄分辨率标板,等距的栏杆之类的对象时。因此,在拍摄分辨率测试标板时,按照采样定理的要求,只需要两倍于信号频率,也就是在一个线对上采样两次即可。
超过镜头分辨能力的高频信号,如更窄的线对,只能通过增加低通滤波器的方式来过滤。但并不是在每支镜头都加上一个低通滤波器,而是按照传感器设计时允许通过的最高信号频率,也就是传感器设计时允许使用的镜头最高分辨能力来确定信号带宽的限制。因此,不能保证低通滤波器可以过滤掉所有的高频信号。
例如,对一支分辨率很低的镜头来说,传感器低通滤波器允许通过的频率也许就是其产生混叠的高频信号。所以,对数码相机来说,要完全避免信号混叠是不可能的。而企图通过增加像素数量的方式来解决混叠或者莫尔纹问题既没有必要,也没有意义。同时,由于实际拍摄时很少会出现拍摄分辨率标板这类的情况,即使难以避免混叠或摩尔纹的出现,也不是什么大不了的事,改变一下角度或者光圈就有可能解决问题。
因此,从满足采样定理的角度来看,按照可能的镜头最高分辨能力,在每个线对上有两个像素就足够了,继续增加采样频率对提高分辨能力意义不大。如果按照200lp/mm的镜头最高分辨能力来考虑,每毫米就有400个像素。对24x36毫米的幅面来说,其传感器的像素分辨率为=13824万像素。这个数字应该就是极限,继续增加像素虽然还有可能提高采样精度,但意义已经不大。
问题是对APSC画幅来说,1200万像素之后,增加像素的数量并没有带来实际分辨率显著的增长。例如450D与500D的实际分辨率居然是一样的,但前者只有1200万像素,而后者有1500万像素,前者的像素分辨率为,后者的为,后者比前者的像素分辨率多了10.6%。显然,还存在着其它制约按照采样定理来计算像素密度的因素,不能够只从采样定理的角度来考虑问题。
三、镜头分辨能力、画幅尺寸、像素密度之间的关系
根据DXO的数据做出的像素密度与实际分辨能力的曲线图中(图一),还有一个令人困惑的问题,就是实际分辨能力在像素密度为158-160区间有一个大的差异。从表一中可以看出:
350D的像素密度是158,1Ds3的像素密度是159,相差无几,而1Ds3的分辨能力为67lp/mm,350D仅为39lp/mm。更奇怪的是像素密度最高的7D的实际分辨能力居然没有像素密度低的1Ds3高。这个现象按照采样理论是说不通的。
按照采样理论来确定象素的密度相当于是将镜头的分辨能力乘以2,即对每个线对按照两倍采样,在黑线和白线上各放一个象素。因此,象素密度与镜头分辨能力是线性关系,即象素密度=2X镜头分辨能力。由于DXO的数据是按照24X36毫米的幅面作了归一化处理,所以不能反映出不同画幅上的镜头实际分辨能力。我根据不同画幅与全幅之间的比例对DXO的原始数据作了调整,按照不同画幅的实际分辨能力与象素密度之间的关系及其与根据采样理论计算出来的理论分辨率画了一张图如下:
其对应的数据表如下:
从图三可以清楚地看出,实际分辨能力并没有随着象素密度的增加而增加,与根据采样理论计算出来的理论分辨能力差距越来越大,这是采样理论无法解释的。
此外,按照DXO的数据计算出来的传感器实际分辨率都低于传感器的像素分辨率。这说明,镜头的分辨能力已经小于传感器的分辨率。
可以设想一下,如果镜头的分辨能力高于传感器的像素分辨率,那么实际分辨率就应该等于而不是小于传感器的像素分辨率。就如同一个木桶的水位等于最短的那块木板的高度。如果水位低于这块木板的高度,那么必定存在着一块更短的木板。
在镜头与传感器构成的系统中,如果镜头的分辨能力高于或等于传感器的像素分辨率,那么实际分辨率必定是传感器的象素分辨率。实际上,我们通常认为1500万象素的传感器分辨率会高于1200万像素的传感器,都是根据镜头分辨率高于传感器分辨率的假设下得出的结论。但在传感器分辨率超过镜头分辨能力的情况下,就会出现1200万像素的450D实际分辨率与1500万像素的500D一样的现象。
这个问题还可以从弥散圆的角度来考虑。如果镜头的分辨能力大于或等于传感器的像素分辨率,那么弥散圆的尺寸必然是小于或等于象素的尺寸。如果弥散圆大于象素的尺寸,就会出现一个弥散圆覆盖了多于一个像素的情况,使得实际分辨率低于传感器的像素分辨率。
实际上,200lp/mm镜头的弥散圆直径是10微米,而数码单反相机中象素间距最大的D3也不过8.4微米,小于200lp/mm镜头的弥散圆直径,更不用说其它的数码相机了。而100lp/mm镜头的弥散圆更大,直径是20微米。所以,认为实际分辨率受到镜头分辨能力的限制是成立的。
从图三中可以清楚地看出,这4支镜头在佳能所有机型上的实际分辨能力都低于根据采样理论计算出来的理论分辨能力,而且象素密度越高,实际分辨能力与理论分辨率的差距越大。
这种现象只能有一种解释,就是这四支镜头的弥散圆直径都大于佳能数码单反相机的象素间距。此时决定实际分辨率的不是象素的数量而是弥散圆的数量,继续增加象素不过是在用更多的象素来表示一个弥散圆,却无法改变弥散圆本身的尺寸和数量,因为决定弥散圆尺寸的不是传感器的象素数量,而是镜头本身的分辨能力。
显然,象素间距等于弥散圆直径时,再继续增加象素只是在用更多的象素来表示一个弥散圆,而不会使得实际分辨率像采样理论分辨率那样直线增长。
如果按照6.25微米的弥散圆直径计算,24x36毫米的全幅传感器分辨率为12万象素,APSC画幅(14.9x22.3毫米)的传感器分辨率为3568
X 2834 = 850万象素。而6.25微米直径的弥散圆相当于320lp/mm分辨率的镜头。可见,受数码传感器特性的制约,分辨率再高的镜头也无法充分发挥其性能。
所以,只有在镜头弥散圆小于或等于象素间距时,传感器的实际分辨率才会等于传感器的象素分辨率。也只有在这种情况下,我们才能根据传感器的象素数量来判断其实际分辨率。
我发现,几乎所有的人都不自觉的认为镜头的分辨能力是无限高的,很难接受镜头分辨能力已经低于传感器分辨率这一事实。而且,几乎没有人想到,如果镜头分辨能力大于或等于传感器的像素分辨率,就表明镜头产生的弥散圆一定是小于或等于像素的尺寸,而在这种情况下,镜头分辨能力的利用率只有25%。
这从下面这张图可以看出:
如果弥散圆等于或小于象素尺寸,就如同最上面所画的那样,在能分辨的情况下,此时象素能够采集到两个分开的弥散圆的亮度信息。但如果按照瑞利判据,在恰能分辨的情况下,如中间的图所示,两个弥散圆之间的距离为其半径。由于两个弥散圆叠在一起,而两个像素却无法相叠,因此无法采集到两个弥散圆的亮度信息,会将三个密散圆的亮度信号混在一起,无法识别出第三个弥散圆。因此,在象素尺寸大于或等于弥散圆的情况下,传感器只能识别出最上面这种能分辨的情况,而无法获得恰能分辨情况下弥散圆的亮度信息。因此,在象素尺寸等于或大于弥散圆的情况下,镜头分辨率的利用能力只有25%。
当镜头产生的弥散圆直径小于或等于传感器象素间距时,镜头的分辨率只能利用25%。
这应该可以看作是一条定理。如果此前没有人提出过,那么,这条定理的发现权应该属于本人,哈哈!
从这条定理还可以推论出另一条定理:
与镜头分辨能力相同的胶片只利用了50%的镜头分辨能力,如果要充分利用镜头的分辨能力,必须要选用高于镜头分辨能力一倍以上的胶片
也就是说,如果镜头的分辨能力是100lp/mm,那么至少需要使用200lp/mm的胶片才能充分利用镜头的分辨能力。
那么,在弥散圆大于象素间距后会发生什么情况呢?
首先,决定实际分辨率的不再是像素的数量而是镜头可分辨弥撒圆的数量,而可分辨弥散圆的数量取决于镜头的分辨能力以及传感器的尺寸。弥散圆的直径D为镜头分辨能力的倒数乘以2,镜头可分辨弥散圆之间的距离为镜头分辨能力的倒数。所以,传感器能容纳的镜头可分辨弥散圆数量为传感器的边长除以弥散圆的半径。
假定镜头的分辨能力为200lp/mm,即弥散圆半径为1/200
= 0.005毫米。对24 x 36毫米的胶片来说,如果颗粒的尺寸与弥散圆的直径相当,其分辨率为 24/0.005 x 36/0.005 = 4800 X 7200
= 3456万个可分辨弥散圆。
但如果传感器的像素间距为10微米,也就是等于200lp/mm镜头的弥散圆直径。那么,在24
x 36 毫米幅面的传感器只能分辨出一半,即 24/0.01 x 36/0.01 = 2400 x 3600 = 864万像素。如果折算为线对,只相当于50lp/mm,即镜头分辨能力的25%。
显然,无论是对胶片还是对数码传感器,有更大的面积来容纳更多的可分辨弥散圆都会带来实际分辨率的显著增长。这就是为何单反数码比小DC分辨率更高,全幅单反比APS画幅分辨率更高,中画幅或大画幅相机有更高分辨率的根本原因――画幅越大,能够放得下的镜头可分辨弥散圆就越多。唯一要考虑的限制因素还是镜头,镜头分辨能力在大像场的情况下的不如小像场。也就是说,同一支镜头在APSC画幅下的分辨能力,要高于在全幅下的分辨能力。
这里,可以提出另一条定律:
在镜头的弥散圆直径等于或大于象素间距后,传感器的像素分辨率取决于在其边长上可容纳的可分辨弥散圆的数量。
在弥散圆大于象素间距后,是不是意味着增加象素对提高实际分辨率就已经变得毫无意义了?从DXO给出的数据看,情况并不如此。
从图三上可以看出,即便是在最低的124像素/毫米的情况下,传感器的实际分辨率都已经小于传感器的像素分辨率(低于采样理论分辨率),也就是说,弥散圆的直径已经大于传感器的像素间隔。但随着像素密度的提高,实际分辨率仍然在增加,而且尺寸大的传感器实际分辨率增长会更快一些。APSC画幅的传感器在接近1200万像素之前的增长速度要高于1200万像素之后,说明即使在弥散圆直径大于像素间距之后,通过增加象素使得实际分辨率增长的可能性还是存在的。
显然,全幅传感器实际分辨率增长快的原因是其尺寸较大,可以放得下更多可分辨的弥散圆,APSC画幅的传感器尺寸较小,能够放下的可分辨弥散圆也要少一些。因此,我们可以推测像素密度的增加会增加可分辨的弥散圆数量,从而使得实际分辨率得以增长。
但镜头本身的分辨能力决定了弥散圆的直径,而传感器的尺寸决定了可分辨弥散圆的数量,增加象素密度不可能改变这两者。所以,只有一种可能,增加象素密度会使得传感器能够识别之前不能识别的镜头可分辨弥散圆。
如果满足采样定理的要求,即在每个线对有两个像素时镜头的实际分辨能力看作是已经近似100%的利用了镜头分辨能力,那么,在像素间距小于弥散圆直径的情况下,继续增加象素密度实际上是将镜头利用率从25%提高到接近100%的过程,在这一过程中,继续增加象素的密度还是有意义的。
让我们来看一看这是怎么实现的。如下图所示,如果考虑到弥散圆彼此相叠的情况,将一个弥散圆所覆盖的象素在直径上从一个增加到4个,相当于弥散圆所覆盖的象素从1个增加到16个。可以看出,每一次划分对应的象素都能获得信息,也就是说,如果将一个弥散圆覆盖的象素从一个增加到16个都是有意义的。
这里需要再详细说一下:
首先,假定弥散内部的照度是均匀的。为何要将弥散圆理解为照度均匀呢?是因为弥散圆对应的是所拍摄对象上的点光源,而点光源只有一种亮度,所以,对应的弥散圆就只应该有一种亮度。将其内部视为亮度不均匀不但会带来计算上的麻烦,最主要的是无法将主要问题突出出来。
其次,每个弥散圆的亮度是均匀的,不等于其叠加之后的亮度也是均匀的。例如,两个弥散圆一个亮度是25,另一个是亮度是5,如果这两个弥散圆只是相切而没有重叠,那么其内部依然只有一个亮度值,分别是25和5(在我画的图中,带阴影的弥散圆亮度是5,没有带阴影的弥散圆亮度是25)。但第三个弥散圆如果叠在这两个弥散圆的中间,就会出现不同的亮度分布。比如第三个弥散圆的亮度是25(也可以是5),在与亮度为25的弥散圆重叠的部分亮度叠加为50,与亮度为5的弥散圆叠加亮度为30。因此,就会有4种亮度,分别是5,30,50,25,如果对其采样,至少需要4个像素。两两相叠之后,考虑到相叠部分的面积也是不一样的,因此,照度均匀但亮度不同的弥散圆相叠之后会在一个弥散圆上形成不同的亮度分布。在理论上来说,在弥散圆直径上的正方形的像素的每一次划分都会获得相应的信息,划分得越小,获得的亮度信息也就越多。但从理论上来说,一个线对只有两种亮度,一个对应黑线,另一个对应白线,所以,按照采样定理采样两次就够了,每一个重叠的弥散圆都采样两次,在一个弥散圆的直径上看就是4次,已经满足了采样定理得要求。
第三、如果还不满足的话,也可以继续增加象素的数量,将像素做的更小。但这个时候应该不可能像前面那样带来分辨能力的成倍增长了。
第四、从理论上来说,像素的增长可以无极限,也都可以获得一定的信息。只是越往后需要增加的像素越多,但获得的分辨能力增加却越少而已。
注:上图只是为了说明问题而画的示意图,在16个像素覆盖一个弥散圆的情况下,按照采样理论,右边的成象条纹也应该是黑白相间,而不是我画的这种有不同灰度的条纹。我手边没有计算卷积的软件,有这类软件的同学可以算一下,看看是不是这样?
以200lp/mm的镜头的弥散圆为例,其直径为1/200X2
= 10微米。
如果象素间距等于或大与10微米,200lp/mm的镜头只相当于50lp/mm的镜头。如果在直径上将一个弥散圆在一分为二,每个弥散圆上有四个象素,此时象素间距从10微米减少到5微米,分辨率增加一倍,相当于100lp/mm的镜头。如果在弥散圆的直径上放四个象素,共16个象素,像素间距为2.5微米,将使得分辨能力再增加一倍,达到200lp/mm。
我已经根据这个模型按照200lp/mm、150lp/mm、100lp/mm等三种镜头分辨率,再按照全幅和APSC幅面计算了每个弥散圆覆盖1、4、9、16个象素时能够获得的实际分辨能力和象素的数量,如下表:
可以看出,对200lp/mm的镜头,如果要发挥出接近100%的镜头分辨能力,需要用16个像素来表示一个弥散圆。此时,需要的象素数量为13,824万,与根据采样理论计算出来的结果是一致的。
根据上述分析,我们可以得出如下定理:
一个镜头可分辨的弥散圆在直径上用一个象素采样,只能利用该镜头分辨能力的25%,用2个像素采样,能够利用镜头分辨能力的50%,用3个象素采样,能够利用镜头分辨能力的75%,4个象素采样已经接近镜头分辨能力的100%,再继续增加象素已经意义不大
从表三中我们还可以看出,200lp/mm镜头利用率的50%相当于100lp/mm镜头的100%,而且二者的象素间距也是一样的,都是5微米。按照这个象素间距,在135全幅上的分辨率为,像素数量为3456万。在apsc画幅上的像素分辨率为,象素数量为1329万。
当然,也可以追求更高的象素来提高200lp/mm镜头的利用率,但这需要将象素从全幅的3456万增加到13824万,才能接近100%的利用200lp/mm镜头的分辨能力。但此时象素间距将只有2.5微米,宽容度和高感能力将大大下降。更主要的是,你有多大的可能性有机会拥有并使用一支具有200lp/mm分辨能力的镜头呢?
在图三的基础上,我又画了一张与图三基本相同的图,其中100%的直线就是传感器采样理论分辨能力或者说机身分辨能力,单位为lp/mm。相当于在与其具有相同分辨能力的镜头弥散圆直径上有4个象素。例如,7D的机身分辨能力为120lp/mm,对应于120lp/mm镜头的弥散圆上有4个象素。75%的传感器或机身分辨能力表示能利用120lp/mm镜头分辨能力的75%,对应的是弥散圆直径上有3个象素,50%的传感器或机身分辨能力表示能利用120lp/mm镜头分辨能力的50%,对应的弥散圆直径上有2个象素。
数据表和图如下:
从图上可以清楚地看出,在450D的位置,所有这四支镜头都落入了机身分辨能力的75%与50%之间。也就是说,过了这一点以后,这几支镜头只需要在与机身对应的弥散圆直径上有两个象素,即可100%的表达。而100lp/mm镜头100%表达的象素间距是5微米,对应200象素/毫米,正好也位于这一期间(图上100的位置)。因此,我们基本上可以断言,就目前市场上销售的镜头而言,APSC画幅1200万――1329万象素就已经足以满足绝大多数人的需求,没有必要再去追求更多的象素,因为这些多出来的象素你是用不上的,除非你有高于100lp/mm分辨能力的镜头。
对尼康的数据也作了一张图:
上图的数据表
尼康D7000的机身分辨能力为106lp/mm。
从图七中可以清楚地看出,这四支镜头在D3x对应的点上,分辨能力都有不同的下降,但高于D3S、D3和D700。这说明,同样的镜头用于全幅分辨能力会下降,但提高象素密度对提升镜头的分辨能力还是有改进的。
同时,还可以看出,这四支镜头在全幅上的分辨能力以28-300这支变焦头下降的最快,而尼康自己的85/1.4在全幅上表现最好,其次是蔡斯的85/1.4。
有些同学对数学中的极限理论不熟悉,以为可以达到100%的镜头利用率,这实际上是不可能的,对任何一支镜头来说,无论你将像素做得再小,都不可能100%的利用镜头的分辨能力,只能无限逼近。
例如,无论是对佳能和尼康,我都选了一支分辨能力最低的变焦头作为参照系,这支镜头在7D上分辨能力是61lp/mm,而7D的机身分辨能力为120lp/mm,是其一倍,即使是机身分辨能力低一些的500D,其机身分辨能力也有107lp/mm,比这只镜头的分辨能力高得多,但依然从500D的58lp/mm提升到了61lp/mm!
所以,要发挥镜头100%的分辨能力是不可能的。但实际上7D的机身分辨能力已经大大超过了这只镜头的分辨能力,像素再多,也只是微弱的提升,远不及换一只好镜头来得有效。而即使使用测试数据中分辨能力最高的镜头,在7D上也只有77lp/mm,远低于其机身分辨能力120lp/mm。所以,我们不能用100%的利用率来作为判断是否到底的标志,只能按照一个足够大的分辨能力,例如用16个像素来表示一个弥散圆就足够了。
实际上,画幅的尺寸带来的优势要大于机身分辨能力低的问题。5D的机身分辨能力只有63lp/mm,而7D的却高达120lp/mm。但根据DXO的实测数据计算出来的结果却是5D的传感器实际分辨能力比7D的还要高,而7D浪费的像素却比5D高得多!
下图就是7D与5D在传感器长边实测分辨率与浪费的像素比较的结果。
从上图可以清楚的看出,高像素不仅没有带来分辨率的增加,反而使得分辨率下降了!并且由于大量的像素被浪费在用不着的功能上(可能会有更高分辨能力的镜头出现),使得其像素尺寸减小,从而在宽容度和高感能力上的性能大大降低。
四、机身分辨能力与镜头分辨能力之间的关系
机身分辨能力。机身分辨能力类似于胶片的分辨能力,单位为lp/mm。这个指标是传感器的以毫米为单位的像素间距X2的倒数,表示机身可以与多高分辨能力的镜头配合。比如5D的机身分辨能力是63lp/mm,是指63lp/mm的镜头装在5D上正合适,可以接近有100%的镜头利用率。小于此分辨能力的镜头,比如50lp/mm的镜头装在5D上,就会有一部分像素无法利用。大于此分辨能力的镜头,比如80lp/mm的镜头装在5D上,5D只能利用此镜头的75%的分辨能力。所以,需要考虑你手中的镜头与机身是否相配合。如果你手中的镜头都是50-80lp/mm的,那就不合适用7D,因为7D的机身分辨能力为120lp/mm。用7D不仅不能提高图像的清晰度,反而会浪费很多像素。
由于我在给出机身分辨能力时是按照直径上有4个像素,也就是用16个像素来覆盖一个弥散圆,接近于100%的镜头利用率。因此,如果使用与机身分辨能力一致的镜头就不需要换算,直接用镜头的分辨能力计算就可以了。比如7D上如果使用120lp/mm的镜头,系统的分辨能力就接近100%的120lp/mm。如果镜头的分辨能力低于机身分辨能力,比如机身的分辨能力是120lp/mm,但镜头只有80lp/mm,此时的系统分辨能力应该按照80lp/mm的镜头分辨能力来计算,而不能按照120lp/mm的机身能力来计算,但机身的像素会被浪费。如果镜头的分辨能力高于机身分辨能力,比如150lp/mm的镜头。那么应该按照机身的分辨能力来计算,也就是会略小于120lp/mm,此时,镜头的分辨能力不能得到充分利用。但不能用公式1/R
= 1/r1+1/r2来计算,如果直接用这个公式计算的话,误差会比较大。
我发现很多质疑的同学对极限的概念不清楚,以为极限是绝对的而不是相对的。实际上,镜头分辨能力的利用率是一个相对概念,也就是说,只针对具体的那支镜头,而不是针对其它的镜头,更不是针对所有的镜头。
比如一支分辨能力只有100lp/mm的镜头在数码传感器上使用,无论你再怎么将像素做小,使得传感器的分辨率不断提高,镜头分辨能力的利用率从一个弥散圆对应一个像素的25%提升到对应16个像素的接近100%后,还可以再增加像素比如到25个像素或者36个像素,在理论上来说依然没有达到100%的极限,如果你愿意的话,还可以再继续提高像素的数量,使其向100%的利用率逼近,但永远不可能达到100%,无论用多少万像素都不可能!从这个意义上来说,像素的数量可以无限增长。但对这支具体的镜头来说,其分辨能力的极限就是100lp/mm,无论你增加多少万像素,都不可能改变这一点。
对缺乏数学背景的同学来说,我举一个简单的例子来说明这个问题。
大家都知道龟兔赛跑的故事,如果小白兔睡醒了之后,发现小乌龟已经远远跑在了前面,开始奋起直追。假定小白兔奔跑的速度是小乌龟爬行速度的10倍,如果不考虑终点,小白兔能否追得上小乌龟?从常识来说,小白兔肯定能在某一点上赶上并超过小乌龟。
但如果换一种方式考虑,由于小乌龟在小白兔睡觉的时候领先了小白兔若干距离,因此,小白兔跑了10米,小乌龟也爬了1米,小白兔跑了1米,小乌龟也爬了0.1米,小白兔跑了0.1米,小乌龟也爬了0.01米,小白兔跑了0.01米,小乌龟也爬了0.001米,...,小乌龟一直领先,结论就是小白兔永远追不上小乌龟!
以为一支只有50lp/mm的镜头只能无限逼近其100%的分辨能力,就表示这只50lp/mm的镜头可以有100lp/mm,甚至1000lp/mm,10000lp/mm一样,是没有搞清楚极限的定义所致。一支有50lp/mm分辨能力的镜头,传感器无论增加多少万像素的方式来逼近其100%的利用率,其分辨能力的极限就是50lp/mm,不可能通过这种方式将其变成为那怕是51lp/mm的分辨能力,更不可能变成100lp/mm!如果这样认为的话,就相当于认为小白兔永远追不上小乌龟!
如果我们将传感器边长上的像素数量看作是小白兔,镜头的分辨能力看作是小乌龟。假定这只小白兔比较衰,只能用相当于2倍而不是10倍于小乌龟的速度奔跑,那么,那怕我们不通过高等数学中无穷小这个比较绕的概念,也可以理解什么是极限。
对一支具体的镜头,比如说分辨能力30lp/mm的狗头来说,这只小乌龟的极限就是每毫米30线对,而对应的像素是多少呢?显然,在每个线对放两个像素就够了,也就是每毫米60个像素,或者说像素密度是60像素/毫米。而在一毫米的距离上放60个像素就是说1/60=0.016667毫米的像素间距或者边长。如果某台机身的传感器像素间距刚好是0.016667毫米。如下图所示,一个线对用两个像素来表示,每个象素的边长就是0.016667毫米,乘以2为0.033333毫米,我们就可以认为这台机身的分辨率R是0.033333毫米。而分辨能力RP
= 1/R,因此,RP = 1/0.033333 = 30lp/mm。所以,这台机身的分辨能力为30lp/mm。与30lp/mm镜头的分辨能力是一样的。
如果小白兔的象素密度增加一倍,从60像素/毫米变成了120像素/毫米,此时的象素间距是1/120
= 0.008333毫米,其分辨率R为2x0.008333 = 0.016667毫米,分辨能力RP = 1/R,RP = 1/0.016667 = 60lp/mm。与60lp/mm的镜头正好相配。如果将那只原地不动的小乌龟30lp/mm的镜头放到这台有60lp/mm分辨能力的机身上使用,就只能有30lp/mm的机身分辨能力,其余的30lp/mm或者60像素/毫米都是多余的。
当小白兔变成了7D,象素密度从120象素/毫米增加到了240象素/毫米,从上面所述我们可以知道,其机身分辨能力是120lp/mm。如果前面两只小乌龟30lp/mm和60lp/mm的镜头放在7D这只小白兔上使用,前者浪费了2倍象素,后者浪费了1倍的象素。
道理就是这么简单,不需要高等数学,有基本的常识,做一下四则运算就可以知道。认为即使是7D这只120lp/mm分辨能力的小白兔永远也追不上只有30lp/mm和60lp/mm分辨能力的两只小乌龟,岂不是很搞笑吗?哈哈!
ShutterDog 在 03:26发表
不要过分解读两台相机之间的差别。须知测量数据是有误差的,从DxO的说明上写道,"Differences below 5lp/mm are usually not
noticeable." 估计测量误差也在正负 5 lp/mm左右。
正如ShutterDog兄所指出的那样,在测量任何数据的时候都会有误差。其中最主要的误差来自于最小的度量单位。
比如要用一把尺子来测量某个物体的长度,其误差来之于这把尺子的最小刻度单位。如果这把尺子的刻度单位是1毫米,那么用这把尺子测量该物体的测量误差就是正负1毫米,因为小于1毫米已经无法用这把尺子来测量了,必须换一把刻度更小的尺来测量,比如0.1毫米,此时,测量误差减小为正负0.1毫米。只要我们能够读出尺子的刻度,这个过程就可以无限进行下去,来不断的减少测量误差,获得该物体更精确的长度,从而不断逼近该物体的真实长度,但永远无法测出该物体的真正长度,因为这个过程是误差趋于0的过程,但误差永远不会等于0。
永远无法测量出该物体的真实长度,不等于该物体没有一个真实的长度,更不等于该物体的真实长度会随着测量误差的减小而增加。该物体的真实长度就是极限,测量过程就是向该物体真实长度无限逼近的过程。比如该物体的真实长度是1000毫米,用1毫米刻度的尺子测量,误差是正负1毫米,也就是说,该物体的真实长度介于999毫米与1001毫米之间。如果尺子的刻度变为0.1毫米,那么误差就是正负0.1毫米。该物体的真实长度就是介于999.9毫米与1000.1毫米之间,…,只要你认为有必要获得更高的测量精度并且有办法读出尺子的刻度,这个过程就可以一直进行下去,不断地逼近1000毫米这个极限,但永远无法达到误差为0这个要求。
如果认为可以无限的逼近该物体的真实长度,就意味着该物体的长度可以无限大,或者从1000毫米变成为1001毫米,无疑是很可笑的观点!
对镜头也是如此,每支具体的镜头必然存在着一个真实的分辨能力。无论用胶片还是用MTF设备来测量该镜头的真实分辨能力都只能无限逼近而无法真正测量出来,但不等于其没有一个作为极限的真实分辨能力存在,更不等于随着测量精度的提高这支镜头的分辨能力会不断地增加,这种观点同样是可笑的!
既然测量任何对象都需要一把尺子,那么,测量镜头分辨能力的这把尺子是什么呢?显然,在胶片时代就只能通过胶片作为尺子来测量,也就是我们熟知的用胶片来拍摄分辨率测试标板,然后再来数每毫米有多少线对。
到了数码时代,有了CCD和CMOS传感器来代替胶片,因此,CCD或者CMOS传感器也可以成为测量镜头分辨能力的尺子。要用数码传感器作为尺子测量镜头的分辨能力,可以用专门的MTF设备,也可以用DXO的方法,将镜头安装在机身上按照规定的条件,诸如照度、对比度、光圈大小等等一致的条件下来拍摄分辨率标板,从而确定镜头在每种机身下的实际分辨能力。因此,可以将DXO给出的数据视为用不同机身的传感器作为尺子来测量镜头的分辨能力。
尺子有了之后,就需要有刻度,这个刻度又是什么呢?请看下图,这是ShutterDog兄给出的《大不列颠摄影教程》一书英文版中关于分辨能力测试一节的内容,其中用红线框出部分就是镜头测试目标单元。每组图案由相互垂直的的三个黑条组成,黑条的长为宽的五倍,且以等宽的白色隔开。黑条的宽度为X,白色的间隔宽度与黑条一样,也是X。
显然,要能够分辨出黑条及白色的间隔,必须在黑条和白色间隔上各放一个像素,也就是两个像素。如果象素的间距大于X,就无法分辨出X宽度的黑条。只有在象素间距等于X的时候,才能有效的分辨出黑条和白色间隔。因此,当象素间隔等于黑条的宽度X时,机身的分辨能力与镜头的分辨能力是一致的。而空间频率为1/2x,也就是说此时的镜头分辨能力为1/2X。
就以我们前面所举的例子来说,对应于30lp/mm分辨能力的镜头,数码传感器需要在1毫米内放60个象素,每个象素的间距是0.016667毫米。也就是X
= 0.016667毫米,2X = 0.033333毫米,1/2x = 30lp/mm,此时机身分辨能力等于镜头分辨能力,也就是30lp/mm。
因此,当一个像素间距为0.016667毫米的数码相机用某一支待测镜头拍摄分辨率测试标板的时候,只要能够在其拍摄的图像上数出每毫米30个线对,那么,这支待测镜头的分辨能力就是30lp/mm,不可能再按照公式1/R
= 1/r1+1/r2来计算这支镜头的真实分辨能力。
如果按照这个公式,就会有
30 = 1/r1 + 30,1/r1 = 30-30 = 0,也就是这支镜头的分辨能力为0!这可能吗?
所以,可以断言公式1/R
= 1/r1+1/r2肯定是不适合用于这种情况的。依据这个公式根据DXO的实测数据来推断镜头的分辨能力才会搞出佳能75-300这支镜头有100lp/mm,蔡斯的85/1.4这支头有300lp/mm的笑话出来!
我们还可以进一步推断,如果象素间距小于X的时候会发生什么情况?由于黑条的宽度在长度方向上只有5倍X是等宽的,之后会按照2的6次方根连续的减小。如果镜头的真实分辨能力比机身的分辨能力略高一些,比如不是正好是30lp/mm,而是32lp/mm,而象素间距为0.016667毫米只能测试出30lp/mm的镜头分辨能力,是无法测试出32lp/mm的镜头分辨能力的。因为32lp/mm的镜头分辨率R
= 0.03125毫米,需要的象素间距为R/2 = 0.015625毫米。如果象素间距小于0.016667毫米,大于0.015625毫米,还是无法测出32lp/mm的镜头分辨能力。只有在象素间距小于或等于0.015625毫米时,才有可能测试出镜头的32lp/mm的分辨能力。
由于象素间距不可能像分辨率测试标板那样连续减小,因此就会出现同一只镜头在利用率达到近100%后,在象素密度不同的机身上,有些机身分辨能力没有变,,而某些机身有变化的情况,但无论如何减小象素的尺寸,增加象素的数量,都只是在向镜头的真实分辨能力不断逼近,而不可能改变和提高镜头的真实分辨能力。
弥散圆直径的测量误差
不同的镜头有不同的分辨能力,而分辨能力取决于弥散圆的直径,弥散圆直径大的镜头分辨能力要低于弥散圆直径小的镜头,测量镜头分辨能力可以视为测量该镜头弥散圆的直径。而测量的刻度就是传感器的像素间距,如果像素的间距大,测量的误差就大,从应用角度来看,镜头的利用率就会降低。随着像素间距的减小,测量的误差也会减小,镜头的利用率也会得到提高。
有人认为,镜头的分辨能力应该没有得到充分的利用,其真实分辨能力应该大大超过DXO测试的数据。确实,从DXO的测试数据上来看,随着像素密度的提高,即使是分辨能力最低的镜头的实际分辨能力也在增长,只是增长的速度很低。
弥散圆理论是如何解释这一现象呢?
我认为,这是测量误差所致。请看下图,在一个弥散圆直径上有四个像素的情况下,如果一个镜头的弥散圆直径小于四个像素间距大于两个像素间距的情况下,会使得测试的结果显示为较小的分辨能力数值,而镜头的真实分辨能力要大于测试的结果。随着像素间距的减小,测量精度提高,逐步地向其真实的分辨能力逼近。一个弥散圆直径上有6个像素,就会使得测量精度进一步提高,真实分辨能力会落在5-6个像素之间,更接近镜头的真实分辨能力。从应用的角度来看,这个过程就是不断向100%的镜头利用率逼近的过程。
就如同用不同刻度的尺子测量一个1000毫米上的物体,用10毫米的刻度尺子,量出990毫米。换一把1毫米刻度的尺子,量出999毫米。从表面上看增加了9毫米,但该物体的真实长度还是1000毫米,并未改变。
可以按照每一种机身的像素间距计算出该机型的最大测量误差,也就是按照实测的数据将镜头的分辨能力RP按照公式R
= 1/RP换算成分辨率R后,减去该机身传感器的像素间距后,再按照公式RP = 1/R换算为分辨能力,这个数字应该就是对应镜头真实分辨能力的上限。
从下表中可以看出,虽然这个数据都比测量数据有所提高,但是并未随像素密度的提高而提高,而是波动的,这正好说明镜头的真实分辨能力位于这个区间。
显然,最大可能分辨能力虽然比测试数据高了不少,但却远远低于用公式1/R
= 1/r1+1/r2 倒推出来的镜头分辨能力。
我使用数学分析的工具推导出一个计算误差的公式。推导过程如下所示:
= 1/r1+1/r2 应用于从实测的镜头分辨能力来计算镜头的真实分辨能力,不仅在数码相机上会出现荒唐的结果,在使用MTF设备测试镜头的分辨能力时,是否也需要按照这个公式来计算镜头的真实分辨能力呢?如果也是这样,这个世界上就永远不会有低分辨能力的镜头,一只如75-300这样的狗头都可以计算出100lp/mm的分辨能力,还有什么镜头的分辨能力会低于100lp/mm的?
就算将其应用于胶片的测试结果,就会出现蔡斯这支400lp/mm的头使用1000lp/mm的胶片时,会有667lp/mm的分辨能力,超过了f/4光圈下的衍射极限!
所以,结论只有一个,就是不能将这个公式应用于推测拍摄分辨率标板时镜头的真实分辨能力,而是直接按照测试结果来确定镜头的分辨能力,不需要再按照公式来推算镜头的真实分辨能力。
五、胶片系统与数码系统之间的关系
那么,公式1/R
= 1/r1 + 1/r2的适用范围是什么呢?应该是在已知镜头分辨能力和胶片分辨能力的情况下,计算出二者配合使用时的实际分辨能力。根据我的理论分析,只要在这个适用范围内使用,这个公式对胶片系统有很好的计算精度,但对于数码相机来说就未必准确了。
根据我前面提出的定理:
当镜头产生的弥散圆直径小于或等于传感器象素间距时,镜头的分辨率只能利用25%。
可以推论出另一条定理:
与镜头分辨能力相同的胶片只利用了50%的镜头分辨能力,如果要充分利用镜头的分辨能力,必须要选用高于镜头分辨能力一倍以上的胶片。
这条关于胶片的定理的意思与公式
1/R = 1/r1 + 1/r2 要表达的意思是一样的。
例如,镜头的分辨能力是100lp/mm,胶片的分辨能力也是100lp/mm,二者之和为1/100+1/100
= 0.02,而1/0.02 = 50lp/mm
正是镜头分辨能力100lp/mm的50%!
如果镜头的分辨能力不变,还是100lp/mm,胶片的分辨能力提升到200lp/mm,可以计算出:1/R
= 1/100 + 1/200 = 67lp/mm。胶片的分辨能力提升到400lp/mm,实际分辨能力提升到80lp/mm。胶片提升到800lp/mm,实际分辨能力提升到89lp/mm。随着胶片分辨能力的提高,实际分辨能力逐渐向镜头的分辨能力靠近。与我提出的这条定理是符合的。
可见,这个公式从另一个方面验证了我的理论。
另一方面,从上面的例子中可以看出,在胶片系统中,也存在着如数码传感器一样的镜头分辨能力的利用率问题。在镜头分辨能力不变的情况下,只能通过提升胶片分辨能力的方式来提高镜头分辨能力的利用率,但无论怎样提升胶片的分辨能力,都无法100%的利用镜头的分辨能力。
如果换用一支分辨能力较低的镜头,例如,50lp/mm的镜头,那么,50lp/mm的胶片只有25lp/mm的实际分辨能力,100lp/mm的胶片实际分辨能力是33lp/mm,...,无论这样提升胶片的分辨能力,实际分辨能力都是在逼近50lp/mm这个镜头的分辨能力。但实际分辨能力不可能达到,更不可能超过镜头的分辨能力。
可见,在一个由镜头和胶片组成的系统中,是系统最薄弱的那个环节在制约着实际分辨能力,而不是一个莫名其妙的系统分辨能力。这一点与数码系统是类似的,因此,这个公式也可以用于数码系统,但误差要大一些。
由于市场上销售的胶片分辨能力大都在200lp/mm以下,只有很少的胶片分辨能力可以高达500lp/mm,甚至900lp/mm,但都是特种专用胶片,一般人无法获得。因此,对于100lp/mm的镜头来说,胶片系统对镜头分辨能力的利用率只有50%-70%左右。换算成实际分辨能力也就是50-70lp/mm。
根据我提出的定理:
一个镜头可分辨的弥散圆在直径上用一个象素采样,只能利用该镜头分辨能力的25%,用2个像素采样,能够利用镜头分辨能力的50%,用3个象素采样,能够利用镜头分辨能力的75%,4个象素采样已经接近镜头分辨能力的100%,再继续增加象素已经意义不大。
对一个镜头可分辨弥散圆直径上有两个像素采样,就可以利用镜头分辨能力的50%,达到与胶片在分辨能力与镜头相同时的镜头分辨能力的利用率。如果增加到3个像素,对镜头分辨能力的利用率可提高到75%,超过了大部分胶片系统对镜头分辨能力的利用率。如果做到一个镜头可分辨弥散圆直径上有四个像素采样,传感器对镜头分辨能力的利用率将接近100%,是胶片系统难以企及的。
显然,一般人认为的胶片会比数码相机分辨能力更高的说法未必能够成立。而且,根据DXO测试的数据来看,还没有哪一种数码相机的像素间隔会大于在一个弥散圆的直径上只能放两个像素,一般都在三个或四个,超过4个像素后,意义并不是太大。
因此,将公式1/R
= 1/r1+1/r2应用于数码会有一定的问题。
如下图所示,按照《大不列颠摄影教程》中的计算公式,弥散圆直径与线对的关系如图中最上面所示,即一个弥散圆的直径上要有两个线对,线宽X是弥散圆直径的四分之一。
显然,在一个像素表示一个弥散圆的情况下,镜头的分辨能力只利用了1/4,也就是25%。
问题是如何用直径四倍于线宽的弥散圆来表示线宽X?例如,弥散圆的直径是40微米,而线宽只有10微米,这个线宽应该在直径上如何体现出来的?如果没有瑞利判据,这是不可能的事。但有了瑞利判据以后,这个问题就迎刃而解。
首先,在弥散圆的直径上二等分,在直径上放置两个像素,共4个像素,此时就可以识别出原来重叠在两个弥散圆中间的第三个弥散圆,使得镜头分辨能力的利用率从25%提高到50%,传感器的像素分辨能力提高一倍。
如果将直径四等分,在直径上放4个像素,共16个像素,那么,每个像素的间距就等于线对中的线条宽度,使得传感器的像素分辨能力再提高两倍,从而接近于100%的利用了镜头的分辨能力。
图中没有画出在弥散圆直径上三等分,放置三个像素,共9个像素的情况。此时传感器的分辨能力从50%时再增加一倍,达到镜头分辨能力的75%。75%这个数字很重要,是判断像素是否够用或过剩的关键指标,以后会说到这一点。
如果胶片的颗粒直径与弥散圆的直径相同,那么,胶片的镜头分辨能力的利用率相当于在弥散圆直径上二等分的情况,即50%的镜头利用率。因为胶片的颗粒可以重叠,因此不需要像数码传感器那样将一个大像素分为4个小像素来识别第三个弥散圆。
但胶片的问题在于无法像数码那样可以很容易的将像素的尺寸做小,使得直径上的像素从2个变为4个,必须换用分辨能力更高的胶片来解决镜头分辨能力利用率的问题。这就是为何我可以得出前述有关胶片定理的理论依据。而这个推论居然与半经验公式1/R
= 1/r1+1/r2很一致,说明我的理论是正确的。
如果在弥散圆的直径上已经放了4个像素,再增加象素的数量已经无法按照线形关系增长,会出现边际效用递减的现象。因此,我认为这可以视为标志,对大多数用户来说,在达到这一点之后,就没有必要再增加象素来提高镜头分辨能力的利用率。
同时,我们也可以看出,由于与镜头同样分辨能力的胶片只能提供50%的镜头利用率,而一个象素间距等于或小于弥散圆四分之一的数码传感器已经可以提供近100%的镜头利用率,说明经验公式1/R
= 1/r1+1/r2用于数码传感器的话,其误差就会比较大。
弥散圆理论与传统像素采样理论的比较
我的理论是建立在弥散圆基础上的,故可称为弥散圆理论。而传统的理论是以每个线对放两个像素采样的理论来建立的,故可称为像素采样理论。由于一个弥散圆在直径上对应于两对线对共4个像素,因此,在每个弥散圆在直径上有四个像素的情况下,弥散圆理论与像素采样理论是一致的。
二者的差异在于:
一、弥散圆理论的传感器实际分辨能力不仅与像素密度有关,而且与传感器的尺寸以及所使用的镜头分辨能力有关。而像素采样理论只考虑像素的密度,不考虑传感器的尺寸和所使用的镜头,只按照像素密度来计算传感器的分辨能力。
二、弥散圆理论提供了确切的信息给用户来判断其使用的机身分辨能力与镜头分辨能力之间的关系,使得用户能够根据自己的需求来确定如何选择机身和镜头。
三、弥散圆理论比像素采样理论更能解释一些在像素密度达到一定数量后出现的现象。
下图是DXO的数据,与图一基本一样,但增加了两条线。一条是根据像素采样理论每个线对两个像素所做出来的直线(图中最上面那条线),按照采样理论,这条直线不会出现任何转折,图上的情况表明确实如此。另一条是不同画幅的机身分辨能力按照对应画幅做出的曲线,可以看出,这条线随着不同幅面的机身而转折。显然,弥散圆理论更能说明问题。
上图的数据表
全幅与APS画幅的镜头分辨能力比较
从DXO的数据中还可以看出,同一支镜头如果用在全幅上,分辨能力会有所下降。这证明,画幅尺寸大固然会带来可以放下更多弥散圆的好处,但会带来镜头分辨能力的下降。因此,全幅的像素密度提升需要考虑这个因素,以免浪费过多的像素。
上图的数据表
为了进一步说明上述问题,将佳能、尼康的全幅机身都做到了一张图中,选用的是两支两家公司机身都能使用的第三方的镜头。如下图:
上图的数据表
可以看出,即使是在全幅机身,在160像素/毫米的密度左右,也就是2100万像素的时候,两支镜头都落入了机身分辨能力的75%以下。这说明机身的分辨能力已经过剩。虽然目前全幅的有效数据较少,还不能就此作出判断。但至少说明,由于镜头分辨能力的限制,即时是全幅,其像素过剩的转折点也会比根据采样理论计算的要早得多。
无论是理论分析还是DXO的实测数据,都无可辩驳的证明了镜头实际上就是制约像素密度提高的瓶颈。按照采样理论计算出来的像素密度远远超过了目前市场上销售的镜头所需要的像素密度,如果没有相应的镜头配合,这些像素实际上无法发挥太大的作用。
按照弥散圆理论计算出来的机身分辨能力的75%线是一个很好的判定像素是否过剩的标志,如果使用的镜头已经全部落入到了机身分辨能力的75%与50%之间,就说明像素已经大大过剩。这一点在佳能的APSC机身上非常明显,在450D也就是1200万像素之后,象素密度的提高带来的实际分辨率增长已经不大了。
全幅的数据还不够多,但在2100万像素的时候已经落入了75%线以下,说明其对镜头的要求更高,如果没有能够用于大像场的好镜头,盲目地追求高象素传感器,势必会导致既没有很高的分辨能力,又丧失了大象素高宽容度和高感光度的优势。
本文提出的弥散圆理论解决了传统理论无法解答的问题,与实际测试的数据有着非常好的一致性,并且对传统理论中的公式1/R
= 1/r1 + 1/r2给出了一种新的解释,应该说已经超过了笔者当初写这篇文字的初衷。最重要的是,在讨论过程中,笔者发现了传统理论中存在着重大问题以及因此而导致的许多错误观点。
由于弥散圆理论是根据爱里斑和瑞利判据按照严密的数学关系推导出来的,只要爱里斑存在,瑞利判据是正确的,那么,弥散圆理论就是正确的。将这篇文字写出来就是要任人评说或者说被证伪的,如果有人能够发现其中的问题或者指出笔者在推论上的问题和错误,笔者会欣然接受,修正错误并向指出者致谢。但如果没有人能提出证据来推翻笔者的理论,那么,这个理论就是无可辩驳的。至于有多少人承认或者相信,不是笔者能够左右的。但笔者相信,是金子总要发光,总会有认识到其价值的一天。
在本文的形成过程中,leon50422
兄和imareal兄发现并指出了我在将线对折算为像素时没有乘以2,这是我犯的第一个错误,在此向leon50422 兄和imareal兄表示衷心的感谢!
我的第二个错误是ShutterDog兄发现的,他指出,DXO的数据是按照24x36毫米的全幅作了归一化处理,我的有些计算是错误的。这是我犯的第二个错误,没有仔细看DXO的说明。非常感谢ShutterDog兄发现并指出了我的这一错误。不仅如此,也是ShutterDog兄让我认识到弥散圆直径与其可以表达的线对的线宽存在着4:1的关系,从而使得弥散圆理论得以建立。非常遗憾的是ShutterDog兄虽然也意识到了一个弥散圆直径上需要有四等分才能识别出单条线宽,却走向了另一个方向,用爱里斑的暗区来解决这一矛盾,从而错失了与笔者分享发现弥散圆理论的机会。当然,也许ShutterDog兄并不认为这是一个遗憾,但我仍然要在这里对他表示感谢,没有他的这一提醒,我也许还没有认识到弥散圆与像素之间存在着这样的关系。
我的第三个错误是在ritek兄提示下由我自己发现的。Ritek兄指出,公式1/R
= 1/r1 + 1/r2是胶片时代的产物,不是MTF的结果。真是一句话惊醒梦中人,让我突然醒悟,在一个象素对应一个弥散圆的情况下,镜头利用率只有25%,而胶片系统如果镜头与胶片是同样分辨能力的情况下,镜头分辨能力的利用率只有50%!从而使得弥散圆理论得以确立。在此,再一次向ritek兄表示感谢!
要感谢的还有capss兄。是他使我认识到公式1/R
= 1/r1 + 1/r2并且提供了蔡斯镜头的有关资料。
商汤之梦兄发现了我在首贴中多处将全幅的24X36毫米打成了24X32毫米。ShutterDog兄发现我在画图时将数据搞颠倒了。7―11大师发现我在图中将lp/mm打成了pl/mm。对以上各位在此一并表示感谢。
最后,向所有参与讨论并耐心读完首贴的网友们表示衷心的感谢!欢迎任何人对本文提出质疑、批评、批判。任何批评和建议我都会考虑,只要您说得对,能够让我认识到错误,我都会接受您的意见和建议并向您表示由衷的感谢!
做个快乐的人
楼主邀你扫码
参与上面帖子讨论
发表于:12-11-17 22:48
现在相机越做相素越高,是不是越高越好?成像的品质和哪些因素有关,这些都值得思考
这篇转于“Nikon
SLR/DSLM论坛”的“法无定法”的贴子挺好的,转来,收藏,有空时可以多研读研读!&
做个快乐的人
发表于:12-11-17 22:57
lp/mm(线对/毫米)单反镜头分辨率计算单位
做个快乐的人
发表于:12-11-18 23:03
前些天也看过了牛人真多。就是觉得dxo的数据不一定准呵呵
发表于:12-11-18 23:11
以下是引用 第4楼 @我是闲着呢 的话:
就是觉得dxo的数据不一定准呵呵...
这文章我是使劲看的,才基本看完
做个快乐的人
发表于:12-11-19 11:07
这得学光学的懂
你尚未登录或可能已退出账号:(请先或者
【敬请阅读】
亲爱的网友们,、有更新哦!
请您务必审慎阅读、充分理解各条款内容,特别是免除或者限制责任的条款、法律适用和争议解决条款。免除或者限制责任将以粗体标识,您应重点阅读。
【特别提示】
如您继续使用我们的服务,表示您已充分阅读、理解并接受《西祠站规》、《西祠胡同用户隐私保护政策》的全部内容。阅读《西祠站规》、《西祠胡同用户隐私保护政策》的过程中,如果您有任何疑问,可向平台客服咨询。如您不同意《西祠站规》、《西祠胡同用户隐私保护政策》的任何条款,可立即停止使用服务。
南京西祠信息技术股份有限公司
我已阅读并同意、中的全部内容!

我要回帖

更多关于 镜头焦距与景深的关系 的文章

 

随机推荐