CCD与CMOS应用基础Word格式文档下载.docx
《CCD与CMOS应用基础Word格式文档下载.docx》由会员分享,可在线阅读,更多相关《CCD与CMOS应用基础Word格式文档下载.docx(15页珍藏版)》请在冰点文库上搜索。
体现在输出结果上,就是CMOS传感器捕捉到的图像内容不如CCD传感器来得丰富,噪声较明显,这也是早期CMOS传感器只能用于低端场合的一大原因。
CMOS开口率低造成的另一个麻烦在于,它的像素点密度无法做到媲美CCD的地步,因此在传感器尺寸相同的前提下,CCD的像素规模总是高于同时期的CMOS传感器。
每个感光元件对应图像传感器中的一个像点,由于感光元件只能感应光的强度,无法捕获色彩信息,因此彩色CCD/CMOS图像传感器必须在感光元件上方覆盖彩色滤光片。
在这方面,不同的传感器厂商有不同的解决方案,最常用的做法是覆盖RGB红绿蓝三色滤光片,以1:
2:
1的构成由四个像点构成一个彩色像素(即红蓝滤光片分别覆盖一个像点,剩下的两个像点都覆盖绿色滤光片),采取这种比例的原因是人眼对绿色较为敏感。
而索尼的四色CCD技术则将其中的一个绿色滤光片换为翡翠绿色(英文Emerald,有些媒体称为E通道),由此组成新的R、G、B、E四色方案。
在接受光照之后,感光元件产生对应的电流,电流大小与光强对应,因此感光元件直接输出的电信号是模拟的。
在CCD传感器中,每一个感光元件都不对此作进一步的处理,而是将它直接输出到下一个感光元件的存储单元,结合该元件生成的模拟信号后再输出给第三个感光元件,依次类推,直到结合最后一个感光元件的信号才能形成统一的输出。
由于感光元件生成的电信号实在太微弱了,无法直接进行模数转换工作,因此这些输出数据必须做统一的放大处理—这项任务是由CCD传感器中的放大器专门负责,经放大器处理之后,每个像点的电信号强度都获得同样幅度的增大;
但由于CCD本身无法将模拟信号直接转换为数字信号,因此还需要一个专门的模数转换芯片进行处理,最终以二进制数字图像矩阵的形式输出给专门的DSP处理芯片。
CMOS传感器中每一个感光元件都直接整合了放大器和模数转换逻辑,当感光二极管接受光照、产生模拟的电信号之后,电信号首先被该感光元件中的放大器放大,然后直接转换成对应的数字信号。
深度解析ccd
什么在影响着ccd的画质?
一是ccd的噪声,二是系统差,三是ccd的分辨率。
****先说噪声*****
ccd的噪声比较复杂,以前我们用ccd拍照之前一定要做两种图象,一种是本底,一种是暗场。
***什么是本底?
****简单说,ccd两端一加电压,还没积分时间,也没露光,但势阱中就已经有电荷了。
如果这时候把这些电荷AD转换后读出,就发现图象存在一个“固有的”底层图象,这个需要先拍,然后扣除。
如果有些点一直有大量的残余电荷,无法清空的话,就是我们常见的亮点啦!
本底受ccd工艺以及环境温度的影响,现在ccd的本底已经比较小了,但对画质一样有影响。
***什么是暗场?
****又叫暗流,简单说,就是不开快门,但给ccd一直加压,产生的热电子。
每个象素的热电子都在累积,如果这个象素点比较异常,热电子累积得非常快,那就成了我们见到的噪点。
暗场随着曝光时间的增加而增加,在开始是线性的,到一定时期后变成非线性。
因此拍照片后需要关闭快门,积分和前一次曝光一样时间的“暗场”,然后再扣除。
dc真有这么干的?
?
当然有,这里一些老手肯定记得暗场降噪这个功能。
老minonta,老nikon长曝光的,都用的是这个技术。
###################################################################
以上两个都是可以扣除的仪器噪声。
但也有一些是难以扣除的。
举个例子,读出噪声,还有随机噪声。
所谓读出噪声,这个比较神奇,核心意思是,噪声和ccd读出速度有关,也和增益(dc中的iso)有关。
1先说读出速度,读出越快,噪声越大。
别老抱怨dc的读出慢,dc当然可以快读出,但会增加噪声,这里有意思了:
dc的连拍模式和单张模式,出来照片的噪声一样么?
理论上说是不一样的。
2再说增益(iso)的影响。
在固定曝光时间,固定场景,固定光圈的情况下,ccd受到的光照强度不会改变,因此提高增益(iso)就是单纯地放大信号,在放大信号的同时也放大了噪声,这就是高iso噪声大的原因。
但每一档增益
为何有不同的噪声水平?
而且变化规律并不严格按照增益的变化?
因为这种放大不是数字放大,而用的是放大电路,因此噪声水平一般比数字放大要低一点。
这就涉及到一个我们熟悉的事情:
在夜里,用iso100,拍1/4秒,然后后期调亮度;
或者用iso400,拍1/16秒,不调整亮度,哪个好?
理论上是后者稍好。
所谓随机噪声,这个是采样的问题,通过多次采样压低噪声是非常常用的手法。
我以前写过一个:
DC拍出单反的画质(之一),说的就是这个事情。
顺便说下,之二,之三怎么没有了?
因为之一出来之后发现虽然有效,但使用的条件限制有些多,之二之三是一些细化,比如如何做本底和暗场来压低噪声?
比较麻烦,而且效果没有“之一”显著,我就不写了。
玩dc的很少有苛求画质的,对吧。
***说说系统差***
ccd都不是均匀的,ccd每个象素的感光能力都不一样,谁的ccd没有尘埃?
谁的滤镜能保证完全均匀?
有人问,你别扯这个,这么点区别谁看得见?
告诉你怎么看ccd上面的不均匀:
拍平场!
何谓平场?
平场是ccd系统差最主要的一种,当我们对一个均匀的光源正常曝光之后,得到的就是平场。
注意,这里的正常曝光和我们日常拍照片说的充足曝光不是一回事。
正常曝光是指在ccd线性范围内的曝光,经验来说,是ccd满阱电荷的1/5到1/2这个区间所对应的曝光时间。
日常拍摄时可以用减曝光-3档或-2档就可以拍出。
常用拍摄办法有两种,一种是在天气晴朗的傍晚,把焦距拉到最长,对焦到最近,减2档拍天空
另一种是用一张白纸,靠近约10cm,焦距拉到最长,对焦到无穷远,减2档拍白纸。
拍完了以后拿到电脑上看,哇.......选相机的时候,除了拍全黑图,还应该拍一张这个.....
在拍摄照片后除平场会让那些讨厌的尘埃、亮点消失,科研上都这么用,但民间都用ps。
(科研可不让ps...)
***说说分辨率**
这个不多说,大家都知道,象素稀疏,画质好,细节少;
象素密,画质差,细节多。
不过大家千万别一直盯着ccd的面积和象素,即使是等面积等象素的ccd,pixl的大小也会不同。
一般来说,ccd的单个象素大小有好几种规格,比如4纳米,7纳米,12纳米,15纳米,25纳米等,而且像素点之间还有空隙,不信可以算算看:
)
因此决定画质的好坏应该是单个象素的大小,以及象素间距离。
但这个数据是工业数据,一般不会公布的。
深入说说ccd的参数
现在越来越多的人开始关注到ccd的参数,张口闭口像素高低,pixl密度,尺寸大小,有不少人凭着直观的感受来理解ccd,于是说,高像素的细节好,大尺寸低像素的画质好,等等...诚然,这里理解有一定道理,但不管怎么说都是感性理解,其实ccd并不完全是大多数人想象的那样。
什么参数对于ccd是最重要的?
不好说,我们只能来一个个看。
1ccd像素数:
在ccd以前,光电设备只有那些光电管可以用,但光电管不能成像,只能感受点光源。
直到ccd这种阵列式的设备出现才可用于成像。
ccd像素数一路飙升,并且有理由继续升下去,ccd的像素数反映了工艺水平的提升,千万别说“提高了两百万像素,没有实质的提升!
”这种话了。
2ccd尺寸
ccd尺寸一直比较复杂,分为四个阵营:
第一,1inch为标准的ccd,对角线大概16mm,衍生出1/3,1/2.5,1/1.8等一系列小型芯片。
第二,按照照相画幅的比例出现的,aps,全幅芯片,4*5芯片等
第三,科研用ccd,如15mmX15mm,ccd是方形的
第四,特殊ccd,这个以后讲
3像素大小
ccd的像素点大小很重要,一定程度上反映了ccd接受信号的能力,但不是绝对。
以下是sbig的几款ccd相机的参数:
ST-7XMEStandard765x5109u6.9x4.6mm
ST-7XMEDeluxe765x5109u6.9x4.6mm
ST-8XME1530x10209u13.8x9.2mm
ST-9XE512x51220u10.2x10.2mm
ST-10XME2184x14726.8u14.7x10mm
ST-2000XM1600x12007.4u11.8x8.9mm
ST-2000XCM(color)1600x12007.4u11.8x8.9mm
ST-4000XCM(color)2048x20487.4u15.2x15.2mm
可以看到像素数(第二列)、pixl大小(第三列),ccd尺寸(第四列)的关系
4ccd的量子效率
这个东西熟悉的人不多,我在论坛中提到几次QE,但没人回应...QE是啥,简单就是说,来的光是10,ccd输出的是8,那么QE就是80%。
胶片的QE很低,和ccd没有可比性。
这也是我主张放弃胶片的原因之一。
ccd的QE随着发展而不断提高,决定着ccd的根本画质,为何同样是1/2.5,500w的ccd,现在的画质要优于以前?
其中一个原因就是QE高了。
以下这张图是sbig公司提供的一张QE曲线,我们只看最高点就可以了,这个最高点就是该ccd的QE。
对于像素尺寸小的ccd,提高QE会提升画质,下面这张图是apogee公司的一个ccd的QE曲线,可以看到QE只有70%,但这个ccd的像素大小却是12u,要大于上面提到那个sbig的ccd(9u)。
所以说pixl的大小不能决定画质。
5满阱电荷
满阱电荷,反映了ccd容纳电荷的能力,不是有人说像素的大小好比下雨时接水用盆的大小么?
那么满井电荷就是盆的容积。
满井电荷越多,信噪比越高,画质也越好。
一般满井电荷大概10万。
6AD转换
有了电荷,当然还有转为信号,原来十几万个电子,转成信号也就是从0到65536,这个过程也产生噪声。
7CCD的线性
线性好,ccd就好,现在科研级ccd的线性区域可以达到满井电荷的80%也就是说,在0到65536这个范围中,从1000到50000都可认为是线性的。
试验科学家们高兴啊,正是因为ccd线性好,数据才能很好地定标,可是摄影爱好者不高兴,因为正是在高光时的非线性部分保留了所谓的“高光细节”,想来,说胶片细节丰富,宽容度大,在一定程度上也说明了胶片的线性非常差。
所以试验科学家义无反顾地抛弃了胶片。
8读出速度和噪声
9增益
10暗噪声和本底
后三个不多说了,上一篇文章中有提到。
读出噪声、暗噪声的水平随着工艺的提高在逐渐减少,我用过一个老ccd,本底达到1000,而近年的ccd,本底只有100多...太牛了。
工业相机类型简介
一、工业相机类型简介
CCD是60年代末期由贝尔试验室发明。
开始作为一种新型的PC存储电路,很快CCD具有许多其他潜在的应用,包括信号和图像(硅的光敏性)处理。
CCD是在薄的硅晶片上处理一系列不同的功能,在每一个硅晶片上分布几个相同的IC等可产生功能的元件,被选择的IC从硅晶片上切下包装在载体里用在系统上。
总结下来,CCD主要有以下几种类型:
1、面阵CCD:
允许拍摄者在任何快门速度下一次曝光拍摄移动物体。
2、线阵CCD:
用一排像素扫描过图片,做三次曝光——分别对应于红、绿、蓝三色滤镜,正如名称所表示的,线性传感器是捕捉一维图像。
初期应用于广告界拍摄静态图像,线性阵列,处理高分辨率的图像时,受局限于非移动的连续光照的物体。
3、三线传感器CCD:
在三线传感器中,三排并行的像素分别覆盖RGB滤镜,当捕捉彩色图片时,完整的彩色图片由多排的像素来组合成。
三线CCD传感器多用于高端数码相机,以产生高的分辨率和光谱色阶。
4、交织传输CCD:
这种传感器利用单独的阵列摄取图像和电量转化,允许在拍摄下一图像时在读取当前图像。
交织传输CCD通常用于低端数码相机、摄像机和拍摄动画的广播拍摄机。
5、全幅面CCD:
此种CCD具有更多电量处理能力,更好动态范围,低噪音和传输光学分辨率,全幅面CCD允许即时拍摄全彩图片。
全幅面CCD由并行浮点寄存器、串行浮点寄存器和信号输出放大器组成。
全幅面CCD曝光是由机械快门或闸门控制去保存图像,并行寄存器用于测光和读取测光值。
图像投摄到作投影幕的并行阵列上。
此元件接收图像信息并把它分成离散的由数目决定量化的元素。
这些信息流就会由并行寄存器流向串行寄存器。
此过程反复执行,直到所有的信息传输完毕。
接着,系统进行精确的图像重组。
二、工业相机参数简介
工业相机是机器视觉系统中的一个关键组件,其最本质的功能就是将光信号转变成为有序的电信号。
选择合适的相机也是机器视觉系统设计中的重要环节,相机的不仅是直接决定所采集到的图像分辨率、图像质量等,同时也与整个系统的运行模式直接相关。
主要参数
1.分辨率(Resolution):
相机每次采集图像的像素点数(Pixels),对于数字相机机一般是直接与光电传感器的像元数对应的,对于模拟相机机则是取决于视频制式,PAL制为768*576,NTSC制为640*480。
2.像素深度(PixelDepth):
即每像素数据的位数,一般常用的是8Bit,对于数字相机机一般还会有10Bit、12Bit等。
3.最大帧率(FrameRate)/行频(LineRate):
相机机采集传输图像的速率,对于面阵相机机一般为每秒采集的帧数(Frames/Sec.),对于线阵相机机为每秒采集的行数(Hz)。
4.曝光方式(Exposure)和快门速度(Shutter):
对于线阵相机机都是逐行曝光的方式,可以选择固定行频和外触发同步的采集方式,曝光时间可以与行周期一致,也可以设定一个固定的时间;
面阵相机机有帧曝光、场曝光和滚动行曝光等几种常见方式,数字相机机一般都提供外触发采图的功能。
快门速度一般可到10微秒,高速相机机还可以更快。
5.像元尺寸(PixelSize):
像元大小和像元数(分辨率)共同决定了相机机靶面的大小。
目前数字相机机像元尺寸一般为3μm-10μm,一般像元尺寸越小,制造难度越大,图像质量也越不容易提高。
6.光谱响应特性(SpectralRange):
是指该像元传感器对不同光波的敏感特性,一般响应范围是350nm-1000nm,一些相机机在靶面前加了一个滤镜,滤除红外光线,如果系统需要对红外感光时可去掉该滤镜。
CCD与CMOS的对比
数码相机的发展真可谓一日千里,近来各种新的感光技术纷纷涌现。
很多数码相机生产厂商大肆宣扬自己的产品像素有多少多少高,画质怎么怎么好。
顾客在选购数码相机时也比较困惑,心里没底。
为了让大家对目前市场上常见的三种数码相机感光芯片--CCD、CCD、CMOS有一个大概的了解,我们对这三种感光元件做了个总结,欢迎各位读者和我们进行探讨。
大部分数码相机使用的感光元件是CCD(ChagreCouledDevice),它的中文名字叫电荷耦合器,是一种特殊的半导体材料。
他是由大量独立的光敏元件组成,这些光敏元件通常是按矩阵排列的。
光线透过镜头照射到CCD上,并被转换成电荷,每个元件上的电荷量取决于它所受到的光照强度。
当你按动快门,CCD将各个元件的信息传送到模/数转换器上,模拟电信号经过模/数转换器处理后变成数字信号,数字信号以一定格式压缩后存入缓存内,此时一张数码照片诞生了。
然后图像数据根据不同的需要以数字信号和视频信号的方式输出。
目前主要有两种类型的CCD光敏元件,分别是线性CCD和矩阵性CCD。
线性CCD用于高分辨率的静态照相机,它每次只拍摄图象的一条线,这与平板扫描仪扫描照片的方法相同。
这种CCD精度高,速度慢,无法用来拍摄移动的物体,也无法使用闪光灯。
因此在很多场合不适用,不在今天我们讨论的范围里。
另一种是矩阵式CCD,它的每一个光敏元件代表图象中的一个像素,当快门打开时,整个图象一次同时曝光。
通常矩阵式CCD用来处理色彩的方法有两种。
一种是将彩色滤镜嵌在CCD矩阵中,相近的像素使用不同颜色的滤镜。
典型的有G-R-G-B和C-Y-G-M两种排列方式。
这两种排列方式成像的原理都是一样的。
在记录照片的过程中,相机内部的微处理器从每个像素获得信号,将相邻的四个点合成为一个像素点。
该方法允许瞬间曝光,微处理器能运算地非常快。
这就是大多数数码相机CCD的成像原理。
因为不是同点合成,其中包含着数学计算,因此这种CCD最大的缺陷是所产生的图象总是无法达到如刀刻般的锐利。
另一种处理方法是使用三棱镜,他将从镜头射入的光分成三束,每束光都由不同的内置光栅来过滤出某一种三原色,然后使用三块CCD分别感光。
这些图象再合成出一个高分辨率、色彩精确的图象。
如300万像素的相机就是由三块300万像素的CCD来感光。
也就是可以做到同点合成,因此拍摄的照片清晰度相当高。
该方法的主要困难在于其中包含的数据太多。
在你照下一张照片前,必须将存储在相机的缓冲区内的数据清除并存盘。
因此这类相机对其他部件的要求非常高,其价格自然也非常昂贵。
SUPRECCD是由富士公司独家推出的,它并没有采用常规正方形二极管,而是使用了一种八边形的二极管,像素是以蜂窝状形式排列,并且单位像素的面积要比传统的CCD大。
将像素旋转45度排列的结果是可以缩小对图像拍摄无用的多余空间,光线集中的效率比较高,效率增加之后使感光性、信噪比和动态范围都有所提高。
富士公司宣称,SUPRECCD可以实现相当于ISO800的高感度,信噪比比以往增加30%左右,颜色的再现也大幅改善,电量消耗减少了许多。
富士公司宣称SUPRECCD可与多40%像素的传统CCD的分辨率相媲美,SUPRECCD打破了以往CCD有效像素小于总像素的金科玉律,可以在240万像素的CCD上输出430万像素的画面来。
因此,富士公司和他们的SUPRECCD一推出即在业界引起了广泛的关注。
在传统CCD上为了增加分辨率,大多数数码相机生产厂商对民用级产品采取的办法是不增大CCD尺寸,降低单位像素面积,增加像素密度。
我们知道单位像素的面积越小,其感光性能越低,信噪比越低,动态范围越窄。
因此这种方法不能无限制地增大分辨率。
如果不增加CCD面积而一味地提高分辨率,只会引起图象质量的恶化。
但如果在增加CCD像素的同时想维持现有的图象质量,就必须在至少维持单位像素面积不减小的基础上增大CCD的总面积。
但目前更大尺寸CCD加工制造比较困难,成品率也比较低,因此成本也一直降不下来。
传统CCD中的每个像素由一个二极管、控制信号路径和电量传输路径组成。
CCD采用蜂窝状的八边二极管,原有的控制信号路径被取消了,只需要一个方向的电量传输路径即可,感光二极管就有更多的空间。
SUPRECCD在排列结构上比普通CCD要紧密,此外像素的利用率较高,也就是说在同一尺寸下,CCD的感光二极管对光线的吸收程度也比较高,使感光度、信噪比和动态范围都有所提高。
为什么SUPRECCD的输出像素会比有效像素高呢?
我们知道CCD对绿色不很敏感,因此是以G-B-R-G来合成。
各个合成的像素点实际上有一部分真实像素点是共用,因此图象质量与理想状态有一定差距,这就是为什么一些高端专业级数码相机使用3CCD分别感受RGB三色光的原因。
而SUPRECCD通过改变像素之间的排列关系,做到了R、G、B像素相当,在合成像素时也是以三个为一组。
因此传统CCD是四个合成一个像素点,其实只要三个就行了,浪费了一个,而SUPRECCD就发现了这一点,只用三个就能合成一个像素点。
也就是说,CCD每4个点合成一个像素,每个点计算4次;
CCD每3个点合成一个像素,每个点也是计算4次,因此CCD像素的利用率较传统CCD高,生成的像素就多了。
这是要以事实来说话的,再有道理的理论没有事实基础还是一句空话。
经过我们反复对富士SUPRECCD的几款民用级数码相机试拍后发现,至少对民用级的CCD来说,在其最大分辨率的图象质量并没有人们想象地那么好。
除了色彩还原比较艳丽外,我们可以在蓝天和暗部细节发现有明显的噪音信号,成像清晰度一般。
这就说明240万像素的民用级CCD无法达到其标称的430万输出像素。
那么240万像素的SUPRECCD到底相当于多少像素的CCD呢?
根据上一段的陈述,我认为SUPRECCD对像素的利用率比CCD高33%,因此其输出像素也应该比CCD高33%。
富士FINEPIX4900的总像素为240万像素,根据我的估算,它的输出像素大概相当于320万(240×
133%=320万)。
而4900标称的输出尺寸是430万像素,那么这110万像素是怎么多出来的呢?
我想可能是使用了插值技术。
这就可能是为什么我们在以100%的尺寸看CCD拍摄的照片总不是很清楚的原因了。
如果要客观公正地对待使用CCD的FINEPIX4900、FINEPIX4700等相机就应该将其看作一部320万像素的数码相机。
我们对CMOS的认识是从去年佳能公司发布EOSD30的准专业级数码机身开始的。
当时许多业内人士都大吃一惊,对采用这种廉价的材料来做感光元件感到不可思议,认为CMOS的成像质量无法满足较高要求的专业用户的需要。
那用CMOS做