RAW是camera原始数据的一种格式,相当于传统相机的菲林底片。因此,它的色彩和层次的宽容度是相当广阔的,RAW最大的好处是保存了最原始的CCD数据,把更多的自由放在用户手里。 记录了最原始最真实的信息,不做修饰和更改,为后期制作留下了广阔的可操作性。 而通常非RAW格式即使是最完整的TIF格式,也是经过了数码相机自身处理的,这个处理实际上也是个软件处理的过程,会有很明显的生产商的兴趣取向(或者说对图像、色彩的理解),常说的索尼色彩艳丽、富士绿等就是对某种色彩特别处理的结果。 至于是RAW格式对后期有好处还是其它格式对后期有好处,这不是能够一概而论的事,在ps高手眼里,什么格式可能不会有太大区别,只要原始的图片精度够基本上问题就不大了。所以这个我认为是要看个人能力及喜好的。 RAW文件主要是一种记录了数码相机传感器的原始信息,同时伴随着一些由相机所产生的一些元数据(metadata,诸如IS0的设置、快门速度、光圈值、白平衡等)的文件。不同的相机制造商会采用各种不同的编码方式来记录raw数据,进行不同方式的压缩,个别还甚至对raw数据进行加密。所以,不同的制造商对各自的raw文件采用不同的文件扩展名,如Canon的.CRW、Minolta的.MRW,Nikon的.NEF,Olympus的.ORF 等,不过其原理和所提供的作用功能都是大同小异的。
2、为何要选择RAW格式?
现在ISP功能有的集成在Sensor有的集成在手机中(协处理器或BASEBOND)。
1. ISP功能集成在Sensor里使Sensor成本很高。如果放在协处理器中,Sensor降下来,然协处理器成本增加又很小,可以达到控制手机成本的目的。
2. ISP功能集成在协处理器中对图像进行处理要比在Sensor进行图像处理效果好。
所以以后的发展趋势将会为RAW DATA输出。
3.因为sensor 后面加的那个简单的isp处理能力实在有限,而如果真的要让图片品质提高,
后面的软件处理的任务也非常庞大,对于ram也有比较大的需要,所以放给backend来处理会
比较划算。另外,以后zoom AF 开始流行,运算量也很大的。简单的isp处理不过来的。如果输出格式YUV 又要转回raw data 转来转去 何必呢?还有目前ov 或者micron的 自动曝光 自动白平衡等都是用的最简单的算法。就拿自动曝光来说,目前多点少点无所谓的,但是以后如果接上氙气灯就要求非常精准的。之所以很多做数码相机出身的厂家希望用raw的方式,因为他们可以移植自己的 算法。
4. 我们再来看一下在绝大部分数码相机内部,拍摄JPG的话,其生成过程是怎样的。
从CCD/CMOS得到原始Raw数据后,把之前设置好的各项参数,如sRGB或是Adobe RGB的色彩空间、锐化值、白平衡、对比度、降噪等,更多的是再加上一条强S形的曲线(提亮亮部、压暗暗部)进行变换(为什么要这样?这是因为 CCD/CMOS捕获光子能量是基于一种线性Gamma(Gamma 1.0),可是人眼对光的感觉的却是非线性的,如果不进行这个操作的话,图像是暗得没法看的。并且不清楚原因的人看了后绝对不会去买数码相机,厂商恐怕要倒闭了),得到变换后的图像,再按照你所设定的JPEG质量(诸如SHQ、HQ、M、S)进行压缩,得到JPG文件。
而拍摄RAW格式的话,机身上的所有设置除了ISO、快门、光圈、焦距之外,其它设定一律对RAW文件不起作用,因为上述的色彩空间、锐化值、白平衡、对比度、降噪等的所有操作必须在转换Raw时才指定,一切都由你自己控制。
打个最简单的比方,拍JPG就像是自己拍照,然后拿给相机制造商的打片手来帮你出片;而拍RAW格式则是自己拍照、自己冲洗底片、自己出片。(看看为什么 Olympus Studio中把英文版的“Raw Development”翻译成中文版的“Raw显像”就知道了)
也许有很多人对后期的处理(或是对PS)嗤之以鼻,觉得前期拍摄时相机后面的脑袋是最重要的。没错,对于这一点,本人也十分赞同。可是,既然有前期那种认真对待摄影的精神,为什么就不能把这种态度用后期制作上去呢?以前我们一直埋怨拍的片子被冲印店的打片手糟蹋,于是转向拍翻转,算是让自己有了更大部分的操控权。现在到了数码,从头到尾都可以让自己完全控制,又为何要将其拒之千里之外呢?况且,更是由于数码的原因,假设后期出片(这里指的不是PS,而是相当于底片显影的过程)不认真处理的话,前期付出的努力再多也可能没法弄出真正质量高的片子。
3、关于传感器
主流的数码相机传感器,主要有CCD、CMOS和Foveon X3。对于Foveon X3的工作方式,可自行到Foveon的主页上去查阅,这里主要只简单地讲一下CCD/ CMOS的工作方式,对我们使用raw就已经足够了。
数码相机传感器是由横竖两个方向密集排列的感光元件(CCD或CMOS)组成的一个二维矩阵,常见的有如下图示的Bayer模式的排列方式,每个CCD就对应一个像素。其中R感应红光、G感应绿光、B感应蓝光,而在Bayer模式中G是R和B的两倍(因为我们的眼睛对绿色更敏感)
图1
在矩阵内的每个CCD或CMOS只是用来感受光子的能量,因应进入光线的强度而产生对应比例的电荷,然后将这些电荷信息汇集并经过放大,储存起来。而应当知道的是,raw纪录的只是每个像素位置的电荷值,它是没有记录任何的颜色信息的。所以CCD是“色盲”的,也就是说:
RAW文件只是灰度文件而已!
我们可以这样去想象一下充满电荷的CCD/CMOS,就像下图一样:
因此任何一个RAW Converter(如Photoshop的Camera RAW Plugin,Bibble、Phrase One C1 Pro、RawShooter essentials 2005,各厂商自带的Raw转换软件等)的作用就是将这些像素所记录的亮度信息转换成为肉眼所能看见的颜色信息,至于不同的制造商是如何排列传感器矩阵上的RGB或CMY的问题,我们不需要去关心,只要所使用的软件能够支持你的数码相机,就说明他已经了解这个问题,知道该怎么去诠释和处理每个像素上的亮度值。
由于现在的CCD/CMOS与Foveon X3的原理不一样,所以对于CCD/CMOS而言,要获得一个像素上的颜色值,必须从邻近的像素中获取信息来进行一种叫做“反马赛克”的运算(Foveon X3可不需要这样),从而得到该位置的颜色值。当然,除此之外,RAW Converter所控制的事情还有下面的这些,而这些也是我们在操作Raw的时候一定得知道的原理。 ●白平衡—— 我们的眼睛能够自动的适应不同的环境光线,把最亮的地方解释成白色,其他的颜色依序地去解释。可是传感器却没有人眼的这种功能,它必须知道到底多亮才是白色,因此我们需要设定白平衡来告诉它。在使用Raw拍摄的时候,传感器纪录的只是每个像素的亮度值,白平衡是作为元数据(metadata)记录的,用以在后期RAW Converter转换的时候用的。也就相当于一个起点,也可以理解成在转换函数中的一个必不可少的参数,少了它,其它的颜色就没办法解释。之前小革命好像有篇文章关于拍摄时白平衡不管设置与否,都可以在后期还原的问题。我的看法是在理论上是绝对肯定的,为什么说是在“理论上”?从上面的论述就可以知道,白平衡的设置只是在后期转换时才参与。所以即使拍摄时没有设置正确的白平衡,只要在后期转换时能够输入当时场景的正确的色温值的话,绝对是可以还原出原来的色彩的。可问题就是,有多少人能够在转换时准确的记起当时的色温值。除非在图片中有一处纯白色的参照物,用白平衡吸管吸取该处的颜色就可以正确设置了。这里其实也告诉了我们一个值得去尝试的技巧:拍摄照片时,在构图里放置一个白色物(如白纸,但注意要在不影响构图的地方,也不能太大面积影响曝光读数,并且要让其充分受到现场光线的照射),把它也拍进去。后期转换时候用白平衡吸管吸取这个白色物就可以了,然后把白色物这部分裁掉。
可是,对于拍JPG的话,可不是这么一回事。因为拍摄后,就由相机在内部处理转换成JPG,也就是说它必须要用到色温值进行运算。如果这之前没有设定好白平衡的话,那肯定是要偏色的。 ●色彩演绎—— 假如你问一千个人哪种颜色是红色,可能你会得到一千种不同的红色。同样的道理,对于CCD/CMOS而言,它不知道究竟什么才算是红色、蓝色、绿色。因此,我们在转换RAW文件时,必须指定红色、蓝色、绿色的定义,也即色彩空间(Color space),不同的数码相机本身就内置了不同的Color space,如sRGB,AdobeRGB等。对于这点,我的理解是,拍摄RAW格式的话,相机里面设置sRGB或者是Adobe RGB都是废的,因为是在转换时才将RGB的定义(即目标Color Space,转换后的文件的Color Space)告诉RAW Converter,因此在转换RAW文件时都会有一个Color space的选项,是你必须指定这个目标Color Space的。所以,如果我们是拍摄RAW格式的话,不要再问到底要设置成sRGB或者是AdobeRGB了,喜欢的话,甚至可以转成ProPhoto RGB也可以!拍JPG的话恐怕对图像质量的追求也不是很高,所以就用sRGB算了。 ●Gamma 校正—— 首先你应该先知道什么是Gamma,相关的资料可以自己上网搜索一下。数码RAW格式的拍摄是采用线性的gamma (即gamma 1.0),可是人的眼睛对光的感应曲线却是一“非线性”的曲线。所以RAW Converter会在转换时都会应用一条Gamma曲线到Raw数据上(简单的理解,就是相当于对原始数据进行一个f(x)的变换,并且注意,f(x) 并不是一次的线性函数),来产生更加接近人眼感应的色调。 ●降噪、抗锯齿和锐化—— 当图像细节刚好落在CCD矩阵中的单位像素上,或者假设落在了一个R-感光像素和B-感光像素上时,问题就出现了。该细节处的真正的颜色光靠“反马赛克” 运算是很难准确地还原出来,也就是说细节会有所丢失。因此,大部分的RAW Converter都会在转换的时候进行一系列诸如边缘检测、抗锯齿、降噪以及锐化等操作。而由于不同软件所采用的算法未必相同,因此使用不同的RAW Converter出来的片的细节也不一样的原因就在于此。 4 摄像头的数据输出格式一般分为CCIR601、CCIR656、RAW RGB等格式,此处说的RGB格式应该就是CCIR601或CCIR656格式。而RAW RGB格式与一般的RGB格式是有区别的。 我们知道,Sensor的感光原理是通过一个一个的感光点对光进行采样和量化,但,在Sensor中,每一个感光点只能感光RGB中的一种颜色。所以,通常所说的30万像素或130万像素等,指的是有30万或130万个感光点。每一个感光点只能感光一种颜色。 但是,要还原一个真正图像,需要每一个点都有RGB三种颜色,所以,对于CCIR601或656的格式,在Sensor模组的内部会有一个ISP模块,会将Sensor采集到的数据进行插值和特效处理,例如:如果一个感光点感应的颜色是R,那么,ISP模块就会根据这个感光点周围的G、B感光点的数值来计算出此点的G、B值,那么,这一点的RGB值就被还原了,然后在编码成601或656的格式传送给Host。 而RAW RGB格式的Sensor则是将没个感光点感应到的RGB数值直接传送给Host,由Host来进行插值和特效处理。 5 对于SENSOR来说,Bayer RGB和RGB Raw两者的图象结构都是BG/GR的(Bayer pattern说的是COLOR FILTER的结构,分为两种:STD Bayer pattern 与Pair pattern,其中STD Bayer pattern的结构是BG/GR的,而Pair Pattern顾名思义是指BGBG/GRGR的结构,即以四行为一个单位,前两行是BG的结构,后两行是GR的结构,这种结构是美光专门为此申请了专利的,主要是在输出TV模式(NTSC/PAL制)时用到),
由于后端应用时,对RAW DATA图像的 解码是按默认的结构来 解码的 ,如BG/GR,因此 Bayer RGB和RGB Raw两者的图象结构必须都是BG/GR的,而如果输出图像结构是BGBG/GRGR,则不可以直接显示和解码 的。
Bayer RGB与RGB Raw的主要区别在于两者输出前经过的处理不同,Bayer RGB从ADC输出,只经过了LENS SHADING,GAMMA等模块处理而后就直接输出,而RGB Raw则经过了整个ISP模块的处理,最终是经过YUV422的数据转化而来的 6CCIR 601 数字视频CCIR 601编码标准 一、采样频率:为了保证信号的同步,采样频率必须是电视信号行频的倍数。CCIR为NTSC、PAL和SECAM制式制定的共同的电视图像采样标准:
fs=13.5MHz
这个采样频率正好是PAL、SECAM制行频的864倍,NTSC制行频的858倍,可以保证采样时采样时钟与行同步信号同步。对于4:2:2的采样格式,亮度信号用fs频率采样,两个色差信号分别用
fs/2=6.75MHz的频率采样。由此可推出色度分量的最小采样率是3.375MHz。 二、分辨率:根据采样频率,可算出对于PAL和SECAM制式,每一扫描行采样864个样本点;对于NTSC制则是858个样本点。由于电视信号中每一行都包括一定的同步信号和回扫信号,故有效的图像信号样本点并没有那么多,CCIR 601规定对所有的制式,其每一行的有效样本点数为720点。由于不同的制式其每帧的有效行数不同(PAL和SECAM制为576行,NTSC制为484行),CCIR定义720×484为高清晰度电视HDTV(High Definition TV)的基本标准。实际计算机显示数字视频时,通常采用下表的参数: 电视制式 | 分辨率 | 帧 率 | NTSC | 640×480 | 30 | PAL、SECAM | 768×576 | 25 |
三、数据量:CCIR 601规定,每个样本点都按8位数字化,也即有256个等级。但实际上亮度信号占220级,色度信号占225级,其它位作同步、编码等控制用。如果按fs的采样率、4:2:2的格式采样,则数字视频的数据量为:
13.5(MHz)×8(bit)+2×6.75(MHz)×8(bit) = 27Mbyte / s 同样可以算出,如果按4:4:4的方式采样,数字视频的数据量为每秒40兆字节!按每秒27兆字节的数据率计算,一段10秒钟的数字视频要占用270兆字节的存储空间。按此数据率,一张680兆字节容量的光盘只能记录约25秒的数字视频数据信息,而且即使目前高倍速的光驱,其数据传输率也远远达不到每秒27兆字节的传输要求,视频数据将无法实时回放。这种未压缩的数字视频数据量对于目前的计算机和网络来说无论是存储或传输都是不现实的,因此,在多媒体中应用数字视频的关键问题是数字视频的压缩技术。 8 CCIR601和CCIR656标准的区别
关于这两种信号的区别:
ITU-R BT 601:16位数据传输;21芯;Y、U、V信号同时传输。
ITU-R BT 656:9芯,不需要同步信号;8位数据传输;串行视频传输;传输速率是601的2倍;先传Y,后传UV。
CCIR601要通过行、场同步两根信号线来传递行、场同步信息;
CCIR656不需要这两根信号线,它只通过8位数据线实现“软”同步。
CCIR656=CCIR601+HSYNC+VSYNC
656输出的是串行数据,行场同步信号嵌入在数据流中;
601是传输的是并行数据,行场同步有单独输出;
656只是数据传输接口而已,可以说是作为601的一个传输方式。
简单的说ITU-R BT.601是“演播室数字电视编码参数” 标准,而ITU-R BT.656则是ITU-R BT.601附件A中的数字接口标准,用于主要数字视频设备(包括芯片)之间采用27Mhz/s并口或243Mb/s串行接口的数字传输接口标准。
CCIR601号建议的制定,是向着数字电视广播系统参数统一化、标准化迈出的第一步。在该建议中,规定了625和525行系统电视中心演播室数字编码的基本参数值。
601号建议单独规定了电视演播室的编码标准。它对彩色电视信号的编码方式、取样频率、取样结构都作了明确的规定。
它规定彩色电视信号采用分量编码。所谓分量编码就是彩色全电视信号在转换成数字形式之前,先被分离成亮度信号和色差信号,然后对它们分别进行编码。分量信号(Y、B -- Y、R -- Y)被分别编码后,再合成数字信号。 它规定了取样频率与取样结构。
例如:在4:2:2等级的编码中,规定亮度信号和色差信号的取样频率分别为13.5MHZ和6.75MHZ,取样结构为正交结构,即按行、场、帧重复,每行中的R-Y和B-Y取样与奇次(1,3,5……)Y的取样同位置,即取样结构是固定的,取样点在电视屏幕上的相对位置不变。 它规定了编码方式。对亮度信号和两个色差信号进行线性PCM编码,每个取样点取8比特量化。同时,规定在数字编码时,不使用A/D转换的整个动态范围,只给亮度信号分配220个量化级,黑电平对应于量化级16,白电平对应于量化级235。为每个色差信号分配224个量化级,色差信号的零电平对应于量化级128。
综上所述,我们知道,分量信号的编码数据流是很高的。以4:2:2编码标准为例,其比特流为:13.5×8+6.75×8×2=216Mb/S。若采用4:4:4编码方式,即对复合信号直接编码,其抽样频率取为13.3×8=106.4 Mb/S。
PS:我们可以认为CCIR601即“ITU-R BT.601-5”,“ITU-R BT.656-4"即CCIR601。 656只有8位DATA+CLK,601有8位DATA+CLK+HSYNC+VSYNC,还有16位DATA+CLK+HSYNC+VSYNC。
656把HSYNC、VSYNC插到数据中,601的数据线只有数据
|