视频常用名词解释.docx

上传人:b****8 文档编号:8996726 上传时间:2023-05-16 格式:DOCX 页数:11 大小:24.60KB
下载 相关 举报
视频常用名词解释.docx_第1页
第1页 / 共11页
视频常用名词解释.docx_第2页
第2页 / 共11页
视频常用名词解释.docx_第3页
第3页 / 共11页
视频常用名词解释.docx_第4页
第4页 / 共11页
视频常用名词解释.docx_第5页
第5页 / 共11页
视频常用名词解释.docx_第6页
第6页 / 共11页
视频常用名词解释.docx_第7页
第7页 / 共11页
视频常用名词解释.docx_第8页
第8页 / 共11页
视频常用名词解释.docx_第9页
第9页 / 共11页
视频常用名词解释.docx_第10页
第10页 / 共11页
视频常用名词解释.docx_第11页
第11页 / 共11页
亲,该文档总共11页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

视频常用名词解释.docx

《视频常用名词解释.docx》由会员分享,可在线阅读,更多相关《视频常用名词解释.docx(11页珍藏版)》请在冰点文库上搜索。

视频常用名词解释.docx

视频常用名词解释

DigitalVideo数字视频

  数字视频就是先用摄像机之类的视频捕捉设备,将外界影像的颜色和亮度信息转变为电信号,再记录到储存介质(如录像带)。

播放时,视频信号被转变为帧信息,并以每秒约30幅的速度投影到显示器上,使人类的眼睛认为它是连续不间断地运动着的。

电影播放的帧率大约是每秒24帧。

如果用示波器(一种测试工具)来观看,未投影的模拟电信号看起来就像脑电波的扫描图像,由一些连续锯齿状的山峰和山谷组成。

为了存储视觉信息,模拟视频信号的山峰和山谷必须通过数字/模拟(D/A)转换器来转变为数字的“0”或“1”。

这个转变过程就是我们所说的视频捕捉(或采集过程)。

如果要在电视机上观看数字视频,则需要一个从数字到模拟的转换器将二进制信息解码成模拟信号,才能进行播放。

·Codec编码解码器

  编码解码器主要作用是对视频信号进行压缩和解压缩。

计算机工业定义通过24位测量系统的真彩色,这就定义了近百万种颜色,接近人类视觉的极限。

现在,最基本的VGA显示器就有640*480像素。

这意味着如果视频需要以每秒30帧的速度播放,则每秒要传输高达27MB的信息,1GB容量的硬盘仅能存储约37秒的视频信息。

因而必须对信息进行压缩处理。

通过抛弃一些数字信息或容易被我们的眼睛和大脑忽略的图像信息的方法,使视频的信息量减小。

这个对视频压缩解压的软件或硬件就是编码解码器。

编码解码器的压缩率从一般的2:

1-100:

1不等,使处理大量的视频数据成为可能。

·动静态图像压缩

  静态图像压缩技术主要是对空间信息进行压缩,而对动态图像来说,除对空间信息进行压缩外,还要对时间信息进行压缩。

目前已形成三种压缩标准:

  1.JPEG(JointPhotographicExpertsGroup)标准:

  用于连续色凋、多级灰度、彩色/单色静态图像压缩。

具有较高压缩比的图形文件(一张1000KB的BMP文件压缩成JPEG格式后可能只有20-30KB),在压缩过程中的失真程度很小。

目前使用范围广泛(特别是Internet网页中)。

这种有损压缩在牺牲较少细节的情况下用典型的4:

1到10:

1的压缩比来存档静态图像。

动态JPEG(M-JPEG)可顺序地对视频的每一帧迸行压缩,就像每一帧都是独立的图像一样。

动态JPEG能产生高质量、全屏、全运动的视频,但是,它需要依赖附加的硬件。

  2.H.261标准:

主要适用于视频电话和视频电视会议。

  3.MPEG(MotionPictureExpertsGroup,全球影象/声音/系统压缩标准)标准:

包括MPEG视频、MPEG音频和MPEG系统(视音频同步)三个部分。

MPEG压缩标准是针对运动图像而设计的、基本方法是——在单位时间内采集并保存第一帧信息,然后就只存储其余帧相对第一帧发生变化的部分,以达到压缩的目的。

MPEG压缩标准可实现帧之间的压缩,其平均压缩比可达50:

1,压缩率比较高,且又有统一的格式,兼容性好。

  在多媒体数据压缩标准中,较多采用MPEG系列标准,包括MPEG-1、2、4等。

  MPEG-1用于传输1.5Mbps数据传输率的数字存储媒体运动图像及其伴音的编码,经过MPEG-1标准压缩后,视频数据压缩率为1/100-1/200,音频压缩率为1/6.5。

MPEG-1提供每秒30帧352*240分辨率的图像,当使用合适的压缩技术时,具有接近家用视频制式(VHS)录像带的质量。

MPEG-1允许超过70分钟的高质量的视频和音频存储在一张CD-ROM盘上。

VCD采用的就是MPEG-1的标准,该标准是一个面向家庭电视质量级的视频、音频压缩标准。

  MPEG-2主要针对高清晰度电视(HDTV)的需要,传输速率为10Mbps,与MPEG-1兼容,适用于1.5-60Mbps甚至更高的编码范围。

MPEG-2有每秒30帧704*480的分辨率,是MPEG-1播放速度的四倍。

它适用于高要求的广播和娱乐应用程序,如:

DSS卫星广播和DVD,MPEG-2是家用视频制式(VHS)录像带分辨率的两倍。

  MPEG-4标准是超低码率运动图像和语言的压缩标准用于传输速率低于64Mbps的实时图像传输,它不仅可覆盖低频带,也向高频带发展。

较之前两个标准而言,MPEG一4为多媒体数据压缩提供了—个更为广阔的平台。

它更多定义的是一种格式、一种架构,而不是具体的算法。

它可以将各种各样的多媒体技术充分用进来,包括压缩本身的一些工具、算法,也包括图像合成、语音合成等技术。

·DAC

  即数/模转装换器,一种将数字信号转换成模拟信号的装置。

DAC的位数越高,信号失真就越小。

图像也更清晰稳定。

·AVI

  AVI是将语音和影像同步组合在一起的文件格式。

它对视频文件采用了一种有损压缩方式,但压缩比较高,因此尽管面面质量不是太好,但其应用范围仍然非常广泛。

AVI支持256色和RLE压缩。

AVI信息主要应用在多媒体光盘上,用来保存电视、电影等各种影像信息。

·RGB

  对一种颜色进行编码的方法统称为“颜色空间”或“色域”。

用最简单的话说,世界上任何一种颜色的“颜色空间”都可定义成一个固定的数字或变量。

RGB(红、绿、蓝)只是众多颜色空间的一种。

采用这种编码方法,每种颜色都可用三个变量来表示—红色绿色以及蓝色的强度。

记录及显示彩色图像时,RGB是最常见的一种方案。

但是,它缺乏与早期黑白显示系统的良好兼容性。

因此,件多电子电器厂商普遍采用的做法是,将RGB转换成YUV颜色空同,以维持兼容,再根据需要换回RGB格式,以便在电脑显示器上显示彩色图形。

·YUV

  YUV(亦称YCrCb)是被欧洲电视系统所采用的一种颜色编码方法(属于PAL)。

YUV主要用于优化彩色视频信号的传输,使其向后兼容老式黑白电视。

与RGB视频信号传输相比,它最大的优点在于只需占用极少的带宽(RGB要求三个独立的视频信号同时传输)。

其中“Y”表示明亮度(Luminance或Luma),也就是灰阶值;而“U”和“V”表示的则是色度(Chrominance或Chroma),作用是描述影像色彩及饱和度,用于指定像素的颜色。

“亮度”是通过RGB输入信号来创建的,方法是将RGB信号的特定部分叠加到一起。

“色度”则定义了颜色的两个方面—色调与饱和度,分别用Cr和CB来表示。

其中,Cr反映了GB输入信号红色部分与RGB信号亮度值之间的差异。

而CB反映的是RGB输入信号蓝色部分与RGB信号亮度值之同的差异。

·复合视频和S-Video

  NTSC和PAL彩色视频信号是这样构成的首先有一个基本的黑白视频信号,然后在每个水平同步脉冲之后,加入一个颜色脉冲和一个亮度信号。

因为彩色信号是由多种数据“叠加”起来的,故称之为“复合视频”。

S-Video则是一种信号质量更高的视频接口,它取消了信号叠加的方法,可有效避免一些无谓的质量损失。

它的功能是将RGB三原色和亮度进行分离处理。

·NTSC、PAL和SECAM

  基带视频是一种简单的模拟信号,由视频模拟数据和视频同步数据构成,用于接收端正确地显示图像。

信号的细节取决于应用的视频标准或者“制式”NTSC(美国全国电视标准委员会,NationalTelevisionStandardsCommittee)、PAL(逐行倒相,PhaseAlternateLine)以及SECAM(顺序传送与存储彩色电视系统,法国采用的一种电视制式,SEquentialCouleurAvecMemoire)。

  在PC领域,由于使用的制式不同,存在不兼容的情况。

就拿分辨率来说,有的制式每帧有625线(50Hz),有的则每帧只有525线(60Hz)。

后者是北美和日本采用的标准,统称为NTSC。

通常,一个视频信号是由一个视频源生成的,比如摄像机、VCR或者电视调谐器等。

为传输图像,视频源首先要生成—个垂直同步信号(VSYNC)。

这个信号会重设接收端设备(PC显示器),保征新图像从屏幕的顶部开始显示。

发出VSYNC信号之后,视频源接着扫描图像的第一行。

完成后,视频源又生成一个水平同步信号,重设接收端,以便从屏幕左侧开始显示下一行。

并针对图像的每一行,都要发出一条扫描线,以及一个水平同步脉冲信号。

  另外,NTSC标准还规定视频源每秒钟需要发送30幅完整的图像(帧)。

假如不作其它处理,闪烁现象会非常严重。

为解决这个问题,每帧又被均分为两部分,每部分262.5行。

一部分全是奇数行,另一部分则全是偶数行。

显示的时候,先扫描奇数行,再扫描偶数行,就可以有效地改善图像显示的稳定性,减少闪烁。

目前世界上彩色电视主要有三种制式,即NTSC、PAL和SECAM制式,三种制式目前尚无法统一。

我国采用的是PAL-D制式。

·Ultrascale

  Ultra6cale是Rockwell(洛克威尔)采用的一种扫描转换技术。

可对垂直和水平方向的显示进行任意缩放。

在电视这样的隔行扫描设备上显示逐行视频时,整个过程本身就己非常麻烦。

而采用UltraScale技木,甚至还能像在电脑显示器上那祥,迸行类似的纵横方向自由伸缩。

数字化影视基础

以下是对影视数字化以及桌面电影制作的一些基本概念的概括和介绍。

  数字化(Digitizing)

  模拟视频信号(以模拟摄象机拍摄的信号或者由胶片转换成的模拟视频信号)必须被转换成数字信息,也就是被数字化,才能够在电脑中对其进行操作。

  视频捕捉卡(TheVideoCard)

  视频捕捉卡需要占用电脑的一个扩充槽,视频信号通过它由放像设备被捕捉入电脑。

一般来说,视频捕捉卡都附带一个扩展坞,上面提供用以连接放像设备的各种插口。

  数字化的视频信号所占硬盘空间都非常大,所以很多捕捉卡在采集视频信号的同时对信号进行压缩,以避免在CPU、数据桥(连接捕捉卡和电脑)以及写入硬盘时可能出现的瓶颈。

所谓的瓶颈,就是指当以上之中任何一个环节来不及处理输入的信号,最直接的后果一般就是部分视频内容(帧)的丢失。

  当视频流被捕捉入电脑时,它将会被存储为一个视频文件。

你可以通过你的视频捕捉软件指定一个帧速度,比如15帧,视频捕捉软件就会通过捕捉卡以每秒种15幅静止画面的速度将输入的视频信号保存到缓存中,然后将视频文件写入硬盘。

  最容易出现瓶颈的地方是硬盘。

所以,安装一个持续吞吐量尽可能高的硬盘非常重要,要知道,硬盘要连续处理的数据甚至比你想象的还要大。

那些制作广播级影视作品的人一般都使用磁盘阵列--通过几个硬盘的协作获得最大的吞吐量。

  桌面编辑(OntheDesktop)

  一旦视频信号被捕捉成为视频文件,你就可以使用许多非线性编辑系统(non-lineareditingsystems)比如Premiere对它们进行剪辑。

对于面向电影或者广播级电视的制作,最常被使用的系统有AVID或者Media100,这些顶级产品都是软件和硬件结合的专业系统。

在非线性编辑系统上工作的优势在于,视频片段可以被任意的拖放,被随意的剪切、微调。

它们可以在任意多的通道中被无数次的使用而不用担心信号的衰减。

最后的成品可以通过视频捕捉卡输出到普通视频录制设备上。

导演或剪辑师也可以随心所欲的在一台家用电脑上进行剪辑并生成脱机剪辑表(EDL-EditDecisionList)。

脱机剪辑表可以在专业剪辑系统中控制自动完成剪辑工作这样你就可以用很少的费用完成高质量的最终版本。

  一旦被数字化以后,视频文件也可以用AfterEffects、DeBabelizer或者Photoshop这些强大后期处理软件进行处理。

你可以对图象进行变形、修正错误、改变图象颜色、增加特效、加入文字等等。

同样,也可以使用诸如SoundEdit16和ProTools这样的工具通过简单的拖放处理声音。

  桌面编辑的简便使得一个人就可以完成原来需要一整个制作队伍才能完成的工作。

同时也意味着不用去上那些专业的电影学院,不用那些昂贵的广播级设备及专业制作棚也可以完成广播级质量的作品。

这种可能性孕育了这个时代的数字导演们。

因为数字化视频仍然在发展和完善中,它仍然存在很多让人头痛的地方。

但是正因为如此,对于那些在自己的电脑上进行电影创作,同时又积极投身于电影媒体的重新定义的人们来说,没有条条框框的限制也成为他们的优势。

这可以说是自从电影诞生以来最伟大的一次革命,而你,想在这之中扮演什么角色呢?

  如果需要了解本文中用到的一些专业词汇,请参考数字视频小词典。

  数字视频小词典  

  存取时间(AccessTime)

  磁盘指针(读写设备)移动到硬盘上正确位置所花的时间,也指硬盘旋转到正确位置所花的时间。

这是用来衡量硬盘性能的重要标准。

 Alpha通道(AlphaChannel)

  在电脑图形中,每个象素都包含三个色彩信息通道红、绿、蓝,在24位的图形中,每个通道有包含了8位色彩深度。

如果图形卡具有32位总线,附加的8位信号就被用来保存不可见的透明度信号以方便处理用,这就是Alpha通道。

白色的alpha象素用以定义不透明的彩色象素,而黑色的alpha象素用以定义透明象素,黑白之间的灰阶用来定义半透明象素。

 非自然信号(Artifact)

  简单的说,就是指在画面中随机出现的游离象素。

可能产生非自然信号的原因很多,包括过高的压缩比。

 屏幕长宽比(AspectRatio)

  在电影和电视中,屏幕长宽比指的是屏幕的宽度和屏幕的高度的比例。

大多数桌面电脑、普通电视系统的长宽比都是4:

3。

 AVI

  Audio/VideoInterleave(音频/视频隔行扫描)的缩写。

AVI是Windows下的指定视频文件格式,也是PC系统中使用最为广泛的视频文件格式,同QUICKTIME和MPEG并称为电脑的三大主流视频技术。

简单说,AVI以隔行扫描的视频和音频不断交错的方式工作。

 分量视频信号(ComponentVideo)

  将画面按三个颜色通道(RG分成红、绿和蓝(附加亮度信号)三个单独信号通道。

产生的画面质量较高,一般在广播级视频设备中被采用。

 合成视频信号(CompositeVideo)

  将彩色信号、亮度信号和同步信号混合在一个信号通道内,在家用视频设备中被大量采用。

 压缩(Compression)

  压缩是制作数字电影的一个重要感念。

视频和音频在数字化过程中都可以通过电脑进行压缩。

当声音和画面被压缩后,他们可以更高效的得到CPU的处理并减少视频及音频文件占用的硬盘空间。

压缩也是视频在网络上传播的关键,必须将文件大小压缩至带宽允许的程度才可以被用户下载。

 压缩比(CompressionRatio)

  图象文件原始大小和经压缩后图象文件大小的比例。

信号编解码器(Codec)压缩/解压缩的运算法则。

也就是压缩与解压缩所使用的压缩标准(例如JPEG或者Cinepak)。

一般的编码包括将模拟视频信号转换到压缩视频文件(比如MPEG)或将模拟声音信号转变为数字化声音(比如RealAudio)。

 CPU

 中央处理器(CentralProcessingUnit)。

简单的说就是电脑的“大脑”,是最重要的微处理芯片,和主板及系统内存协同工作。

 数字化(Digitize)

  将模拟信号转变为数字信号的过程。

 信号丢失(Dropout)

  由于磁带金属磁粉掉落引起的问题,一般是因为存放时间过长或误操作引起的。

信号丢失会造成画面噪音、拖影以及不同步等问

题。

 脱机编辑表(EDL)

  EditDecisionList(剪辑参照表)的缩写。

由电脑生成的记录所有进点和出点以及效果的列表。

脱机编辑表可以在廉价的非线

性工作站甚至在家用电脑上用Premiere这样的软件创建,然后在那些高级的线性剪辑系统上控制最终的剪辑。

 磁盘阵列(FastandWideDriveArray)

  一种外接(也有内接)的存储设备,由几个硬盘连接起来同时工作,由此提高吞吐量及存取时间。

这是在电脑上剪辑全分辨率全帧速的视频的最可靠的方法(当然不是最便宜的)。

 帧速(FPS)

  一秒种内的帧数量。

NTSC制为30FPS,PAL制为25FPS。

 关键帧(KeyFrame)

  在一些压缩方案中,有些帧被指定为关键帧。

既然两帧之间的画面的大部分内容往往没有太大区别,就可以将后续帧和关键帧进

行比较,而保存真正发生变化的部分。

这样可以节省空间。

 纵向时间码(LTC)

  LongitudinalTimeCode(纵向时间码)的缩写。

SMPTE时间码的一种,也被称为相对时间码,记录在磁带的磁道上。

和垂直间隔

时间码(VITC)相对。

 亮度(Luminance)

  指视频画面亮度的水平。

 MPEG

  MovingPicturesExpertsGroup(运动画面专家小组)的缩写。

MPEG是一种运动画面及声音的压缩标准。

MPEG-1标准的视频/音频流的数据流量是150千比特每秒,和单倍速CD-ROM的传输率相同。

它通过设定关键帧并只改变临近帧画面中的不同区域工作。

 网络用户总线(NuBus)

  网络用户总线是Macintosh电脑内部扩展槽的标准接口(专指视频及音频扩展卡)。

新的Mac电脑均开始使用Intel的超级PCI标准,所以你只能在老的Mac机种上看到网络用户总线的插槽。

如果你计划购买视频或音频扩展卡,并有一台老式的Mac电脑,请先确认你的电脑拥有什么样的插槽。

网络用户总线是由德州仪器公司(TexasInstruments)设计的。

 NTSC

  国家电视标准委员会(NationalTelevisionStandardsCommitee)的缩写。

是中北美洲及日本通用的电视制式,与欧洲的PAL制式和法国的SECAM只是相对。

他的垂直分辨率有525线,帧速为30(29.97)FPS。

 PAL

  逐行倒相(PhaseAlterationLine)的缩写,是中国及欧洲大多数国家通用的电视制式。

具有更高的垂直分辨率(625线),但是帧速相对慢于NTSC(25FPS)。

 PCI

  外接设备连接总线(PeripheralComponentInterconnect)的缩写,PCI是奔腾电脑系统所使用的相当优秀的内置扩展接口(现在Apple公司的PowerPC也使用了这一总线)。

 QuickTime

  由Apple电脑公司开发,QuickTime已渐渐变成Mac电脑和PC电脑上通用的标准视频技术。

QuickTime回放的文件都由.mov的后缀表示。

 RGB

  参见分量视频信号。

 SCSI

  小型计算机系统接口(SmallComputerSystemInterface)的缩写。

SCSI允许你通过该接口以链的方式在电脑上连接多个扩展设备。

 SECAM

  顺序传送彩色与记忆制(SystemeElectroniquePourCouleurAvecMemoire)的缩写。

是法国、俄罗斯和部分东欧及非洲国家采用的电视制式。

它和PAL制式有着相同的垂直分辨率和帧速,但是SECAM置是的色彩是调频信号调制的。

 SMPTE时间码(SMPTETimeCode)

  电影与电视工程师协会(SocietyofMotionPictureandTelevisionEngineers)的缩写,也称为标准时间码。

这一标准赋予视频的每一帧一个数值,使其在剪辑时允许作为进点和出点使用。

吞吐量(Throughput)

  标称硬盘持续传送数据的速度。

时间码(TimeCode)

  参见SMPTE时间码。

矢量显示器(Vectorscope)

  也称示波器,以图形方式显示视频画面的色调及饱和度水平的仪器,可以用来调整色彩匹配。

视频捕捉卡(VideoBoard)

  内部扩展卡,用来数字化视频及音频信号。

视窗视频格式(VideoforWindows)

 视窗视频格式(VFW)是Windows95操作系统内附的视频技术。

其文件都由.avi后缀表示。

虚拟内存(VirtualMemory)

  一种内存管理系统,用来作为内存和硬盘之间的临时交换区域。

垂直间隔时间码(VITC)

  垂直间隔时间码(VerticalIntervalTimeCode)的缩写,SMPTE时间码的一种。

记录于每两帧之间,因此当设备停留在某一帧的时候就可以被读出。

WAV

  WAV时Windows操作系统的标准音频文件格式。

WAV文件由后缀.wav表示

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 党团工作 > 入党转正申请

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2