Android GDI基本框架.docx
《Android GDI基本框架.docx》由会员分享,可在线阅读,更多相关《Android GDI基本框架.docx(29页珍藏版)》请在冰点文库上搜索。
AndroidGDI基本框架
AndroidGDI基本框架
在Android中所涉及的概念和代码最多,最繁杂的就是GDI相关的代码了。
但是本质从抽象上来讲,这么多的代码和框架就干了一件事情:
对显示缓冲区的操作和管理。
GDI主要管理图形图像的输出,从整体方向上来看,GDI可以被认为是一个物理屏幕使用的管理器。
因为在实际的产品中,我们需要在物理屏幕上输出不同的窗口,而每个窗口认为自己独占屏幕的使用,对所有窗口输出,应用程序不会关心物理屏幕是否被别的窗口占用,而只是关心自己在本窗口的输出,至于输出是否能在屏幕上看见,则需要GDI来管理。
从最上层到最底层的数据流的分析可以看到实际上GDI在上层为GUI提供一个抽象的概念,就好像操作系统中的文件系统所提供文件,目录等抽象概念一样,GDI输出抽象成了文本,画笔,位图操作等设备无关的操作,让应用程序员只需要面对逻辑的设备上下文进行输出操作,而不要涉及到具体输出设备,以及输出边界的管理。
GDI负责将文本、线条、位图等概念对象映射到具体的物理设备,所以GDI的在大体方向上可以分为以下几大要素:
画布
字体
文本输出
绘画对象
位图输出
Android的GDI系统
Android的GDI系统所涉及到概念太多,加之使用了OpenGL使得Android的层次和代码很繁杂。
但是我们对于Android的GDI系统需要了解的方面不是他的静态的代码关系,而是动态的对象关系,在逻辑运行的架构上理解GDI。
我们首先还是需要从代码结构开始我们的理解。
Frameworks/Libs/Surfaceflinger
Frameworks/base/core/jni/android_view_Surface.cpp
Frameworks/base/core/java/android/view/surface.java
Frameworks/base/Graphics:
绘图接口
Frameworks/Libs/Ui
External/Skia
其中External/Skia是一个C++的2D图形引擎库,Android的2D绘制系统都是建立在该基础之上.Skia完成了:
文本输出,位图,点,线,图像解码等功能。
我在这里给出AndroidGDI的基本框架示意图。
对于上面的GDI架构图我们只是一个大概的了解,我们有太多的问题需要解决,有太多的疑问需要得到答案,我就一直在想,为什么设计者有提出如此众多的概念,这个概念的背景是什么?
他要管理什么,他要抽象什么?
从前面知道,Android的整个设计理念就是无边界化,他是如何穿透Linux进程这个鸿沟来达到无边界的?
Surface,Canvas,Layer,LayerBase,NativeBuffer,SurfaceFlinger,SurfaceFlingerClient这些到底是一个什么东西?
如何管理,传递的是什么?
创建的是什么?
这些都是抽象的概念,绘画的终极的缓冲区到底是如何管理的?
缓冲区到底在哪里?
我们还是看看做终极的,最本质的设计概念,在从这些概念出发,来探讨这些概念的形成过程,是否有必要去生成写概念。
SurfaceFlinger本质上干什么的?
SurfaceFlinger的确就是这个意义:
应用程序通过SurfaceFlinger将自己的“Surface”投掷到屏幕缓冲区。
至于如何投掷的,我们将会在后面详细描述。
AndroidGDI之屏幕设备管理-动态链接库
万丈高楼从地起,从最根源的硬件帧缓冲区开始。
我们知道显示FrameBuffer在系统中就是一段内存,GDI的工作就是把需要输出的内容放入到该段内存的某个位置。
我们从基本的点(像素点)和基本的缓冲区操作开始。
1基本知识
1.1点的格式
对于不同的LCD来讲,FrameBuffer的二进制格式不一样,并且可以分为两部分:
1)点的格式:
通常将Depth,即表示多少位表示一个点。
1位表示一个点
2位表示一个点
16位表示一个点
32位表示一个点(Alpha通道)
2)点内格式:
RGB分量分布表示。
例如对于我们常见的16位表示一个点
1.2.格式之间的转换
所以屏幕输出实际上是一个值映射的关系。
我们可以有如下的点格式转换,
源格式可能来自单色位图和彩色位图,对于具体的目标机来讲,我们的目标格式可能就是一种,例如16位(5/6/5)格式。
其实就只存在一种格式的转换,即从目标格式都是16位格式。
但是,在设计GDI时,基本要求有一个可移植性好,所以我们还是必须考虑对于不同点格式LCD之间的转换操作。
所以在GDI的驱动程序中涉及到如下几类主要操作:
区域操作(Blit):
我们在显示缓冲区上做的最多的操作就是区块搬运。
由此,很多的应用处理器使用了硬件图形加速器来完成区域搬运:
blit.从我们的主要操作的对象来看,可以分为两个方向:
1)内存区域到屏幕区域
2)屏幕区域到屏幕区域
3)屏幕区域到内存区域
4)内存区域到内存区域
在这里我们需要特别提出的是,由于在Linux不同进程之间的内存不能自由的访问,使得我们的每个Android应用对于内存区域和屏幕缓冲区的使用变得很复杂。
在Android的设计中,在屏幕缓冲区和显示内存缓冲区的管理分类很多的层次,最上层的对象是可以在进程间自由传递,但是对于缓冲区内容则使用共享内存的机制。
基于以上的基础知识,我们可以知道:
(1)代码中Config及其Format的意义所在了。
也就理解了兼容性的意义:
采用同硬件相同的点的描述对象
(2)所有屏幕上图形的移动都是显示缓冲区搬运的结果。
1.2图形加速器
应用处理器都可能带有图形加速器,对于不同的应用处理器对其图形加速器可能有不同的处理方式,对于2D加速来讲,都可归结为Blit。
多为数据的搬运,放大缩小,旋转等。
2Android的缓冲区抽象定义
不同的硬件有不同的硬件图形加速设备和缓冲内存实现方法。
AndroidGralloc动态库抽象的任务就是消除不同的设备之间的差别,在上层看来都是同样的方法和对象。
在Moudle层隐藏缓冲区操作细节。
Android使用了动态链接库gralloc.xxx.so,来完成底层细节的封装。
2.1本地定义@hardware\libhandware\modules\gralloc
每个动态链接库都是用相同名称的调用接口:
1)硬件图形加速器的抽象:
BlitEngine,CopyBit的加速操作。
2)硬件FrameBuffer内存管理
3)共享缓存管理
从数据关系上我们来考察..动态链接库的抽象行为:
在层次:
Hardware.c@hardware\libhardware中对动态链接库中的内容作了全新的包装。
/system/lib/hw/gralloc.xxx.so动态库文件。
从文件Gralloc.h(handware\libhardware\include\hardware)是抽象的结果:
hw_get_module从gralloc.xxx.so提取了HAL_MODULE_INFO_SYM(SYM变量)
从展露在外部的数据结构,我们在@Gralloc.cpp看到到了这样的布局:
staticstructhw_module_methods_tgralloc_module_methods={
open:
gralloc_device_open
};
structprivate_module_tHAL_MODULE_INFO_SYM={
base:
{
common:
{
tag:
HARDWARE_MODULE_TAG,
…
id:
GRALLOC_HARDWARE_MODULE_ID,
name:
"GraphicsMemoryAllocatorModule",
author:
"TheAndroidOpenSourceProject",
methods:
&gralloc_module_methods
},
registerBuffer:
gralloc_register_buffer,
unregisterBuffer:
gralloc_unregister_buffer,
lock:
gralloc_lock,
unlock:
gralloc_unlock,
},
framebuffer:
0,
flags:
0,
numBuffers:
0,
bufferMask:
0,
…
};
我们建立了什么对象来支撑缓冲区的操作?
buffer_handle_t:
外部接口。
methods.open,registerBuffer,unregisterBuffer,lock,unlock
下面是外部接口和内部对象的结构关系,该类型的结构充分利用CStruct的数据排列特性:
基本结构体放置在最前面,本地私有放置在后面,满足了抽象的需要。
typedefconstnative_handle*buffer_handle_t;
private_module_tHAL_MODULE_INFO_SYM向往暴露的动态链接库接口,通过该接口,我们直接可以使用该对象。
看不清楚上面图,可以偏一下头横着看:
几个接口函数的解释:
(1)fb_post
对于帧缓冲区实际地址并不需要向上层报告,所有的操作都是通过fb_post了完成。
fp_post的任务就是将一个Buffer的内容传递到硬件缓冲区。
其实现方式有两种:
(方式1)无需拷贝动作,是把Framebuffer的后buffer切为前buffer,然后通过IOCTRL机制告诉FB驱动切换DMA源地地址。
这个实现方式的前提是Linux内核必须分配至少两个缓冲区大小的物理内存和实现切换的ioctrol,这个实现快速切换。
(方式2)利用Copy的方式。
不修改内核,则在适配层利用从拷贝的方式进行,但是这个是费时了。
(2)gralloc的主要功能是要完成:
1)打开屏幕设备"/dev/fb0",,并映射硬件显示缓冲区。
2)提供分配共享显示缓存的接口
3)提供BiltEngine接口(完成硬件加速器的包装)
(3)gralloc_alloc输出buffer_handle_t句柄。
这个句柄是共享的基本依据,其基本原理在后面的章节有详细描述。
3总结
总结一下,/system/lib/hw/gralloc.xxx.so是跟硬件体系相关的一个动态链接库,也可以叫做Android的硬件抽象层。
他实现了Android的硬件抽象接口标准,提供显示内存的分配机制和CopyBit等的加速实现。
而如何具体实现这些功能,则跟硬件平台的配备有关系,所以我们看到了对于与不同的硬件架构,有不同的配置关系。
AndroirdGDI之共享缓冲区机制
1native_handle_t对private_handle_t的包裹
private_handle_t是gralloc.so使用的本地缓冲区私有的数据结构,而Native_handle_t是上层抽象的可以在进程间传递的数据结构。
在客户端是如何还原所传递的数据结构呢?
首先看看native_handle_t对private_handle_t的抽象包装。
numFds=sNumFds=1;
numInts=sNumInts=8;
这个是Parcel中描述句柄的抽象模式。
实际上是指的Native_handle所指向句柄对象的具体内容:
numFds=1表示有一个文件句柄:
fd/
numInts=8表示后面跟了8个INT型的数据:
magic,flags,size,offset,base,lockState,writeOwner,pid;
由于在上层系统不要关心buffer_handle_t中data的具体内容。
在进程间传递buffer_handle_t(native_handle_t)句柄是其实是将这个句柄内容传递到Client端。
在客户端通过Binder读取readNativeHandle@Parcel.cpp新生成一个native_handle。
native_handle*Parcel:
:
readNativeHandle()const
{
…
native_handle*h=native_handle_create(numFds,numInts);
for(inti=0;err==NO_ERROR&&i
h->data[i]=dup(readFileDescriptor());
if(h->data[i]<0)err=BAD_VALUE;
}
err=read(h->data+numFds,sizeof(int)*numInts);
….
returnh;
}
这里需要提到的是为在构造客户端的native_handle时,对于对方传递过来的文件句柄的处理。
由于不是在同一个进程中,所以需要dup(…)一下为客户端使用。
这样就将Native_handle句柄中的,客户端感兴趣的从服务端复制过来。
这样就将Private_native_t的数据:
magic,flags,size,offset,base,lockState,writeOwner,pid;复制到了客户端。
客户端利用这个新的Native_buffer被Mapper传回到gralloc.xxx.so中,获取到native_handle关联的共享缓冲区映射地址,从而获取到了该缓冲区的控制权,达到了客服端和Server间的内存共享。
从SurfaceFlinger来看就是作图区域的共享。
2GraphicMapper是干什么的?
服务端(SurfaceFlinger)分配了一段内存作为Surface的作图缓冲,客户端怎样在这个作图缓冲区上工作呢?
这个就是Mapper(GraphicBufferMapper)y要干的事情。
两个进程间如何共享内存,如何获取到共享内存?
Mapper就是干这个得。
需要利用到两个信息:
共享缓冲区设备句柄,分配时的偏移量。
Mapper利用这样的原理:
客户端只有lock,unlock,实质上就是mmap和ummap的操作。
对于同样一个共享缓冲区,偏移量才是总要的,起始地址不重要。
实际上他们操作了同一物理地址的内存块。
我们在上面讨论了native_handle_t对private_handle_t的包裹过程,从中知道服务端给客户端传递了什么东西。
进程1在共享内存设备上预分配了8M的内存。
以后所有的分配都是在这个8M的空间进行。
对以该文件设备来讲,8M物理内存提交后,就实实在在的占用了8M内存。
每个每个进程都可以同个该内存设备共享该8M的内存,他们使用的工具就会mmap。
由于在mmap都是用0开始获取映射地址,所以所有的客户端进程都是有了同一个物理其实地址,所以此时偏移量和size就可以标识一段内存。
而这个偏移量和size是个数值,从服务进程传递到客户端直接就可以使用。
3GraphicBuffer(缓冲区代理对象)
typedefstructandroid_native_buffer_t
{
structandroid_native_base_tcommon;
intwidth;
intheight;
intstride;
intformat;
intusage;
…
buffer_handle_thandle;
…
}android_native_buffer_t;
关系图表:
GraphicBuffer:
EGLNativeBase:
android_native_buffer_t
GraphicBuffer(parcel&)建立本地的GraphicBuffer的数据native_buffer_t。
在通过接收对方的传递的native_buffer_t构建GraphicBuffer。
我们来看看在客户端Surface:
:
lock获取操作缓冲区的函数调用:
Surface:
:
lock(SurfaceInfo*other,Region*dirtyIn,boolblocking)
{intSurface:
:
dequeueBuffer(android_native_buffer_t**buffer)(Surface)
{status_tSurface:
:
getBufferLocked(intindex,intusage)
{
spbuffer=s->requestBuffer(index,usage);
{
virtualsprequestBuffer(intbufferIdx,intusage)
{remote()->transact(REQUEST_BUFFER,data,&reply);
spbuffer=newGraphicBuffer(reply);
Surface:
:
Lock建立一个在Client端建立了一个新的GraphicBuffer对象,该对象通过
(1)描述的原理将SurfaceFlinger的buffer_handle_t相关数据构成新的客户端buffer_handle_t数据。
在客户端的Surface对象就可以使用GraphicMapper对客户端buffer_handle_t进行mmap从而获取到共享缓冲区的开始地址了。
4总结
Android在该节使用了共享内存的方式来管理与显示相关的缓冲区,他设计成了两层,上层是缓冲区管理的代理机构GraphicBuffer,及其相关的native_buffer_t,下层是具体的缓冲区的分配管理及其缓冲区本身。
上层的对象是可以在经常间通过Binder传递的,而在进程间并不是传递缓冲区本身,而是使用mmap来获取指向共同物理内存的映射地址。
AndroidGDI之SurfaceFlinger
SurfaceFinger按英文翻译过来就是Surface投递者。
SufaceFlinger的构成并不是太复杂,复杂的是他的客户端建构。
SufaceFlinger主要功能是:
1)将Layers(Surfaces)内容的刷新到屏幕上
2)维持Layer的Zorder序列,并对Layer最终输出做出裁剪计算。
3)响应Client要求,创建Layer与客户端的Surface建立连接
4)接收Client要求,修改Layer属性(输出大小,Alpha等设定)
但是作为投递者的实际意义,我们首先需要知道的是如何投递,投掷物,投递路线,投递目的地。
1SurfaceFlinger的基本组成框架
SurfaceFlinger管理对象为:
mClientsMap:
管理客户端与服务端的连接。
ISurface,IsurfaceComposer:
AIDL调用接口实例
mLayerMap:
服务端的Surface的管理对象。
mCurrentState.layersSortedByZ:
以Surface的Z-order序列排列的Layer数组。
graphicPlane缓冲区输出管理
OpenGLES:
图形计算,图像合成等图形库。
gralloc.xxx.so这是个跟平台相关的图形缓冲区管理器。
pmemDevice:
提供共享内存,在这里只是在gralloc.xxx.so可见,在上层被gralloc.xxx.so抽象了。
2SurfaceFingerClient和服务端对象关系图
Client端与SurfaceFlinger连接图:
Client对象:
一般的在客户端都是通过SurfaceComposerClient来跟SurfaceFlinger打交道。
3主要对象说明
3.1DisplayHardware&FrameBuffer
首先SurfaceFlinger需要操作到屏幕,需要建立一个屏幕硬件缓冲区管理框架。
Android在设计支持时,考虑多个屏幕的情况,引入了graphicPlane的概念。
在SurfaceFlinger上有一个graphicPlane数组,每一个graphicPlane对象都对应一个DisplayHardware.在当前的Android(2.1)版本的设计中,系统支持一个graphicPlane,所以也就支持一个DisplayHardware。
SurfaceFlinger,Hardware硬件缓冲区的数据结构关系图。
3.2Layer
method:
setBuffer在SurfaceFlinger端建立显示缓冲区。
这里的缓冲区是指的HW性质的,PMEM设备文件映射的内存。
1)layer的绘制
voidLayer:
:
onDraw(constRegion&clip)const
{
intindex=mFrontBufferIndex;
GLuinttextureName=mTextures[index].name;
…
drawWithOpenGL(clip,mTextures[index]);
}
3.2mCurrentState.layersSortedByZ
以Surface的Z-order序列排列的LayerBase数组,该数组是层显示遮挡的依据。
在每个层计算自己的可见区域时,从Z-order顶层开始计算,是考虑到遮挡区域的裁减,自己之前层的可见区域就是自己的不可见区域。
而绘制Layer时,则从Z-order底层开始绘制,这个考虑到透明层的叠加。
4SurfaceFlinger的运行框架
我们从前面的章节的基本原理可以知道,SurfaceFlinger的运行框架存在于:
threadLoop,他是SurfaceFlinger的主循环体。
SurfaceFlinger在进入主体循环之前会首先运行:
SurfaceFlinger:
:
readyToRun()。
4.1SurfaceFlinger:
:
readyToRun()
(1)建立GraphicPanle
(2)建立FrameBufferHardware(确定输出目标)
初始化:
OpenGLES
建立兼容的mainSurface.利用eglCreateWindowSurface。
建立OpenGLES进程上下文。
建立主Surface(OpenGLES)。
DisplayHardware的Init()@DisplayHardware.cpp函数对OpenGL做了初始化,并创建立主Surface。
为什么叫主Surface,因为所有的Layer在绘制时,都需要先绘制在这个主Surface上,最后系统才将主Surface的内容”投掷”到真正的屏幕上。
(3)主Surface的绑定
1)在DisplayHandware初始完毕后,hw.makeCurrent()将主Surface,OpenGLES进程上下文绑定到SurfaceFlinger的上下文中,
2)之后所有的SurfaceFlinger进程中使用EGL的所有的操作目的地都是mSurface@DisplayHardware。
这样,在OpenGL绘制图形时,主Surface被记录在进程的上下文中,所以看不到显示的主Surfce相关参数的传递。
下面是Layer-Draw,Hardware.flip的动作示意图:
4.2ThreadLoop
(1)handleTransaction(…