通信学报论文模板wordWord格式文档下载.docx
《通信学报论文模板wordWord格式文档下载.docx》由会员分享,可在线阅读,更多相关《通信学报论文模板wordWord格式文档下载.docx(7页珍藏版)》请在冰点文库上搜索。
2.Dept.ofComputerScience,NankaiUniversity,Tianjin300071,China)(地名,6号TimesNewRoman)
Abstract:
Inordertopredictandimprovetheperformanceofnetworkedstoragesystems,therelationshipwasexploredbetweenthesystemI/Oresponsetimeanditsperformancefactorsbyquantitativeanalyticalmethod.Throughanalyzingdynamictrendofitsactualperformance.Furthermore,weconcludethattheCPUprocessingpowerandcachehitrateoftheserveratthestoragecenterarethekeyfactorsaffectingtheI/Oresponsetimeastheconcurrentjobsarelower.
Keywords:
networkedstorage;
performancemodelling;
queueingnetworks;
I/Oresponsetime(英文摘要、关键词为小5号TimesNewRoman,题名加粗)
1引言(标题2,小4号黑体,占2行)
网络技术的飞速发展,促使信息量正以超乎人们想象的速度增长。
随着海量数据处理需求的日益迫切,用户对数据存储系统在性能方面提出
了更高的要求。
现有对存储系统性能方面的研究主要集中在DAS存储系统[1],随着网络存储技术的快速发展,针对网络存储系统性能方面的研究逐渐成为当前热点。
由于存储网络的引入,使影响网络存储系统
收稿日期(小5号黑体):
2005-10-10;
修回日期(小5号黑体):
2005-11-10
基金项目(小5号黑体):
国家自然科学基金资助项目(60273031);
高校博士点科研基金资助项目(20020055021);
天津市科技发展计划重点基金资助项目(043800311)(小5号宋体)
FoundationItems:
NationalNaturalScienceFoundationofChina(60273031);
EducationMinistryDoctoralResearchFoundationofChina(20020055021)(加基金项目中文的译文,小五号TimesNewRoman,题名加粗)
第1期
崔宝江等:
网络存储系统I/O响应时间边界性能研究
·
5·
性的因素更加复杂,不仅涉及到DAS存储系统,而且和网络、主机系统性能密切相关。
对于网络存储系统性能方面的评价和研究,国内外都做了大量工作。
目前,这些关于性能方面的研究大都是定性的[2~4],定量研究模型仍然有限[5]。
本文构建了基于网络RAID结构的网络存储系统,对其结构和数据处理流程进行了分析,建立了它的闭合排队网络模型CQNM(closedqueueingnetworksmodel),并在排队网络理论基础上提出了其性能定量分析模型。
利用此模型可快速分析网络RAID存储系统I/O响应时间的性能边界,定量地分析影响网络存储系统性能的关键性能影响因素,并区分各种影响因素对系统性能的影响程度。
本文的结构如下:
第2节,描述网络RAID存储系统的结构;
第3节,建立了网络RAID存储系统的排队网络模型,并在此基础上提出了其I/O响应时间的边界性能分析模型;
第4节对I/O响应时间的性能分析模型进行了验证,并利用模型分析了网络RAID存储系统的性能影响因素;
第5节,结论。
2网络RAID存储系统的结构
网络RAID存储系统的系统结构如图1所示,构建了基于两级RAID5冗余结构的网络存储系统。
分布于网络中的存储设备,利用IP存储协议ENBD映射为存储中心服务器的虚拟存储设备。
这些虚拟设备通过存储中心服务器中的软RAID
设备驱动程序构建成不同级别的RAID存储空间。
从而把在网络中分布的存储资源组织成存储中心服务器可利用的具有统一地址空间的虚拟存储空间。
在网络RAID存储系统中,存储中心服务器应用程序对本地虚拟RAID存储设备的读写请求,通过调用ENBDClient端程序,将数据由网络传送到远端的存储服务器。
存储服务器中的ENBD
Server端程序接收到数据包后,解析出原数据和命令,将读写请求通过设备文件系统或设备驱动程序对存储设备完成具体读写操作,最后将相应信息再反馈回存储中心服务器。
在上面对网络存储系统的基本存储数据处理流程进行分析的基础上,可建立其抽象性能分析模型。
图1网络RAID存储系统的网络拓扑图
3网络RAID存储系统的性能分析模型
3.1建立网络模型(标题3,5号黑体,占1行)
(以下为正文,正文为5号宋体,外文TimesNewRoman。
注意:
正文中单个数字和外文字母不得用公式编辑器生成)
基于以上对网络RAID存储系统基本存储流程的分析,我们将数据处理流程中的主要环节抽象为一个个服务节点,其中,存储中心服务器和
存储服务器中的中央处理器抽象为CPU服务节点,网卡抽象为网卡服务节点,用于在存储中心服务器和存D存储系统的CQNM模型,见图2,图中左侧的存储中心服务器通过网络连接到右侧的存储服务器。
CPU服务节点负责处理本地的应用程序和数据,网卡服务节点通过网卡向网络中发送或接收数据,网络传输节点通过网络传输数据,磁盘I/O节点负责对磁盘进行读写操作。
3.1.1建立边界性能分析模型(标题4,5号楷体,占1行)
建立网络RAID存储系统的CQNM模型后,我们利用BJB[6](balancedjobbounds)方法定量分析其响应时间的性能边界。
假定Di为节点
图2网络RAID存储系统的排队网络模型
(图片居中排,图片中字号为6号华文中宋,段前空为12磅,段后空为5磅)(图名为6号宋体,居中,段前空2磅,段后空为10磅)
i(i∈
{1,…K})的服务需求,定义
K
同理,存储服务器中CPU服务节点的服务需求DCsn可表示为
Dmax=max{Di,i∈(1,…K)},Dsum=å
Di,i∈(1,…K),
i=1
DCsn
=1-Pm·
(T
STP
snpro·
SsnSTU
+Tsnp
IPsnnum
)(6)
Davg
=Dsum
/K,则网络RAID存储系统I/O响应时 m m
间的性能边界为
(公式另行居中单倍行距,用制表符隔开,编号右对齐,公式字号大小是10.5磅)
max(NDmax,Dsum+(N-1)Davg)≤R(N)
(1)
下面根据网络RAID存储系统中数据处理的具体流程,进一步建立每个服务节点服务需求Di的分析模型。
CPU服务节点服务需求的计算又分为存储中心服务器和存储服务器两类。
存储中心服务器中CPU服务节点的服务需求DCm是指用于处理存储
行为的时间,包括CPU服务节点对网络虚拟磁盘
其中,Tsnpro为存储服务器单个数据条纹单元的平均处理时间,Ssn为存储服务器对于存储中心服务器的一个RAID5任务所需要实际处理的字节数,可表示为Ssn=SmR5/STPm。
Tsnp为存储服务器处理单个IP包包含的数据所花费的处理时间。
IPsnnum为存储服务器对于中心服务器的一个RAID5任务所需要实际处理的IP数据包数,可表示为IPsnnum=IPnum/STPm。
存储中心服务器网卡服务节点的服务需求可以表示为每个任务通过网卡进行传输所用的平均时间
数据读写操作的时间,以及缓存未命中时ENBDClient对数据处理的时间和进行传输所消耗的
DNm
=(1-P
)·
IPnum×
Framese
m
TRatee
(7)
TCP/IP协议处理时间,可表示为
Cm mpro mmpnum
D =T ·
Sm+(1-P)TIP
(2)
STUm
其中,TRatee为以太网的传输速率,Framese为以
太帧的大小。
与之类似,存储服务器中网卡服务节点的服务需求表示为
其中,Sm为单个任务操作所处理的字节数,Tmpro为单个数据条纹单元的平均处理时间,包括内存
DNsn
IP
STPm
snnum
·
FrameseTRatee
(8)
拷贝和读写操作时间。
STUm为中心服务器条纹单
元的大小,Pm为读写的缓存命中率,1−Pm为读写操作访问存储服务器磁盘的概率。
在实验环境中,
网络传输节点的服务需求可以表示为每个任务在网络传输过程中所用的平均时间
由于文件大小远大于系统缓存,假定写操作的缓存命中率为0。
Tmp为ENBDClient对单个IP包包
DNet=(1-Pm)·
SmR5
(9)
含的数据进行数据处理和传输所消耗的TCP/IP协议处理时间之和。
IPnum为单个任务被分片所得的
磁盘I/O节点的服务需求表示为每个任务在磁盘中进行操作所需时间
IP数据包数,则
1-P
STU S
IP =é
S
/MSSù
(3)
Dd= m·
(1-Psn)·
(seek+latency+m)×
sn
num
ê
mRi ú
STPm
TRated
STUm
MSS为以太网中TCP最大分段大小。
SmRi为RAIDi时,存储中心服务器处理单个任务所实际操作的字节数。
例如,对于RAID5系统的写操作,由于要同时写数据单元和校验单元,故
(10)
其中,Psn为存储服务器的缓存读命中率,1−Psn为读操作访问磁盘的概率,由于文件大小大于系统缓存,假定写操作的命中率为0。
seek和latency
SmR5=Sm·
STPm/(STPm-1)
(4)
分别读操作访问磁盘的概率,由于文件大小大于
STPm为存储中心服务器一个条纹包含的条纹单元数;
对于读操作,则
SmR5=Sm (5)
系统缓存,假定写操作的命中率为0。
seek和latency分别为磁盘的平均寻道时间和平均延迟时间,TRated为磁盘的最大持续传输速率。
将上面各节点的服务需求模型代入式
(1)中,
即可得到基于网络RAID存储系统I/O响应时间的性能边界分析模型。
4性能测试与分析
我们利用上述模型的基础上,对网络RAID5存储系统的响应时间和性能影响因素进行分析。
网络存储系统实验环境是由4台运行Linux7.3操作系统的PC机组成的一个网络RAID5存储系统,其网络拓扑参见图1。
PC机的配置为PIII650
CPU,64MB内存,10/100Mbit/s网卡,36GBIBMDDYS-T36950 SCSI磁盘,磁盘为4MB缓存,4.9ms平均寻道时间,2.99ms平均延迟,磁盘的最大持续传输速率为35Mbit/s。
存储中心服务器条纹单元的大小为16KB,一个条纹包含3个条纹单元,单个任务处理的数据量为200MB。
以太网的带宽为100Mbit/s,TCP最大分段大小为1460B,以太帧的大小为1518B。
此外,CPU平均处理时间Tmpro、Tmp、Tsnpro、Tsnp分别取实际测试的平均值0.027ms、0.045ms、0.033ms、0.028ms。
图3为上述网络存储系统实验环境中,在并发写操作时系统响应时间和并发任务数的实际测试值和采用性能分析模型所获得的理论边界值的对比图。
从图中可以看出,从性能分析模型获得的理论边界值在不同的并发任务数时,都准确的反映了实际响应时间的变化趋势和其性能边界。
在上面验证的基础上,下面利用所建立的性能分析模型,对网络RAID5存储系统响应时间的性能影响因素进行深入分析。
图4为网络RAID5存储系统写操作时响应时间、并发任务数与网络带宽之间的关系图。
从图中可以看出,网络带宽在并发任务数较高时是影响网络存储系统响应时间的主要因素,但在并发任务数较低时,对响应时间的作用不明显。
图5为网络RAID5存储系统写操作时响应时间、并发任务数与存储中心服务器缓存命中率之间的关系图。
和网络带宽的作用不同,从图中可以看出存储中心服务器缓存命中率在不同并发任务数时,对系统响应时间的影响作用很明显,没有因并发任务数的不同而波动。
图6为网络RAID5存储系统写操作时响应时间、并发任务数与存储中心服务器CPU单个任务处理时间的关系图。
经过对上图的分析可以看出,在并发任务数较小时,随着CPU处理性能的提高,系统响应时间在降低;
而
当并发任务数较大时,CPU处理性能的高低对系统响应时间变的没有影响了。
图7和图8分别为网络RAID5存储系统写操作时响应时间、并发任务数与存储服务器CPU单个任务处理时间的关系图,以及响应时间、并发任务数与存储服务器中磁盘最大持续传输速率的关系图。
和前面几个影响因素不同,在不同并发任务数时存储服务器CPU性能和磁盘性能对系统I/O响应时间的影响很小。
通过上述分析可知,在并发任务数较低时,存储中心服务器CPU处理能力是系统响应时间的关键性能影响因素,通过提高存储中心服务器CPU处理能力的方法可改善网络RAID5存储系统的性能;
而网络带宽则是非关键性能影响因素,它对系统响应时间的影响较小。
而在并发任务数较高时,网络带宽则成为关键性能影响因素,通过提高网络带宽可有效改善系统的响应时间,而CPU处理能力则变为非关键性能影响因素,它对性能的影响变的很小。
除此之外,存储中心服务器的缓冲区命中率
图3网络存储系统的实测性能与理论性能
图4响应时间、并发任务数与网络带宽的关系
图5响应时间、并发任务数与缓存命中率的关系
图6响应时间、并发任务数与存储中心服务器CPU性能的关系
图7响应时间、并发任务数与存储服务器CPU性能的关系
图8响应时间、并发任务数与磁盘最大持续传输速率的关系
在不同任务数时都是影响系统性能的关键因素,而存储服务器CPU性能和磁盘性能则在不同任务数时对系统I/O响应时间的影响都很小,属于非关键性能影响因素。
上述网络RAID存储系统因素的一种有效手段,在优化系统性能时,可基于上述分析结果着重考虑改善关键性能影响因素,
忽略非关键性能影响因素,即可达到事半功倍的效果。
表1
表题为小五黑居中
表文六号
表文六号 表文六号
(表题小5号黑体,表格内容6号宋体,三线表,上下线为反线(即0.75磅),中间为正线(即0.5磅)
)
5结论
由于存储网络的引入,使影响网络存储系统性能的因素更加复杂。
为了定量的分析网络RAID存储系统的I/O响应时间,并区分各种影响因素对系统性能的影响程度,本文通过对网络RAID存储系统数据传输过程的分析,建立了其排队网络模型,并在此基础上提出了网络RAID存储系存储系统数据传输过程的分析,建立了其排队网络模型,并在此基础上提出了网络RAID存储系因素。
存储服务器的CPU处理能力和磁盘的最大持续传输速率对系统性能影响很小,是非关键性能影响因素。
参考文献:
(“参考文献”题名为5号黑体,占2行)
[1]BARVER,SHRIVERE,GIBBONSPB.ModelingandoptimizingI/Othroughputofmultipledisksonabus[A].ProceedingsofSigmetrics'
98/Performance'
98[C].NewYork:
ACMPress,1998.264-275.
[2]LUYP,DAVIDHCD.Performancestudyofiscsi-basedstoragesubsystems[J].IEEECommunicationsMagazine,2003,41(8):
76-82.
[3]HEXB,BEEDANAGARIP,ZHOUD.PerformanceevaluationofdistributedISCSIRAID[A].Proceedingsofthe2003IEEE/ACMInternationalWorkshoponStorageNetworkArchitectureandParallelI/O(SNAPI'
03)[C].NewOrleans,LA,USA,2003.
[4]WEETN,HILLYERBK,SHRIVERE,Obtaininghighperformanceforstorageoutsourcing[A].ProceedingsofConferenceonFileandStorageTechnologies(FAST'
02)[C].Monterey,California,2002.145-158.
[5]ZHUYL,ZHUSY,XIONGH.Performanceanalysisandtestingofthestorageareanetwork[A].19thIEEESymposiumonMassStorageSystemsandTechnologies[C].Maryland,USA,2002.
[6]LAZOWSKAED,ZAHORJANJ,GRAHAMGS,etal.Quantitative
SystemPerformance:
ComputerSystemAnalysisUsingQueueingNetworkModels[M].EnglewoodCliffs,NJ:
Prentice-Hall,1984.
[7]郑少仁等.Adhoc网络技术[M].北京:
人民邮电出版社,2005.
ZHENGSR,etal.AdHocNetworkTechnology[M].Beijing:
postTelecompress,2005.
[8]马建仓等.蓝牙核心技术及应用[M].北京:
科学出版社,2003.MACJ,etal.BluetoothCoreTechnologyandApplication[M].Beijing:
Sciencepress,2003.
(“参考文献”中文内容为6号宋体,英文内容为6
号TimesNewRoman;
文献是中文的,请附加中文的译文。
例如:
文献[7]、文献[8]类型文献)
作者简介:
(小5号黑体)(作者简介格式参照以下)
崔宝江(1973-),男,山东东营人,博士,北京邮电大学讲师,主要研究方向为数据安全、网络攻防、网络存储。
(作者简介内容为:
人名、出生年、
性别、出生地、学位和研究方向)
刘军(1963-),男,河北香河人,南开大学博士生,天津财经大学副教授,主要研究方向为网络存储、并行与分布式系统等。
王刚(1974-),男,北京人,博士,南开大学副教授,主要研究方向为数据布局、并行与分布式系统。
刘璟(1942-),男,北京人,南开大学教授、博士生导师,主要研究方向为并行与分布式系统、海量存储、算法设计与分析。
请各位作者注意:
对于您给本刊提供的作者照片,必须清晰,裁剪整齐(黑白证件照片,大小:
高3厘米,宽2厘米,可以参照以上照片),否则照片刊登效果不佳。
2·
通信学报 第27卷