中国通信,投稿模板.docx
《中国通信,投稿模板.docx》由会员分享,可在线阅读,更多相关《中国通信,投稿模板.docx(33页珍藏版)》请在冰点文库上搜索。
自从人类进入商品经济社会以来,贸易即已成为人们日常活动的主要部分,并成为一国经济增长的主动力。
国际分工的深化、大量国际统一标准规则的建立
中国通信,投稿模板
篇一:
通信学报论文模板word
第27卷第1期XX年1月
通信学报
JournalonCommunications
JanuaryXX
网络存储系统I/O响应时间边界性能研究(标题1,3号黑体,外文为
TimesNewRoman加粗)
崔宝江1,刘军2,3,王刚2,刘璟2(人名,5号楷体_GB2312)
(1.北京邮电大学信息安全中心,北京100876;2.南开大学计算机科学系,天津300071)(地名,6号宋体、外文TimesNewRoman)
摘要:
为了对网络存储系统性能进行预测和改进,利用定量分析法研究了系统I/O响应时间与各性能影响因素之间的关系。
通过分析网络RAID存储系统的数据传输原理,建立了该系统的闭合排队网络模型,并研究了其I/O当并发任务数较低时,存储中心服务器CPU处理能力和缓冲区命中率是影响I/O响应时间的关键因素。
关键词:
网络存储;性能建模;排队网络;I/O响应时间
中图分类号:
TP302文献标识码:
A文章编号:
1000-436X(XX)01-0001-06(“摘要”题名为小5号黑体,摘要正文为小5号宋体)(“关键词”题名为小5号黑体,关键词正文为小5号宋体)
(“中图分类号、文献标识码、文章编号”题名为小5号黑体,内容为小5号TimesNewRoman体)
StudyonI/Oresponsetimeboundsofnetworkstoragesystems(标题1,3
号TimesNewRoman加粗)
CUIBao-jiang1,LIUJun2,3,WANGGang2,LIUJing2(人名,5号TimesNewRoman)
(1.InformationSecurityCentre,BeijingUniversityofPostsandTelecommunications,Beijing100876,China;2.Dept.ofComputerScience,NankaiUniversity,Tianjin300071,China)(地名,6号TimesNewRoman)
Abstract:
Inordertopredictandimprovetheperformanceofnetworkedstoragesystems,therelationshipwasexploredbetweenthesystemI/Oresponsetimeanditsperformancefactorsbyquantitativeanalyticalmethod.Throughanalyzingdynamictrendofitsactualperformance.Furthermore,weconcludethattheCPUprocessingpowerandcachehitrateoftheserveratthestoragecenterarethekeyfactorsaffectingtheI/Oresponsetimeastheconcurrentjobsarelower.Keywords:
networkedstorage;performancemodelling;queueingnetworks;I/Oresponsetime(英文摘要、关键词为小5号TimesNewRoman,题名加粗)
1引言(标题2,小4号黑体,占2行)
网络技术的飞速发展,促使信息量正以超乎人们想象的速度增长。
随着海量数据处理需求的日益迫切,用户对数据存储系统在性能方面提出了更高
的要求。
现有对存储系统性能方面的研究主要集中在DAS存储系统[1],随着网络存储技术的快速发展,针对网络存储系统性能方面的研究逐渐成为当前热点。
由于存储网络的引入,使影响网络存储系统性
收稿日期(小5号黑体):
XX-10-10;修回日期(小5号黑体):
XX-11-10基金项目(小5号黑体):
国家自然科学基金资助项目(60273031);高校博士点科研基金资助项目(XX0055021);天津市科技发展计划重点基金资助项目(043800311)(小5号宋体)
FoundationItems:
NationalNaturalScienceFoundationofChina(60273031);EducationMinistryDoctoralResearchFoundationofChina(XX0055021)(加基金项目中文的译文,小五号TimesNewRoman,题名加粗)
的因素更加复杂,不仅涉及到DAS存储系统,而且和网络、主机系统性能密切相关。
对于网络存储系统性能方面的评价和研究,国内外都做了大量工作。
目前,这些关于性能方面的研究大都是定性的[2~4],定量研究模型仍然有限[5]。
本文构建了基于网络RAID结构的网络存储系统,对其结构和数据处理流程进行了分析,建立了它的闭合排队网络模型CQNM(closedqueueingnetworksmodel),并在排队网络理论基础上提出了其性能定量分析模型。
利用此模型可快速分析网络RAID存储系统I/O响应时间的性能边界,定量地分析影响网络存储系统性能的关键性能影响因素,并区分各种影响因素对系统性能的影响程度。
本文的结构如下:
第2节,描述网络RAID存储系统的结构;第3节,建立了网络RAID存储系统的排队网络模型,并在此基础上提出了其I/O响应时间的边界性能分析模型;第4节对I/O响应时间的性能分析模型进行了验证,并利用模型分析了网络RAID存储系统的性能影响因素;第5节,结论。
端程序接收到数据包后,解析出原数据和命令,将读写请求通过设备文件系统或设备驱动程序对存储设备完成具体读写操作,最后将相应信息再反馈回存储中心服务器。
在上面对网络存储系统的基本存储数据处理流程进行分析的基础上,可建立其抽象性能分析模型。
图1网络RAID存储系统的网络拓扑图
3网络RAID存储系统的性能分析模型
建立网络模型(标题3,5号黑体,占1行)
(以下为正文,正文为5号宋体,外文TimesNewRoman。
注意:
正文中单个数字和外文字母不得用公式编辑器生成)
基于以上对网络RAID存储系统基本存储流程的分析,我们将数据处理流程中的主要环节抽象为一个个服务节点,其中,存储中心服务器和存储服务器中的中央处理器抽象为CPU服务节点,网卡抽象为网卡服务节点,用于在存储中心服务器和存D存储系统的CQNM模型,见图2,图中左侧的存储中心服务器通过网络连接到右侧的存储服务器。
CPU服务节点负责处理本地的应用程序和数据,网卡服务节点通过网卡向网络中发送或接收数据,网络传输节点通过网络传输数据,磁盘I/O节点负责对磁盘进行读写操作。
建立边界性能分析模型(标题4,5号楷体,占1行)
建立网络RAID存储系统的CQNM模型后,我们利用BJB[6](balancedjobbounds
)方法定量分
2网络RAID存储系统的结构
网络RAID存储系统的系统结构如图1所示,构建了基于两级RAID5冗余结构的网络存储系统。
分布于网络中的存储设备,利用IP存储协议ENBD映射为存储中心服务器的虚拟存储设备。
这些虚拟设备通过存储中心服务器中的软RAID设备驱动程序构建成不同级别的RAID存储空间。
从而把在网络中分布的存储资源组织成存储中心服务器可利用的具有统一地址空间的虚拟存储空间。
在网络RAID存储系统中,存储中心服务器应用程序对本地虚拟RAID存储设备的读写请求,通过调用ENBDClient端程序,将数据由网络传送到远端的存储服务器。
存储服务器中的ENBDServer
图2网络RAID存储系统的排队网络模型
(图片居中排,图片中字号为6号华文中宋,段前空为12磅,段后空为5磅)(图名为6号宋体,居中,段前空2磅,段后空为10磅)
析其响应时间的性能边界。
假定Di为节点i(i∈{1,?
K})的服务需求,定义Dmax=max{Di,i∈(1,?
K)},Dsum=
?
K
Di
,i∈(1,?
K),D
avg=Dsum/K,
则网络i?
1
RAID存储系统I/O响应时间的性能边界为(公式另行居中单倍行距,用制表符隔开,编号右对
齐,公式字号大小是磅)
max(NDmax,Dsum+(N?
1)Davg)≤R(N)
(1)
下面根据网络RAID存储系统中数据处理的具体流程,进一步建立每个服务节点服务需求Di的分析模型。
CPU服务节点服务需求的计算又分为存储中心服务器和存储服务器两类。
存储中心服务器中CPU服务节点的服务需求DCm是指用于处理存储行为的时间,包括CPU服务节点对网络虚拟磁盘数据读写操作的时间,以及缓存未命中时ENBDClient对数据处理的时间和进行传输所消耗的TCP/IP协议处理时间,可表示为
DSCm=Tmprom
STU+(1?
Pm)TmpIPnum
(2)
m
其中,Sm为单个任务操作所处理的字节数,Tmpro
为单个数据条纹单元的平均处理时间,包括内存拷贝和读写操作时间。
STUm为中心服务器条纹单元的大小,Pm为读写的缓存命中率,1?
Pm为读写操作访问存储服务器磁盘的概率。
在实验环境中,由于文件大小远大于系统缓存,假定写操作的缓存命中率为0。
Tmp为ENBDClient对单个IP包包含的数据进行数据处理和传输所消耗的TCP/IP协议处理时间之和。
IPnum为单个任务被分片所得的IP数据包数,则
IPnum=?
?
SmRi/MSS?
?
(3)
MSS为以太网中TCP最大分段大小。
SmRi为
RAIDi时,存储中心服务器处理单个任务所实际操作的字节数。
例如,对于RAID5系统的写操作,由于要同时写数据单元和校验单元,故
SmR5=Sm·
STPm/(STPm?
1)(4)
STPm为存储中心服务器一个条纹包含的条纹
单元数;对于读操作,则
SmR5=Sm
(5)
同理,存储服务器中CPU服务节点的服务需
求DCsn可表示为
D1?
PCsn=
m
STP·(TSsnprosn+Tsnp·
IPsnnum)(6)mSTUm
其中,Tsnpro为存储服务器单个数据条纹单元的平均处理时间,Ssn为存储服务器对于存储中心服务器的一个RAID5任务所需要实际处理的字节数,可表示为Ssn=SmR5/STPm。
Tsnp为存储服务器处理单个IP包包含的数据所花费的处理时间。
IPsnnum为存储服务器对于中心服务器的一个RAID5任务所需要实际处理的IP数据包数,可表示为IPsnnum=IPnum/STPm。
存储中心服务器网卡服务节点的服务需求可以表示为每个任务通过网卡进行传输所用的平均时间
DIP?
FramesNm=(1?
Pm)nume
TRate
(7)
e
其中,TRatee为以太网的传输速率,Framese为以太帧的大小。
与之类似,存储服务器中网卡服务节点的服务需求表示为
DNsn=
1?
PmFramese
STP·IPsnnumTRate(8)
me
网络传输节点的服务需求可以表示为每个任
务在网络传输过程中所用的平均时间
D?
PS
Net=(1mmR5TRate
(9)
e
磁盘I/O节点的服务需求表示为每个任务在磁盘中进行操作所需时间Dd=1?
PmSTP·(1?
Psn)·
(seek?
latency?
STUm
)?
SsnmTRatedSTUm
(10)
其中,Psn为存储服务器的缓存读命中率,1?
Psn为读操作访问磁盘的概率,由于文件大小大于系统缓存,假定写操作的命中率为0。
seek和latency分别读操作访问磁盘的概率,由于文件大小大于系统缓存,假定写操作的命中率为0。
seek和latency分别为磁盘的平均寻道时间和平均延迟时间,TRated为磁盘的最大持续传输速率。
将上面各节点的服务需求模型代入式
(1)中,即可得到基于网络RAID存储系统I/O响应时间的性能边界分析模型。
4性能测试与分析
我们利用上述模型的基础上,对网络RAID5存储系统的响应时间和性能影响因素进行分析。
网络存储系统实验环境是由4台运行操作系统的PC机组成的一个网络RAID5存储系统,其网络拓扑参见图1。
PC机的配置为PIII650CPU,64MB内存,10/100Mbit/s网卡,36GBIBMDDYS-T36950SCSI磁盘,磁盘为4MB缓存,平均寻道时操作时响应时间、并发任务数与存储服务器CPU单个任务处理时间的关系图,以及响应时间、并发任务数与存储服务器中磁盘最大持续传输速率的关系图。
和前面几个影响因素不同,在不同并发任务数时存储服务器CPU性能和磁盘性能对系统I/O响应时间的影响很小。
通过上述分析可知,在并发任务数较低时,存储中心服务器CPU处理能力是系统响应时间的关键性能影响因素,通过提高存储中心服务器CPU间,平均延迟,磁盘的最大持续传输速率为35Mbit/s。
存储中心服务器条纹单元的大小为16KB,一个条纹包含3个条纹单元,单个任务处理的数据量为200MB。
以太网的带宽为100Mbit/s,TCP最大分段大小为1460B,以太帧的大小为1518B。
此外,CPU平均处理时间Tmpro、Tmp、Tsnpro、Tsnp分别取实际测试的平均值、、、。
图3为上述网络存储系统实验环境中,在并发写操作时系统响应时间和并发任务数的实际测试值和采用性能分析模型所获得的理论边界值的对比图。
从图中可以看出,从性能分析模型获得的理论边界值在不同的并发任务数时,都准确的反映了实际响应时间的变化趋势和其性能边界。
在上面验证的基础上,下面利用所建立的性能分析模型,对网络RAID5存储系统响应时间的性能影响因素进行深入分析。
图4为网络RAID5存储系统写操作时响应时间、并发任务数与网络带宽之间的关系图。
从图中可以看出,网络带宽在并发任务数较高时是影响网络存储系统响应时间的主要因素,但在并发任务数较低时,对响应时间的作用不明显。
图5为网络RAID5存储系统写操作时响应时间、并发任务数与存储中心服务器缓存命中率之间的关系图。
和网络带宽的作用不同,从图中可以看出存储中心服务器缓存命中率在不同并发任务数时,对系统响应时间的影响作用很明显,没有因并发任务数的不同而波动。
图6为网络RAID5存储系统写操作时响应时间、并发任务数与存储中心服务器CPU单个任务处理时间的关系图。
经过对上图的分析可以看出,在并发任务数较小时,随着CPU处理性能的提高,系统响应时间在降低;而当并发任务数较大时,CPU处理性能的高低对系统响应时间变的没有影响了。
图7和图8分别为网络RAID5存储系统写
处理能力的方法可改善网络RAID5存储系统的性能;而网络带宽则是非关键性能影响因素,它对系统响应时间的影响较小。
而在并发任务数较高时,网络带宽则成为关键性能影响因素,通过提高网络带宽可有效改善系统的响应时间,而CPU处理能力则变为非关键性能影响因素,它对性能的影响变的很小。
除此之外,存储中心服务器的缓冲区命中率
图3网络存储系统的实测性能与理论性能
图4响应时间、并发任务数与网络带宽的关系
图5响应时间、并发任务数(来自:
小龙文档网:
中国通信,投稿模板)与缓存命中率的关系
图6响应时间、并发任务数与存储中心服务器CPU性能的关系
图7响应时间、并发任务数与存储服务器CPU性能的关系
图8响应时间、并发任务数与磁盘最大持续传输速率的关系
在不同任务数时都是影响系统性能的关键因素,
而存储服务器CPU性能和磁盘性能则在不同任务数时对系统I/O响应时间的影响都很小,属于非关键性能影响因素。
上述网络RAID存储系统因素的一种有效手段,在优化系统性能时,可基于上述分析结果着重考虑改善关键性能影响因素,忽略非关键性能影响因素,即可达到事半功倍的效果。
表1
表题为小五黑居中
表文六号表文六号表文六号表文六号表文六号表文六号表文六号表文六号表文六号
表文六号
表文六号
表文六号
(表题小5号黑体,表格内容6号宋体,三线表,上下线为反线(即磅),中间为正线(即磅))
5结论
由于存储网络的引入,使影响网络存储系统性能的因素更加复杂。
为了定量的分析网络RAID存储系统的I/O响应时间,并区分各种影响因素对系统性能的影响程度,本文通过对网络RAID存储系统数据传输过程的分析,建立了其排队网络模型,并在此基础上提出了网络RAID存储系存储系统数据传输过程的分析,建立了其排队网络模型,并在此基础上提出了网络RAID存储系因素。
存储服务器的CPU处理能力和磁盘的最大持续传输速率对系统性能影响很小,是非关键性能影响因素。
参考文献:
(“参考文献”题名为5号黑体,占2行)
[1]BARVER,SHRIVERE,GIBBONSPB.Modelingandoptimizing
I/Othroughputofmultipledisksonabus[A].ProceedingsofSigmetrics'98/Performance'98[C].NewYork:
ACMPress,1998.264-275.
[2]LUYP,DAVIDHCD.Performancestudyofiscsi-basedstorage
subsystems[J].IEEECommunicationsMagazine,XX,41(8):
76-82.[3]HEXB,BEEDANAGARIP,ZHOUD.Performanceevaluationof
distributedISCSIRAID[A].ProceedingsoftheXXIEEE/ACMInternationalWorkshoponStorageNetworkArchitectureandParallelI/O(SNAPI'03)[C].NewOrleans,LA,USA,XX.
[4]WEETN,HILLYERBK,SHRIVERE,Obtaininghighperformance
forstorageoutsourcing[A].ProceedingsofConferenceonFileandStorageTechnologies(FAST'02)[C].Monterey,California,XX.145-158.
[5]ZHUYL,ZHUSY,XIONGH.Performanceanalysisandtestingof
thestorageareanetwork[A].19thIEEESymposiumonMassStorageSystemsandTechnologies[C].Maryland,USA,XX.
[6]LAZOWSKAED,ZAHORJANJ,GRAHAMGS,etal.Quantitative
SystemPerformance:
ComputerSystemAnalysisUsingQueueingNetworkModels[M].EnglewoodCliffs,NJ:
Prentice-Hall,1984.
[7]郑少仁等.Adhoc网络技术[M].北京:
人民邮电出版社,XX.
ZHENGSR,etal.AdHocNetworkTechnology[M].Beijing:
postTelecompress,XX.
[8]马建仓等.蓝牙核心技术及应用[M].北京:
科学出版社,XX.
MACJ,etal.BluetoothCoreTechnologyandApplication[M].Beijing:
Sciencepress,XX.
(“参考文献”中文内容为6号宋体,英文内容为6号TimesNewRoman;文献是中文的,请附加中文的译文。
例如:
文献[7]、文献[8]类型文献)
篇二:
计算机网络与通信论文格式模板
基于SOPC的运动控制器设计
贺依盟1,周亚军2
(杭州电子科技大学自动化学院,杭州310018)
摘要:
结合数控系统的功能需求及微电子技术的发展,设计一种基于SOPC的四轴运动控制器,该控制器以Altera公司提供的EP4CE系列的FPGA器件为主控芯片,系统架构由QSYS搭建,包括Niosii软核处理器,SDRAM存储器IP核,自定义四轴控制逻辑。
运动控制器设计中软核与轴控制逻辑之间通过Avalon总线通信,完成各轴的脉冲发送及反馈信号检测。
轨迹规划及插补功能在Niosii中软件实现,该结构中Niosii处理器与轴控制逻辑的通信效率较高,可以保证运动控制的精度及实时性。
关键词:
运动控制器;FPGA;Niosii;SOPC
中图分类号:
TP241文献标识码:
A文章编号:
0引言
运动控制器是以中央逻辑单元为核心,以传感器为信号检测元件,以电机和执行单元为控制对象的一种控制装置。
目前一般的实现方式是通过DSP+FPGA来实现,DSP进行软件算法的实现,FPGA负责控制信号和反馈信号的硬件接口实现。
随着嵌入式系统的发展,Niosii和microblaze软核的出现,SOPC技术的实现变得简单[1]。
由于SOPC技术在系统可编程的特点,系统的裁剪,扩充,升级变的非常方便。
在基于SOPC技术的设计中,Niosii处理器和FPGA控制逻辑之间的通信通过Avalon总线,整个通信过程需要两个总线周期,更能满足运动控制的实时性要求[4]。
本文提出一种基于SOPC的运动控制器设计,完成四轴的脉冲发生及速度位置