计算机系统结构期末复习.docx

上传人:b****2 文档编号:17585729 上传时间:2023-07-26 格式:DOCX 页数:19 大小:123.23KB
下载 相关 举报
计算机系统结构期末复习.docx_第1页
第1页 / 共19页
计算机系统结构期末复习.docx_第2页
第2页 / 共19页
计算机系统结构期末复习.docx_第3页
第3页 / 共19页
计算机系统结构期末复习.docx_第4页
第4页 / 共19页
计算机系统结构期末复习.docx_第5页
第5页 / 共19页
计算机系统结构期末复习.docx_第6页
第6页 / 共19页
计算机系统结构期末复习.docx_第7页
第7页 / 共19页
计算机系统结构期末复习.docx_第8页
第8页 / 共19页
计算机系统结构期末复习.docx_第9页
第9页 / 共19页
计算机系统结构期末复习.docx_第10页
第10页 / 共19页
计算机系统结构期末复习.docx_第11页
第11页 / 共19页
计算机系统结构期末复习.docx_第12页
第12页 / 共19页
计算机系统结构期末复习.docx_第13页
第13页 / 共19页
计算机系统结构期末复习.docx_第14页
第14页 / 共19页
计算机系统结构期末复习.docx_第15页
第15页 / 共19页
计算机系统结构期末复习.docx_第16页
第16页 / 共19页
计算机系统结构期末复习.docx_第17页
第17页 / 共19页
计算机系统结构期末复习.docx_第18页
第18页 / 共19页
计算机系统结构期末复习.docx_第19页
第19页 / 共19页
亲,该文档总共19页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

计算机系统结构期末复习.docx

《计算机系统结构期末复习.docx》由会员分享,可在线阅读,更多相关《计算机系统结构期末复习.docx(19页珍藏版)》请在冰点文库上搜索。

计算机系统结构期末复习.docx

计算机系统结构期末复习

计算机系统机构知识点总结

1.名词解释

1)翻译:

翻译是先用转换程序将高一级机器级上的程序整个地变换成低一级机器级上可运行的等效程序,然后再在低一级机器上实现的技术。

2)解释:

解释是在低一级机器级上用它的一串语句或指令来仿真高一级机器级上的一条语句或指令的功能,通过对高一级程序中的每条语句或指令逐条解释来实现的技术。

3)CPI:

表示执行每条指令所需要的平均时钟周期数。

4)MIPS:

是一个用来描述计算机性能的单位,即每秒执行百万条指令。

5)MFLOPS:

是一个用来描述计算机性能的单位,即每秒执行百万次浮点操作。

6)基准程序:

是性能测试程序,并假设他能刻画某一类应用问题的处理和数据移动特征。

基准程序用来测量和预测计算机系统的性能,并能提示它们的体系结构的弱点和特点。

7)基准程序组:

是一套基准程序的控制测试条件及过程的一组特点规则,包括输入数据,输出结果以及性能指标。

8)基准程序系列:

是一套基准程序组。

9)CISC:

复杂指令系统计算机。

10)RISC:

精简指令系统计算机。

11)加载/存储结构:

即只允许LOAD指令和STORE指令执行存储器操作,其他指令均对寄存器进行操作。

12)窗口重叠技术:

为了能更简单、直接的实现过程与过程之间的参数传递。

大多数RISC机器的CPU中都设置有数量较大的寄存器组,让每个过程使用一个有限数量的寄存器窗口,并让调用过程的低位寄存器与被调用的高位寄存器重叠使用。

13)延迟转移技术:

将转移指令与其前面的与转移指令无关的一条或几条指令对换位置,让成功转移总是在紧跟的指令被执行之后发生,从而使预取的指令不作废,同时可节省一个或几个机器周期。

14)退耦CISC/RISC体系结构:

在CPU芯片中有一个前端部分,它将x86代码转换成RISC类指令供后端的RISC核心去完成超标量和/或超流水线执行。

15)后RISC:

商品化微处理器中存在的一种逆向发展趋势是将越来越多的性能加到RISC微处理器中,某加入的特性仍属于RISC类型,但也有许多加入的特性明显的是非RISC或甚至是属于CISC类型的。

16)存储体系:

是指计算机系统的存储器部分由多种不同的存储器构成,由操作系统和硬件技术来完成程序的定位,使之成为一个完整的整体。

由于它由多级存储器构成,故又称之为存储层次。

17)时间局部性:

是指在最近的未来要用到的信息很可能是现在正在使用的信息。

18)空间局部性:

是指子啊最近的未来要用到的信息很可能与现在正在使用的信息在程序空间上是相邻或相近的。

19)并行主存系统:

是指能够并行读出多个CPU字的单体多字、多体单字交叉、多体多字交叉存取的主存系统。

20)虚拟存储器:

CPU直接访问主存,主存与辅存之间的信息交换由操作系统和硬件来完成,这种把辅存看做主存的一部分,以扩大主存容量的技术,称之为虚拟技术。

21)虚拟地址:

又称逻辑地址,是指访问虚拟空间的地址。

22)物理地址:

是指访问主存空间的地址。

23)地址映像:

是指按某种规则(算法)建立多用户虚拟地址Ns与物理地址np之间的而对应关系。

24)地址变换:

是指程序按某种映像关系装入实存后,在执行程序时,多用户虚拟地址Ns变换成对应的实存地址np的过程。

25)实页冲突:

是指两个以上的虚页想要进入主存中同一页面现象。

26)页面失效:

是指当CPU访问主存中N道程序中的某道程序时,其虚页不在主存中的情况。

27)散列冲突:

是指当多个不同的用户虚页号散列到同一个块表地址的现象。

28)写回发:

是指在CPU执行写操作命中Cache时,信息只写入Cache,仅当需要被替换时,才将已被写入过的cache快先送回主存,然后再调入新快。

29)写直达发:

是指利用cache-主存存储层次在处理机和主存之间的直接通路,每当处理机写入Cache的同时,也通过此通路直接写入主存。

30)不按写分配法:

当Cache写不命中时只写入主存,该写地址单元所在快不从主存调入Cache。

31)按写分配法:

当Cache写不命中时除写入主存外,还将该写地址单元所在块从主存调入Cache。

32)预取算法:

是指在用到某信息块之前就将其预取进Cache的算法。

33)恒预取:

是指只要访问到主存第i块的某个字,不论Cache是否命中,恒发预取命令。

34)不命中时预取:

是指只有访问第i块的某个字不命中时,才发预取命令。

35)物理Cache:

是指CPU访存时,先用虚拟地址差块表以产生物理地址,然后再根据物理地址查主存-Cache地址映像变换机构,若cache命中,则将物理地址转换为Cache地址后访问Cache。

36)虚拟Cache-是指在CPU访存时,直接用虚拟地址访问Cache。

当cache不命中时才去查找快表,或者将Cache的访问和快表的查找同时进行。

37)指令的顺序解释方式:

是指各条机器指令之间顺序串行地执行,执行完一条指令后才取出下一条指令来执行,而且每条机器指令内部的各条微指令也是顺序穿行地执行。

38)指令的流水解释方式:

是指在解释第K条指令的操作完成之前,就可开始解释第K+1指令。

39)静态流水线:

是指在同一时间内,多功能流水线中的各个功能段只能按一种功能的连接方式工作。

40)动态流水线:

是指在同一时间内,多功能流水线中的各个功能段可按不同运算或功能的连接方式工作。

41)线性流水线:

若流水线各段串行连接,没有反馈回路,各个功能段只经过一次。

42)非线性流水线:

如果流水线中除有串行连接的通路外,还有某种反馈回路,使一个任务流经流水线时,需多次经过某个功能段或越过某些功能锻。

43)资源相关:

是指多条指令进入流水线后在同一个

内争用同一功能部件所发生的相关。

44)数据相关:

是指由于相邻的两条或多条指令使用了相同的数据地址(包括寄存器地址和存储单元地址)而发生的关联。

45)先写后读相关:

如果指令

到指令

存在通路,即

执行完后,一定可以执行

,而且如果

的输出(寄存器或赋值变量)与

的某一个输入(用做操作数)相同,则称指令

与指令

存在先写后读相关。

46)先读后写相关:

如果在程次序中,指令

在指令

之后,而且如果

的输出(寄存器或赋值变量)与

的某一个输入(用做操作数)相同,则称指令

与指令

存在先读后写相关。

47)写写相关:

如果在程序次序中,指令

在指令

之后,而且两条指令的输出(寄存器或赋值变量)相同,则称指令

存在写写相关。

48)控制相关:

是指由转移指令引起的相关。

49)流水线的实际吞吐率:

是指从启动流水线处理机开始到流水线操作结束,单位时间内能流出的任务数或能流出的结果数。

50)流水线的加速比:

是指流水线工作相对于等效的非流水线顺序串行工作方式,速度提高的比值。

51)流水线的效率:

是指流水线的设备利用率。

52)预约表:

预约表用于非线性流水线,是一张二维的表格,其横坐标表示流水线工作的时钟周期,纵坐标表示流水线的功能锻,中间画勾表示该功能段在这一时钟周期处于工作状态,空白的地方表示该功能锻在这个时钟周期不工作。

53)冲突向量:

用一个N-1位的位向量来表示后继新任务间隔各种不同拍数送入流水线时,是否会发生功能段使用的冲突,乘此位向量为冲突向量。

54)超标量流水线:

是指在每个时钟周期内要同时发射多条指令并产生多个结果的流水线。

55)VLIW:

超长指令字。

56)超流水线:

是指在每个时钟周期内并发射多条指令且每一时刻只发射一条指令,并产生多个结果的流水线。

57)超标量流水线:

是超标量流水线与超流水线的结合,是指在一个时钟周期内能分时发射多条指令且每一时刻能同时发射多条指令并产生多个结果的流水线。

58)向量刘水处理:

由于向量内各个元素间很少相关,对向量中的各个元素一般有都是执行同一种操作,因此只要能由存储器不断地取得元素,就能对各向量元素进行刘水处理,最充分地发挥流水线的效能,使输出端每个时钟周期能送出一个结果元素。

59)向量流水处理机:

是指将向量数据表示与流水线技术相结合,能进行向量流水处理的处理机。

60)向量冲突:

或称Vi冲突,是指并行工作的各向量指令的源向量或结果向量使用了相同的向量存储器Vi。

61)源向量相关:

当第二条向量指令使用了第一条向量指令的结果向量作为源向量时,称这两条向量存在先写后读的源目向量相关。

62)功能部件冲突:

是指同一个功能部件被一条以上的要求并行工作的向量指令所使用。

63)链接技术:

是流水线中加快运算速度的一种重要技术,它是指在不出现源向量冲突、结果向量冲突、先读后写的向量冲突和功能部件冲突时,通过链接机构将有源目向量相关的前后两条或多条向量指令进行链接而实现并行处理的技术。

64)向量屏蔽技术:

是指借用一个屏蔽向量来控制哪些向量元素参加运算,哪些元素不参加运算的技术。

而屏蔽向量是通过向量测试得到的。

65)向量流水线的最大性能:

是指向量长度趋于i无穷大时的向量流水线的渐进性能。

66)半性能向量长度:

是指为达到R无穷值的一半所需的向量长度。

67)向量和标量的平衡点:

表示向量流水方式的工作速度优于标量串行方式时所需的向量长度临界值。

1.选择题:

10*2分=20分

2.名词解释5*4=20分

3.简答题:

4*8分=32分

4.计算题:

28分

5.选择题:

8*2分=16分

6.名词解释5*4=20分

7.简答题:

4*8分=32分

8.计算题:

32分

1、软件、硬件关系

软件、硬件在逻辑功能上是等价的。

从原理上讲软件功能可用硬件或固件完成,硬件可以用软件来模拟,只是性能、价格及实现的难易程度不同。

软、硬件功能分配

在满足应用的前提下,软、硬功能分配比例的确定,需要看能否充分利用硬件、器件技术的现状和进展,使计算机系统达到较高的性能价格比。

2、透明性及判断

透明性是指一种本来存在的事务或属性,但从某种角度来看似乎不存在。

透明的优缺点:

优点:

是不用知道其存在,可以简化设计。

缺点:

是由于透明而无法对其进行控制。

在一个计算机系统中,低层机器级的概念性结构和功能特性,对高层机器程序员来说是透明的。

3、Cache与虚拟存储器的不同点

CPU直接访问主存,主存与辅存之间的信息交换由操作系统和硬件来完成,这种把辅存看作是主存的一部分,以扩大主存容量的技术,称之为虚拟技术。

用虚拟技术设计的存储器,称为虚拟存储器。

虚拟存储器可以分为三类:

页式、段式、段页式。

两者也至少存在以下四个方面的不同之处:

半导体工艺:

Cache采用与CPU同类型的半导体工艺构成;而主存一般采用MOS半导体工艺构成。

地址映象与变换,替换算法、调度算法的实现:

Cache-全部都用专门的硬件来实现;而虚拟存储器的内部地址映象与变换由硬件来实现,但外部地址映象与变换、替换算法、调度算法等却是全部由软件或软硬件相结合来实现。

透明性:

Cache不仅对应程序员是透明的,而且对系统程序员也是透明的;虚存只对应用程序员透明,而对系统程序员基本上是不透明的。

通路联系方式。

CPU与Cache、CPU与主存之间均有直接的通路,使得在Cache块失效时,Cache调块与CPU访存重叠进行。

而在虚拟存储器中,只存在CPU与主存之间、主存与辅存之间的通路,而CPU与辅存之间没有直接的通路。

4、影响主存的命中率的因素

替换算法

页地址流

分配给程序的主存页数

页面大小Sp

页面调度策略

5、什么是存储体系?

所谓存储体系,是指计算机系统的存储器部分由多种不同的存储器构成,由操作系统和硬件技术来完成程序的定位,使之成为一个完整的整体。

由于它由多级存储器构成,故又称之为存储层次。

 

6、AMDAL定律

改进后的整个任务的执行时间Te为:

Te=To(1-fe+fe/re)

其中,

To为改进前的整个任务的执行时间

re=(改进前改进部分的执行时间)/(改进后改进部分的执行时间),即改进部分的性能提高倍数。

fe=(改进前可改进部分占用的时间)/(改进前整个任务的执行时间),即改进部分所占比例。

7、局部性原理。

程序访问的局部性原理

局部性的实质:

根据程序执行的最近情况,可以较精确的预测出最近的将来将要用到哪些指令和数据。

局部性分时间上的局部性和空间上的局部性。

时间上的局部性指最近访问过的代码是不久将被再次访问的代码。

空间上的局部性指那些地址上相邻的代码可能会被一起访问。

实验表明,一个程序用90%的时间执行10%的代码。

局部性规律是指令结构和存储体系设计的主要理论依据。

8、Flynn分类法按照什么来分类,分为哪几类

按照指令流和数据流的多倍性状况对计算机系统进行分类。

单指令流单数据流(SISD)

单指令流多数据流(SIMD)

多指令流但数据流(MISD)

多指令流多数据流(MIMD)

9、RISC计算机与CISC计算机对比?

庞大的指令系统。

在指令系统中增加更多的指令并采用复杂的指令,以适应不同应用领域的需要,并考虑尽量减少指令系统与高级语言的语义差异,以便于高级语言程序编译和降低软件成本

采用了可变长度的指令格式。

需要专门的电路来计算和存储指令的字节数。

指令使用的寻址方式繁多。

简化高级语言的编译,需要越多的硬件逻辑来实现和支持。

CISC中包括一些用于特殊用途的指令。

简单的指令,占指令总数的20%,出现的频度占80%。

复杂的指令系统增加微处理器的复杂性,使微处理器研制时间长、成本高。

复杂指令需要复杂的操作,从而降低了机器的速度。

各种指令的使用频率相差悬殊。

椐统计约有20%的指令使用频率最大,占运行时间的80%。

指令系统的复杂性

带来了计算机体系结构的复杂性,这不仅增加了研制时间和成本,而且还容易造成设计错误。

还给VLSI设计带来了很大负担,不利于单片集成

许多复杂指令需要很复杂的操作,因而运行速度慢。

各条指令的功能不均衡性,不利于采用先进的计算机体系结构技术(如流水技术)来提高系统的性能。

选取使用频度最高的一些基本指令。

采用简单的指令格式、规整的指令字长和简单的寻址方式。

采用多级指令流水线结构。

采用加载/存储结构。

在CPU中设置数量较大的寄存器组,并采用重叠寄存器窗口的技术。

延迟加载指令和延迟转移技术。

采用高速缓存结构。

设置两个Cache,分别存放指令和数据。

在设计上采用硬连线实现和微程序固件实现相结合。

采用优化编译技术

RISC的争论:

正方:

RISC廉价和运行速度快,代表未来微处理器的发展特征。

反方:

RISC软件开发变得更复杂,即使执行相同的任务也必须编写更多的程序来完成,不能代表未来的方向。

实际RISC和CISC体系的结构越来越接近:

今天的RISC芯片仍然支持更多过去的CISC芯片

今天CISC芯片运用了很多与RISC体系相关的技术

可以说,RISC和CISC是在共同发展的。

10、计算机系统结构、计算机组成和计算机实现的关系?

计算机系统结构是系统的软、硬件界面

计算机组成是系统结构的逻辑实现

计算机实现是组成的物理实现

一对多的关系,即一种计算机系统结构可以对应多种计算机组成;一种计算机组成可对应多种计算机实现

计算机实现是计算机系统结构和计算机组成的基础,其技术的发展对计算机系统结构有着很大的影响,而计算机组成也会影响计算机系统结构。

系统结构的设计必须结合应用考虑,为软件和算法的实现提供更多更好的支持。

包含的内容随不同的机器和时间而变化

11、页面失效频率法

页面失效频率法

当程序的命中率低于某个限定值时,就增加分配给该程序的页面数,以提高命中率。

而当命中率高于某个限定值时就减少分配给该程序的页面数,将节省出来的主存页面分配给其它程序。

目的:

使整个系统的总的命中率和主存利用率都得到提高。

12、数据整数边界存储

整数边界存储,即信息在主存中的存放的地址必须是该信息宽度(字节数)的整数倍,这样可以保证所有信息在一个存储周期中访问。

13、写回法与写直达法

写回法是指在CPU执行写操作时,信息只写入Cache,仅当需要被替换时,才将已被写入过的Cache块先送回主存,然后再调入新块。

写回法包括简单写回法和采用标志位写回法。

简单写回法是不管块是否更新,都进行写回操作。

而采用标志位写回法只在块被更新过时,才进行写回操作。

写直达法是利用Cache-主存存储层次在处理机和主存之间的直接通路,每当处理机写入Cache的同时,也通过此通路直接写入主存。

这样在块替换时,就不必先写回主存,而可立即调入新块。

写回法与写直达法的区别:

时间花销:

写回法在页面替换的时候,而写直达法则是花费在每次写Cache时。

缓冲区:

写回法中缓冲器用于暂存将要写回的块。

写直达法中则用于缓冲由写Cache所要求的要写回主存的内容。

通讯量:

写回法使主存的通讯量比写直达法的要小的多,但它增加了Cache的复杂性,并且存在主存内容与Cache内容不一致的问题。

可靠性:

写直达法的可靠性比写回法的可靠性要高。

成本:

写回法则实现成本低。

单处理机,多数采用写回法以节省成本为主,而共享主存的多处理机系统,为保证可靠性,多数采用写直达法。

14、cache常用的地址映象方法有

全相联映象、

直接映象、

组相联映象、

段相联映象。

15、在重叠处理方式中存在哪几种数据相关?

相关问题的处理

当一段程序的邻近指令之间出现某种关联后,为了避免出错而使它们不能同时被解释的现象称之为“相关”。

相关可以分为:

指令相关

操作数相关

主存空间数相关

通用寄存器组相关

通用寄存器基址值或变址值相关

具体处理方法是?

指令相关是指第k条指令执行的结果会影响第k+1条指令内容而产生的关联,造成第k条指令和第k+1条指令不能同时解释。

解决:

不允许执行时修改指令

设置特殊的“执行”指令,将指令相关转化为数据相关。

操作数相关是指在第k条指令和第k+1条指令的数据地址之间发生关联,而造成第k条指令和第k+1条指令不能同时解释的现象。

主存空间数相关

通用寄存器组数相关。

通用寄存器组的变址值相关。

主存空间数相关是指相邻两条指令之间出现要求对主存同一单元先写入而后再读出的关联。

主存空间数相关的处理方法通常采用推后第k+1条指令的读操作数。

具体方法是由存控通过给读数、写数申请安排不同的访存优先级来解决。

通常将访存优先级依次定为通道申请、写数、读数、取指令。

通用寄存器组相关的解决

解决方法:

方法1:

分析指令后推1周期。

只要发生数相关就使一次重叠变成了完全的顺序串行,速度明显下降

方法2:

分析指令后推1节拍(L2相关)或2节拍(L1相关)。

发生数相关时,相邻两条指令的解释仍有部分重叠,可以减少速度损失,但控制要稍微复杂一些。

方法3:

寄存器相关通路

既保证了相关时不用推后“分析k+1”,重叠效率不下降,又可以保证指令重叠解释时数据不出错。

基(变)址相关的解决

解决方法:

方法1:

采用后推执行

一次相关

二次相关

方法2:

采用相关专用通路

由于B一次、二次相关的概率并不很低,增设B相关专用通路还是值得的,

数据相关的解决方法:

推后分析法、设置相关专用通路

16、虚拟存储器的命中率与哪些因素有关,有什么关系

页地址流、页面调度策略、替换算法、页面大小、分配给程序的页数(主存容量等)

页面大小Sp与命中率H的关系

若分配给该道程序的主存容量固定

增大页面,总页数减少:

对同页内的访问命中率会上升

对不同页的两个地址则命中率下降。

页面的大小要选用最佳值,一般为1K到16K左右。

分配给程序的主存容量S1与命中率H的关系

如果分配给某道程序的容量S1增大

可以提高命中率(即可以延缓由于两个地址分属不同页的情况而使命中率下降的情况)

但分配给某道程序的容量S1的增大对命中率的上升也只是在开始时比较明显

主存命中率与所采用的页面调度策略有关

一般有两种页面调度策略:

请求式页面调度策略。

即只有当发生页面失效时,才把所需的页调入主存。

预取工作区调度策略。

它将准备运行的某道程序上一次停止运行前一段时期用到过的虚页集合事先调入主存,然后再启动。

这种预取工作区的方法可以免除在程序启动后出现的大量页面失效,

但常常会把许多不再用到的虚页也调入主存而浪费了辅助开销。

17、什么是堆栈型替换算法

定义:

对任意的页地址流,作两次主存页面数分配(分别分配m个主存页面和n个主存页面,并且有m≤n)。

如果在任何时刻t,主存中页面数集合Bt都满足关系:

则这类算法称为堆栈型替换算法。

堆栈型算法的基本特点:

随着分配给程序的主存页面数增加,主存的命中率也提高,至少不下降。

18、链接技术使用的条件

实现链接的条件:

前后指令存在先写后读数据相关

前后指令没有其它向量寄存器冲突和运算部件冲突。

只有第一个结果送入向量寄存器的那一个周期可以链接,否则下一条指令要等到前条指令执行完成,才开始执行。

当一条指令的两个操作数来源于先行的两条指令,则这两条指令产生运算结果的时间必须相等。

两条向量指令的向量长度必须相等。

19、向量指令并行的条件

两条向量指令可以并行执行的条件:

两条向量指令同时启用不同的功能部件(功能部件冲突)

使用不同的向量寄存器(Vi冲突)

使用不同的输入、输出数据总线(总线部件冲突)

20、RISC结构采用了哪些基本技术?

选取使用频度最高的一些基本指令。

采用简单的指令格式、规整的指令字长和简单的寻址方式。

采用多级指令流水线结构。

采用加载/存储结构。

在CPU中设置数量较大的寄存器组,并采用重叠寄存器窗口的技术。

延迟加载指令和延迟转移技术。

采用高速缓存结构。

设置两个Cache,分别存放指令和数据。

在设计上采用硬连线实现和微程序固件实现相结合。

采用优化编译技术

21、cache不一致性的解决

1.更新主存内容的算法

写回法是指在CPU执行写操作时,信息只写入Cache,仅当需要被替换时,才将已被写入过的Cache块先送回主存,然后再调入新块。

写回法包括简单写回法和采用标志位写回法。

简单写回法是不管块是否更新,都进行写回操作。

而采用标志位写回法只在块被更新过时,才进行写回操作。

写直达法是利用Cache-主存存储层次在处理机和主存之间的直接通路,每当处理机写入Cache的同时,也通过此通路直接写入主存。

这样在块替换时,就不必先写回主存,而可立即调入新块。

共享主存的多处理机系统更新主存内容的透明性分析

22

常见的替换算法有:

随机算法(RAND,Randomalgorithm)

先进先出算法(FIFO,First-InFirst-Outalgorithm)

近期最少使用算法(LRU,LeastRecentlyUsedalgorithm)

最久没有使用算法(LFU,LeastFrequentlyUsedalgorithm)

最优替换算法(OPT,OPTimalreplacemantalgorithm)

三、计算题:

a)CPU运行时间计算及CPI,MIPS

b)指令编码

c)向量运算时间计算

d)预取,命中率及访问效率

e)流水线时空图

f)替换算法及命中率

g)非线性流水线

h)cacheMM地址格式

 

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > IT计算机

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2