计算机体系结构知识点汇总.docx

上传人:b****0 文档编号:9337494 上传时间:2023-05-18 格式:DOCX 页数:21 大小:128.10KB
下载 相关 举报
计算机体系结构知识点汇总.docx_第1页
第1页 / 共21页
计算机体系结构知识点汇总.docx_第2页
第2页 / 共21页
计算机体系结构知识点汇总.docx_第3页
第3页 / 共21页
计算机体系结构知识点汇总.docx_第4页
第4页 / 共21页
计算机体系结构知识点汇总.docx_第5页
第5页 / 共21页
计算机体系结构知识点汇总.docx_第6页
第6页 / 共21页
计算机体系结构知识点汇总.docx_第7页
第7页 / 共21页
计算机体系结构知识点汇总.docx_第8页
第8页 / 共21页
计算机体系结构知识点汇总.docx_第9页
第9页 / 共21页
计算机体系结构知识点汇总.docx_第10页
第10页 / 共21页
计算机体系结构知识点汇总.docx_第11页
第11页 / 共21页
计算机体系结构知识点汇总.docx_第12页
第12页 / 共21页
计算机体系结构知识点汇总.docx_第13页
第13页 / 共21页
计算机体系结构知识点汇总.docx_第14页
第14页 / 共21页
计算机体系结构知识点汇总.docx_第15页
第15页 / 共21页
计算机体系结构知识点汇总.docx_第16页
第16页 / 共21页
计算机体系结构知识点汇总.docx_第17页
第17页 / 共21页
计算机体系结构知识点汇总.docx_第18页
第18页 / 共21页
计算机体系结构知识点汇总.docx_第19页
第19页 / 共21页
计算机体系结构知识点汇总.docx_第20页
第20页 / 共21页
亲,该文档总共21页,到这儿已超出免费预览范围,如果喜欢就下载吧!
下载资源
资源描述

计算机体系结构知识点汇总.docx

《计算机体系结构知识点汇总.docx》由会员分享,可在线阅读,更多相关《计算机体系结构知识点汇总.docx(21页珍藏版)》请在冰点文库上搜索。

计算机体系结构知识点汇总.docx

计算机体系结构知识点汇总

第一章计算机体系结构的基本概念

1.计算机系统结构的经典定义

程序员所看到的计算机属性,即概念性结构与功能特性。

(计算机组成:

指计算机系统结构的逻辑实现。

计算机实现:

计算机组成的物理实现)

2.计算机系统的多级层次结构:

1.虚拟机:

应用语言机器->高级语言机器->汇编语言机器->操作系统机器

2.物理机:

传统机器语言机器->微程序机器

3.透明性:

在计算机技术中,把这种本来存在的事物或属性,但从*种角度看又好像不存在的概念称为透明性。

4.编译:

先用转换程序把高一级机器上的程序转换为低一级机器上等效的程序

5.解释:

对于高一级机器上的程序中的每一条语句或指令,都转去执行低一级机器上的一段等效程序。

6.常见的计算机系统结构分类法有两种:

Flynn分类法、冯氏分类法(按系统并行度

)进行分类。

Flynn分类法把计算机系统的结构分为4类:

单指令流单数据流(SISD)

单指令流多数据流(SIMD)

多指令流单数据流(MISD)

多指令流多数据流(MIMD)

IS指令流,DS数据流,CS(控制流),CU(控制部件),PU(处理部件),MM,SM(表示存储器)

7.计算机设计的定量原理:

1.大概率事件优先原理(分配更多资源,达到更高性能)

2.Amdahl定理:

加速比:

(Fe为可改进比例(可改进部分的执行时间/总的执行时间),Se为部件加速比(改进前/改进后)

3.程序的局部性原理:

时间局部性:

程序即将使用的信息很可能是目前使用的信息。

空间局部性:

即将用到的信息可能与目前用到的信息在空间上相邻或相近。

4.CPU性能公式:

1.时钟周期时间

2.CPI:

CPI=执行程序所需的时钟周期数/IC

3.IC(程序所执行的指令条数)

8.并行性:

计算机系统在同一时刻或者同一时间间隔内进行多种运算或操作。

同时性:

两个或两个以上的事件在同一时刻发生。

并发性:

两个或两个以上的事件在同一时间间隔内发生。

从处理数据的角度来看,并行性等级从低到高可分为:

1.字串位串:

每次只对一个字的一位进行处理。

最基本的串行处理方式,不存在并行性。

2.字串位并:

同时对一个字的全部位进行处理,不同字之间是串行的。

开始出现并行性。

3.字并位串:

同时对许多字的同一位(称为位片)进行处理。

具有较高的并行性。

4.全并行:

同时对许多字的全部位或部分位进行处理。

最高一级的并行。

从执行程序的角度来看,并行性等级从低到高可分为:

1.指令内部并行:

单条指令中各微操作之间的并行。

2.指令级并行:

并行执行两条或两条以上的指令。

3.线程级并行:

并行执行两个或两个以上的线程。

通常是以一个进程内派生的多个线程为调度单位。

4.任务级或过程级并行:

并行执行两个或两个以上的过程或任务(程序段)

以子程序或进程为调度单元。

5.作业或程序级并行:

并行执行两个或两个以上的作业或程序。

提高并行性的技术途径:

引入时间因素,让多个处理过程在时间上相互错开,轮流重叠地使用同一套硬件设备的各个部分,以加快硬件周转而赢得速度。

引入空间因素,以数量取胜。

通过重复设置硬件资源,大幅度地提高计算机系统的性能。

这是一种软件方法,它使多个任务按一定时间顺序轮流使用同一套硬件设备。

3.系列机

由同一厂家生产的具有相同系统结构、但具有不同组成和实现的一系列不同型号的计算机。

7.存储程序原理的基本点:

指令驱动

8.冯·诺依曼结构的主要特点

1.以运算器为中心。

2.在存储器中,指令和数据同等对待。

指令和数据一样可以进行运算,即由指令组成的程序是可以修改的。

3.存储器是按地址访问、按顺序线性编址的一维结构,每个单元的位数是固定的。

4.指令的执行是顺序的

5.指令由操作码和地址码组成。

6.指令和数据均以二进制编码表示,采用二进制运算。

9.软件的可移植性

一个软件可以不经修改或者只需少量修改就可以由一台计算机移植到另一台计算机上正确地运行。

差别只是执行时间的不同。

我们称这两台计算机是软件兼容的。

实现可移植性的常用方法:

采用系列机、模拟与仿真、统一高级语言。

软件兼容:

向上(下)兼容:

按*档机器编制的程序,不加修改就能运行于比它高(低)档的机器。

向前(后)兼容:

按*个时期投入市场的*种型号机器编制的程序,不加修改地就能运行于在它之前(后)投入市场的机器。

向后兼容是系列机的根本特征。

兼容机:

由不同公司厂家生产的具有相同系统结构的计算机。

第二章计算机指令集结构

1.CPU中用来存储操作数的存储单元的主要类型:

堆栈、累加器、通用寄存器组

2.通用寄存器型指令集结构进一步细分为3种类型

寄存器-寄存器型(RR型)

寄存器-存储器型(RM型)

存储器-存储器型(MM型)

3.指令集结构的设计

主要考虑3个因素:

速度、成本、灵活性

对指令集的基本要求:

完整性、规整性、高效率、兼容性

4.设计RISC机器遵循的原则

1.指令条数少而简单。

只选取使用频度很高的指令,在此基础上补充一些最有用的指令。

2.采用简单而又统一的指令格式,并减少寻址方式;指令字长都为32位或64位。

3.指令的执行在单个机器周期内完成。

(采用流水线机制)

4.只有load和store指令才能访问存储器,其他指令的操作都是在寄存器之间进行。

(即采用load-store结构)

5.大多数指令都采用硬连逻辑来实现。

6.强调优化编译器的作用,为高级语言程序生成优化的代码。

7.充分利用流水技术来提高性能。

5.指令由两部分组成:

操作码、地址码

指令集的3种编码格式:

变长编码格式、定长编码格式、混合型编码格式

第三章流水线技术

1.流水线技术:

把一个重复的过程分解为若干个子过程,每个子过程由专门的功能部件来实现。

把多个处理过程在时间上错开,依次通过各功能段,这样,每个子过程就可以与其他的子过程并行进行。

(流水线中的每个子过程及其功能部件称为流水线的级或段,段与段相互连接形成流水线。

流水线的段数称为流水线的深度。

2.CPU流水线:

1.IF(取指令):

根据PC值从指令内存中读取一条指令,并且设置下一周期的PC值。

2.ID(解码):

根据操作码从指令中提取操作数。

3.E*(执行):

执行指令

4.MEM(内存操作)

5.WB(回写):

修改寄存器

3.通过时间:

第一个任务从进入流水线到流出结果所需的时间。

排空时间:

最后一个任务从进入流水线到流出结果所需的时间。

4.流水线分类:

单功能流水线:

只能完成一种固定功能的流水线。

多功能流水线:

流水线的各段可以进行不同的连接,以实现不同的功能。

静态流水线:

在同一时间内,多功能流水线中的各段只能按同一种功能的连接方式工作。

动态流水线:

在同一时间内,多功能流水线中的各段可以按照不同的方式连接,同时执行多种功能。

3.线性流水线与非线性流水线

线性流水线:

流水线的各段串行连接,没有反馈回路。

数据通过流水线中的各段时,每一个段最多只流过一次。

非线性流水线:

流水线中除了有串行的连接外,还有反馈回路。

5.表示方法:

1.连接图:

Figure1多功能流水线,可执行乘与加

2.时空图:

Figure2静态:

加法完成后再进行乘法。

动态:

不要求加法完成

6.性能指标:

1.吞吐率:

在单位时间内流水线所完成的任务数量或输出结果的数量。

2.加速比:

完成同样一批任务,不使用流水线所用的时间与使用流水线所用的时间之比。

3.效率:

流水线中的设备实际使用时间与整个运行时间的比值,即流水线设备的利用率。

n个任务实际占用的时空区/k个段总的时空区

4.当流水线各段时间相等时,流水线的效率与吞吐率成正比。

Tk=(k+n-1)△tE=TP△t

5.流水线的效率是流水线的实际加速比S与它的最大加速比k的比值。

从时空图上看,效率就是n个任务占用的时空面积和k个段总的时空面

之比。

7.流水线相关:

1.数据相关:

数据相关具有传递性,反映了数据的流动关系如果两条指令使用相同的名,但是它们之间并没有数据流动,则称这两条指令存在名相关。

2.名相关:

反相关:

如果指令j写的名与指令i读的名相同,则称指令i和j发生了反相关。

指令j写的名=指令i读的名

输出相关:

如果指令j和指令i写相同的名,则称指令i和j发生了输出相关。

指令j写的名=指令i写的名

3.控制相关:

控制相关是指由分支指令引起的相关

8.流水线冲突:

1.结构冲突:

因硬件资源满足不了指令重叠执行的要求而发生的冲突。

2.数据冲突:

当指令在流水线中重叠执行时,因需要用到前面指令的执行结果而发生的冲突。

3.控制冲突:

流水线遇到分支指令和其他会改变PC值的指令所引起的冲突。

9.解决流水线冲突:

1.数据冲突有:

写后读冲突(RAW)

在i写入之前,j先去读。

j读出的内容是错误的。

对应于数据相关

写后写冲突(WAW)

在i写入之前,j先写。

最后写入的结果是i的。

错误!

对应于输出相关

读后写冲突(WAR)

在i读之前,j先写。

i读出的内容是错误的!

由反相关引起。

定向技术:

在*条指令产生计算结果之前,其他指令并不真正立即需要该计算结果,如果能够将该计算结果从其产生的地方直接送到其他指令需要它的地方,则就可以避免停顿。

流水线互锁机制,插入“暂停”。

作用:

检测发现数据冲突,并使流水线停顿,直至冲突消失。

依靠编译器解决数据冲突

让编译器重新组织指令顺序来消除冲突,这种技术称为指令调度或流水线调度。

2.控制冲突有:

处理分支指令最简单的方法:

“冻结”或者“排空”流水线。

由分支指令引起的延迟称为分支延迟。

减少分支延迟的方法:

预测分支失败

允许分支指令后的指令继续在流水线中流动,就好象什么都没发生似的。

若确定分支失败,将分支指令看作是一条普通指令,流水线正常流动。

若确定分支成功,流水线就把在分支指令之后取出的所有指令转化为空操作,并按分支目地重新取指令执行。

要保证:

分支结果出来之前不会改变处理机的状态,以便一旦猜错时,处理机能够回退到原先的状态。

预测分支成功

假设分支转移成功,并从分支目标地址处取指令执行。

起作用的前题:

先知道分支目标地址,后知道分支是否成功。

前述5段流水线中,这种方法没有任何好处。

延迟分支

主要思想:

从逻辑上“延长”分支指令的执行时间。

把延迟分支看成是由原来的分支指令和若干个延迟槽构成,不管分支是否成功,都要按顺序执行延迟槽中的指令。

分支延迟指令的调度

任务:

在延迟槽中放入有用的指令。

由编译器完成。

能否带来好处取决于编译器能否把有用

的指令调度到延迟槽中。

三种调度方法:

从前调度、从目标处调度、从失败处调度

✧MIPS

若检测到RAW冲突,流水线互锁机制必须在流水线中插入停顿,并使当前正处于IF段和ID段的指令不再前进。

分支指令的条件测试和分支目标地址计算在E*段完成,对PC的修改在MEM段完成。

一条指令的执行过程分为以下5个周期:

1.取指令周期(IF)

IR←Mem[PC]。

  

PC值加4。

(假设每条指令占4个字节)

2.指令译码/读寄存器周期(ID)

译码。

用IR中的寄存器编号去访问通用寄存器组,读出所需的操作数。

3.执行/有效地址计算周期(E*)不同指令所进行的操作不同:

存储器访问指令:

ALU把所指定的寄存器的内容与偏移量相加,形成用于访存的有效地址。

寄存器-寄存器ALU指令:

ALU按照操作码指定的操作对从通用寄存器组中读取的数据进行运算。

寄存器-立即数ALU指令:

ALU按照操作码指定的操作对从通用寄存器组中读取的第一操作数和立即数进行运算。

分支指令:

ALU把偏移量与PC值相加,形成转移目标的地址。

同时,对在前一个周期读出的操作数进行判断,确定分支是否成功。

4存储器访问/分支完成周期(MEM)

该周期处理的指令只有load、store和分支指令。

其他类型的指令在此周期不做任何操作。

load和store指令

load指令:

用上一个周期计算出的有效地址从存储器中读出相应的数据。

store指令:

把指定的数据写入这个有效地址所指出的存储器单元。

分支指令

分支“成功”,就把转移目标地址送入PC。

分支指令执行完成。

5.写回周期(WB)

ALU运算指令和load指令在这个周期把结果数据写入通用寄存器组。

ALU运算指令:

结果数据来自ALU。

load指令:

结果数据来自存储器系统。

相关:

两条指令之间存在*种依赖关系。

流水线冲突是指对于具体的流水线来说,由于相关的存在,使得指令流中的下一条指令不能在指定的时钟周期执行。

第四章:

向量处理机

1.在流水线处理机中,设置向量数据表示和相应的向量指令,称为向量处理机。

(不具有向量数据表示和相应的向量指令的流水线处理机,称为标量处理机。

2.处理方式:

1.横向(水平)处理方式

向量计算是按行的方式从左到右横向地进行。

组成循环程序进行处理。

i

数据相关:

N次功能切换:

2N次

不适合于向量处理机的并行处理。

2.纵向(垂直)处理方式

向量计算是按列的方式从上到下纵向地进行。

两条向量指令之间:

数据相关:

1次功能切换:

1次

对处理机结构的要求:

存储器-存储器结构

3.纵横(分组)处理方式又称为分组处理方式。

把向量分成若干组,组内按纵向方式处理,依次处理各组。

对处理机结构的要求:

寄存器-寄存器结构

3.提高向量处理机性能的方法:

1.设置多个功能部件,使它们并行工作。

2.采用链接技术,加快一串向量指令的执行。

3.采用循环开采技术,加快循环的处理。

(分段开采:

当向量长度大于向量寄存器的长度,将向量分为长度相等的段)

4.采用多处理机系统,进一步提高性能。

4.链接特征:

具有先写后读相关的两条指令,在不出现功能部件冲突和源向量冲突的情况下,可以把功能部件链接起来进行流水处理,以达到加快执行的目的。

链接特性的实质:

把流水线定向的思想引入到向量执行过程的结果。

5.向量处理机性能的主要参数:

1.一行向量长度为n指令的执行时间

2.每秒多少个浮点运算结果(MFLOP或一个浮点运算的时间)

3.一组向量指令的处理时间

4.向量流水线的最大性能R∞

5.半性能向量长度n1/2

第5章指令级并行

这种指令之间存在的潜在并行性称为指令级并行。

指令级并行度ILP:

指令中存在的一种并行性,计算机可以并行执行两条及以上的指令。

开发ILP的途径有两种:

1.资源重复(主要基于硬件的动态开发方法)2.流水线技术。

(基于软件的静态开发方法)

1.流水线处理机的实际CPI

理想流水线的CPI加上各类停顿的时钟周期数:

CPI流水线=CPI理想+停顿结构冲突+停顿数据冲突+停顿控制冲突

理想CPI是衡量流水线最高性能的一个指标。

动态分支预测:

在程序运行时,根据分支指令过去的表现来预测其将来的行为。

2.分支历史表BHT(BranchHistoryTable)或分支预测缓冲器(BranchPredicitonBuffer)

最简单的动态分支预测方法。

用BHT来记录分支指令最近一次或几次的执行情况(成功或不成功),并据此进行预测。

BTB

目标:

将分支的开销降为0

方法:

分支目标缓冲

将分支成功的分支指令的地址和它的分支目标地址都放到一个缓冲区中保存起来,缓冲区以分支指令的地址作为标识。

这个缓冲区就是分支目标缓冲器(Branch-TargetBuffer,简记为BTB,或者Branch-TargetCache)。

3.开发ILP的两种方法:

1.记分牌动态调度算法

目标:

在没有结构冲突时,尽早执行没有数据冲突的指令(指令执行时可以跨越,但是在输出段都是按序流出的),实现每个时钟周期执行一条指令。

记分牌硬件的实现:

1.记分牌中维护着三张表,分别记录指令的执行状态、寄存器的状态、功能部件状态、数据相关关系。

2.它把流水线的译码段ID分为了两个段:

流出和读操作数。

记分牌流水线处理步骤:

1)流出(ID)

如果当前流出指令所需的功能部件空闲(无结构冲突),并且其它执行指令的目的寄存器与该指令的不同(无WAW冲突),记分牌就向功能部件流出该指令,并修改记分牌内部的记录表。

2)读操作数(ID)

监测源操作数的可用性(前面已流出并且正在执行的指令都不对该寄存器进行写操作),如果数据可用,它就通知功能部件从寄存器中读出源操作数并开始执行

3)执行(E*)

取到操作数则开始执行,产生出结果后,就通知记分牌它已经执行完成

4)写结果(WB)

若WAR冲突已经消失,记分牌则通知功能部件把结果写入目的寄存器

记分牌三张表:

1)指令状态表

2)功能部件状态表,每个部件有一项,每一项由以下9个字段组成:

Busy:

忙标志,指出功能部件是否忙。

初值为“no”;

Op:

该功能部件正在执行或将要执行的操作;

Fi:

目的寄存器编号;

Fj,Fk:

源寄存器编号;

Qj,Qk:

指出向源寄存器Fj、Fk写数据的功能部件;

Rj,Rk:

标志位,“yes”表示Fj,Fk中的操作数就绪且还未被取走。

否则就被置为“no”。

3)结果寄存器状态表:

指出哪个功能部件将结果写入寄存器

2.Tomasulo动态调度算法:

1.基本思想:

①记录和监测指令相关,操作数一旦就绪就立即执行,把发生RAW冲突的可能性减小到最小。

②通过寄存器换名来消除WAR冲突和WAW冲突

2.基本结构:

(1)保留站:

保存已经流出并等待到本功能部件执行的指令,在保留站通过流出逻辑来完成的寄存器换名(顺序流出,乱序执行)

(2)公共数据总线(CDB):

所有功能部件计算结果都送到CDB,由它把这些结果直接送到各个需要该结果的地方(乱序完成)

(3)Load/store缓冲器:

作用是①存放计算有效地址的分量。

②记录正在进行的load访存,等待存储器的响应/保存正在进行store访存的目标地址,等待存储数据的到达。

③保存完成了的load的结果(从存储器取来的数据)/保存该store的地址和数据

3.指令执行步骤:

1)流出

2)执行

3)写结果

2.基本程序块:

一段除了入口和出口以外不包含其他分支的线性代码段。

3.循环级并行:

使一个循环中的不同循环体并行执行。

4.程序顺序:

由源程序确定的在完全串行方式下指令的执行顺序。

保持异常行为是指:

无论怎么改变指令的执行顺序,都不能改变程序中异常的发生情况。

数据流:

指数据值从其产生者指令到其消费者指令的实际流动。

静态调度

依靠编译器对代码进行静态调度,以减少相关和冲突。

它不是在程序执行的过程中、而是在编译期间进行代码调度和优化。

通过把相关的指令拉开距离来减少可能产生的停顿。

动态调度

在程序的执行过程中,依靠专门硬件对代码进行调度,减少数据相关导致的停顿

不精确异常:

当执行指令i导致发生异常时,处理机的现场(状态)与严格按程序顺序执行时指令i的现场不同。

精确异常:

如果发生异常时,处理机的现场跟严格按程序顺序执行时指令i的现场相同。

记分牌算法和Tomasulo算法是两种比较典型的动态调度算法。

Tomasulo算法基本思想

1.核心思想

记录和检测指令相关,操作数一旦就绪就立即执行,把发生RAW(readandwrite)冲突的可能性减少到最小;

通过寄存器换名来消除WAR冲突和WAW冲突。

更多地依赖于硬件

寄存器换名可以消除WAR冲突和WAW冲突。

寄存器换名是通过保留站和流出逻辑来共同完成的。

Tomasulo算法具有以下两个特点:

冲突检测和指令执行控制是分布的。

每个功能部件的保留站中的信息决定了什么时候

指令可以在该功能部件开始执行。

计算结果通过CDB直接从产生它的保留站传送到所有需要它的功能部件,而不用经过寄存器。

每个保留站有以下几个字段:

Op:

要对源操作数进行的操作。

Qj,Qk:

将产生源操作数的保留站号。

等于0表示操作数已经就绪且在Vj或Vk中,或者不需要操作数。

Vj,Vk:

源操作数的值。

对于每一个操作数来说,V或Q字段只有一个有效。

对于load来说,Vk字段用于保存偏移量。

Busy:

为“yes”表示本保留站或缓冲单元“忙”。

A:

仅load和store缓冲器有该字段。

开始是存放指令中的立即数字段,地址计算后存放有效地址。

循环展开和指令调度

增加指令间并行性最简单和最常用的方法

开发循环级并行性——循环的不同迭代之间存在的并行性。

在把循环展开后,通过重命名和指令调度来开发更多的并行性。

编译器完成这种指令调度的能力受限于两个特性:

程序固有的指令级并行性;

流水线功能部件的执行延迟。

循环展开和指令调度时要注意以下几个方面:

保证正确性。

在循环展开和调度过程中尤其要注意两个地方的正确性:

循环控制,操作数偏移量的修改。

注意有效性。

只有能够找到不同循环体之间的无关性,才能有效地使用循环展开。

使用不同的寄存器。

(否则可能导致新的冲突)

删除多余的测试指令和分支指令,并对循环结束代码和新的循环体代码进行相应的修正。

注意对存储器数据的相关性分析

例如:

对于load指令和store指令,如果它们在不同的循环迭代中访问的存储器地址是不同的,它们就是相互独立的,可以相互对调。

注意新的相关性

由于原循环不同次的迭代在展开后都到了同一次循环体中,因此可能带来新的相关性。

第九章动态互联网络

互联网络是一种开关元件按照一定的拓扑结构和控制方式构成的网络,用来实现计算机系统中节点之间的相互连接

动态网络分类:

总线网络、多级互联网络、交叉开关网络

互联网络三要素:

互联结构、开关和控制方式

1.基本互联函数:

1)交换函数:

二进制地址编码中第k位互反的输入端与输出端之间的连接。

2)均匀洗牌网络。

3)PM2I函数:

2.互联网络的结构参数:

1)网络规模N:

指互联网络中节点的个数。

它表示该网络所能连接的部件的数量。

网络规模越大,这个互联网络的连接能力越强

2)节点度d:

指互联网络中节点所连接的边数,包括入度,出度。

3)节点距离:

从一个节点到另一个节点终止所需要跨越边数的最小值

4)网络直径D:

指网络中任意两个节点之间距离的最大值(网络直径越小越好)

5)等分宽度b(主要反映网络的最大流量):

把由N个节点构成的网络切成节点数相同的(N/2)的两半,在各种切法中,沿切口边数的最小值称为该网络的等分宽度。

而线等分宽度位B=b×ω(通道宽度,单位是位数)

6)对称性:

从任意节点看,网络结构都是相同的

3.静态互联网络:

各节点之间有固定的连接通路,且在运行中不能改变的网络。

1)ILLIACIV网:

采用PM2±0和PM2±n/2构成其互连网络,实现各处理单元之间的上下左右互连。

2)带环立方体CCC

带环3-立方体

一个带环n-立方体由N=2n个结点环构成,每个结点环是一个有n个结点的环,网络规模(结点总数)为n*2n个。

直径通常为D=2n,结点度为3,等分宽度b=N/(2k),对称。

4.动态互联网络:

由交换开关组成,可按运行程序的要求动态改变连接状态的网络

1)Omega网络(相当于一个banyan网)

5.路由选择和消息传递方式:

1)线路交换:

传递之前建立一条到目的节点的物理通路然后交换

2)包交换:

1)存储转发:

2)虚拟直通(接收寻径的报头即可做出下一跳的判断,输出链路空闲则不用存储直接转发)

3)虫蚀方式:

将信息切割成片(头片->寻径信息和包序列号,数据片)

6.流量控制策略:

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 农林牧渔 > 林学

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2