路由器实现网络负载均衡的三种模式Word格式.docx

上传人:b****1 文档编号:4463698 上传时间:2023-05-03 格式:DOCX 页数:12 大小:24.58KB
下载 相关 举报
路由器实现网络负载均衡的三种模式Word格式.docx_第1页
第1页 / 共12页
路由器实现网络负载均衡的三种模式Word格式.docx_第2页
第2页 / 共12页
路由器实现网络负载均衡的三种模式Word格式.docx_第3页
第3页 / 共12页
路由器实现网络负载均衡的三种模式Word格式.docx_第4页
第4页 / 共12页
路由器实现网络负载均衡的三种模式Word格式.docx_第5页
第5页 / 共12页
路由器实现网络负载均衡的三种模式Word格式.docx_第6页
第6页 / 共12页
路由器实现网络负载均衡的三种模式Word格式.docx_第7页
第7页 / 共12页
路由器实现网络负载均衡的三种模式Word格式.docx_第8页
第8页 / 共12页
路由器实现网络负载均衡的三种模式Word格式.docx_第9页
第9页 / 共12页
路由器实现网络负载均衡的三种模式Word格式.docx_第10页
第10页 / 共12页
路由器实现网络负载均衡的三种模式Word格式.docx_第11页
第11页 / 共12页
路由器实现网络负载均衡的三种模式Word格式.docx_第12页
第12页 / 共12页
亲,该文档总共12页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

路由器实现网络负载均衡的三种模式Word格式.docx

《路由器实现网络负载均衡的三种模式Word格式.docx》由会员分享,可在线阅读,更多相关《路由器实现网络负载均衡的三种模式Word格式.docx(12页珍藏版)》请在冰点文库上搜索。

路由器实现网络负载均衡的三种模式Word格式.docx

如果采用IP均衡,让IP依据WAN端带宽大小进行比例均衡分配,例如WAN1与WAN2的带宽比例为2:

1,则PC1、PC2走WAN1,PC3走WAN2,PC4、PC5走WAN1……,即可达到同一个内网PC所发出的应用服务封包,都从固定的WAN口(公网IP)流出,而整体内网IP也会依据带宽大小比例,自动进行均衡配置。

此种配置比较适合常常需要进入特定网站时选择。

模式二:

指定路由

指定路由比起智能型负载均衡而言,是保留了更多的自由设定弹性与例外原则。

由于智能型负载均衡是针对整体内网联机数或是整体IP进行均衡分配。

并不能个别指定某种应用服务、某个特定IP、某个特定网址,通过哪个WAN口出去。

所以,有时会造成特定的服务(例如邮件、VOIP等)或特定的人士(公司老板、高管等)不能有享有优先或例外的不便。

因此,指定路由是提供可配合协议绑定,先分别指定哪个应用服务、哪个IP网段、哪个目的网址,走哪个WAN端口。

而其余剩下未绑定的部份,再进行智能型负载均衡,同样也有协议绑定模式或是IP均衡模式两种选择。

模式三:

策略路由

由于大陆地区普遍存在电信、网通彼此互连不互通的跨网瓶颈。

某家公司若同时接入电信网通线路,有时会明显发现要从电信去访问网通所提供的服务(如游戏下载等其它应用),会发现非常的缓慢,这就是服务器互访非常困难所造成的问题。

策略路由设定,让两个以上互连不互通的ISP线路分流,让电信服务走电信、网通服务走网通,加速服务存取的速度,可大大减低跨网的瓶颈。

Qno侠诺在在产品的接口设计上采用了内建的网通策略模式,指定哪些WAN口只给网通走,即可快速设定完成。

如果有其它的ISP线路需要做策略路由,也可采用自定的策略模式。

策略路由除了普遍应用在电信网通分流之外,也同样可运用在跨国企业、校园网络专线、公众网络、医保专线与一般网络的双网配置架构中,可帮助整合、加速双网的服务质量。

浅谈IDC机房的负载均衡服务

大部分的个人网站在一开始或许只是跟几十人上百人共享的一个虚拟主机空间,然后随着内容的增加和访问量的增长,虚拟主机的带宽、空间已经不能满足需求,站长就得开始考虑为网站购置一台独立的服务器,使用100M共享甚至是10M独享带宽;

而当网站继续发展,访问的用户也已经遍布大江南北,站长又得考虑电信网通的互通问题,在南方和北方各放置一台服务器作为镜像站点,或是采用双线接入;

当这个网站访问量更大时,一味的增加带宽和设置镜像站点无疑会使网站运营成本剧增,加上单个服务器本身也有性能和线程的瓶颈,在并发访问量较大并且集中在一台服务器的时候,“Servertoobusy”就出现了,而这时站长应该采用什么方式使得网站在高访问量的时候仍然拥有较好的访问效果呢?

这就牵涉到负载均衡的话题。

我们之前讨论过CDN,其实CDN除了加速之外,也具有分流的效果,因此在负载均衡领域也有不少应用,其实基本上缓存(Cache)+镜像技术都有分流作用,但是如何分流还是需要一个负载均衡设备进行引导,所以,我们今天专门讨论负载均衡技术。

关于负载均衡服务

负载均衡服务能够平衡服务器群中的所有的服务器和应用之间的通信负载,根据实时响应时间进行判断,将任务交由负载最轻的服务器来处理,以实现真正的智能通信管理和最佳的服务器群性能。

负载均衡技术控制第四层到第七层的应用/内容,从而对不同类型的客户和应用实现了优先级划分和差别服务,使用第七层智能会话恢复技术,同时可以检测出HTTP400,500和600系列的错误。

它透明地将交易重新定向到另一台服务器,从而使系统能够完成该交易。

服务器故障切换和多重冗余特性可以让通信绕过故障点,从而使网站始终保持运行和可访问性。

实现负载均衡的方法

关于实现负载均衡的方法,网上也有不少相关讨论,以下做一些引用:

1、基于特定服务器软件的负载均衡

很多网络协议都支持“重定向”功能,例如在HTTP协议中支持Location指令,接收到这个指令的浏览器将自动重定向到Location指明的另一个URL上。

由于发送Location指令比起执行服务请求,对Web服务器的负载要小的多,因此可以根据这个功能来设计一种负载均衡的服务器。

任何时候Web服务器认为自己负载较大的时候,它就不再直接发送回浏览器请求的网页,而是送回一个Location指令,让浏览器去服务器集群中的其他服务器上获得所需要的网页。

在这种方式下,服务器本身必须支持这种功能,然而具体实现起来却有很多困难,例如一台服务器如何能保证它重定向过的服务器是比较空闲的,并且不会再次发送Location指令,Location指令和浏览器都没有这方面的支持能力,这样很容易在浏览器上形成一种死循环。

因此这种方式实际应用当中并不多见,使用这种方式实现的服务器集群软件也较少。

有些特定情况下可以使用CGI(包括使用FastCGI或mod_perl扩展来改善性能)来模拟这种方式去分担负载,而Web服务器仍然保持简洁、高效的特性,此时避免Location循环的任务将由用户的CGI程序来承担。

2、基于DNS的负载均衡

由于基于服务器软件的负载均衡需要改动软件,因此常常是得不偿失,负载均衡最好是在服务器软件之外来完成,这样才能利用现有服务器软件的种种优势。

最早的负载均衡技术是通过DNS服务中的随机名字解析来实现的,在DNS服务器中,可以为多个不同的地址配置同一个名字,而最终查询这个名字的客户机将在解析这个名字时得到其中的一个地址。

因此,对于同一个名字,不同的客户机会得到不同的地址,他们也就访问不同地址上的Web服务器,从而达到负载均衡的目的。

例如如果希望使用三个Web服务器来回应对的HTTP请求,就可以设置该域的DNS服务器中关于该域的数据包括有与下面例子类似的结果:

www1INA192.168.1.1

www2INA192.168.1.2

www3INA192.168.1.3

wwwINCNAMEwww1

wwwINCNAMEwww2

wwwINCNAMEwww3

此后外部的客户机就可能随机的得到对应www的不同地址,那么随后的HTTP请求也就发送给不同地址了。

DNS负载均衡的优点是简单、易行,并且服务器可以位于互联网的任意位置上,当前使用在包括Yahoo在内的Web站点上。

然而它也存在不少缺点,一个缺点是为了保证DNS数据及时更新,一般都要将DNS的刷新时间设置的较小,但太小就会造成太大的额外网络流量,并且更改了DNS数据之后也不能立即生效;

第二点是DNS负载均衡无法得知服务器之间的差异,它不能做到为性能较好的服务器多分配请求,也不能了解到服务器的当前状态,甚至会出现客户请求集中在某一台服务器上的偶然情况。

3、反向代理负载均衡

使用代理服务器可以将请求转发给内部的Web服务器,使用这种加速模式显然可以提升静态网页的访问速度。

因此也可以考虑使用这种技术,让代理服务器将请求均匀转发给多台内部Web服务器之一上,从而达到负载均衡的目的。

这种代理方式与普通的代理方式有所不同,标准代理方式是客户使用代理访问多个外部Web服务器,而这种代理方式是多个客户使用它访问内部Web服务器,因此也被称为反向代理模式。

实现这个反向代理能力并不能算是一个特别复杂的任务,但是在负载均衡中要求特别高的效率,这样实现起来就不是十分简单的了。

每针对一次代理,代理服务器就必须打开两个连接,一个为对外的连接,一个为对内的连接,因此对于连接请求数量非常大的时候,代理服务器的负载也就非常之大了,在最后反向代理服务器会成为服务的瓶颈。

例如,使用Apache的mod_rproxy模块来实现负载均衡功能时,提供的并发连接数量受Apache本身的并发连接数量的限制。

一般来讲,可以使用它来对连接数量不是特别大,但每次连接都需要消耗大量处理资源的站点进行负载均衡,例如搜寻。

使用反向代理的好处是,可以将负载均衡和代理服务器的高速缓存技术结合在一起,提供有益的性能,具备额外的安全性,外部客户不能直接访问真实的服务器。

并且实现起来可以实现较好的负载均衡策略,将负载可以非常均衡的分给内部服务器,不会出现负载集中到某个服务器的偶然现象。

4、基于NAT的负载均衡技术

网络地址转换为在内部地址和外部地址之间进行转换,以便具备内部地址的计算机能访问外部网络,而当外部网络中的计算机访问地址转换网关拥有的某一外部地址时,地址转换网关能将其转发到一个映射的内部地址上。

因此如果地址转换网关能将每个连接均匀转换为不同的内部服务器地址,此后外部网络中的计算机就各自与自己转换得到的地址上服务器进行通信,从而达到负载分担的目的。

地址转换可以通过软件方式来实现,也可以通过硬件方式来实现。

使用硬件方式进行操作一般称为交换,而当交换必须保存TCP连接信息的时候,这种针对OSI网络层的操作就被称为第四层交换。

支持负载均衡的网络地址转换为第四层交换机的一种重要功能,由于它基于定制的硬件芯片,因此其性能非常优秀,很多交换机声称具备400MB-800MB的第四层交换能力。

使用软件方式来实现基于网络地址转换的负载均衡则要实际的多,除了一些厂商提供的解决方法之外,更有效的方法是使用免费的自由软件来完成这项任务。

其中包括LinuxVirtualServerProject中的NAT实现方式,或者本文作者在FreeBSD下对natd的修订版本。

一般来讲,使用这种软件方式来实现地址转换,中心负载均衡器存在带宽限制,在100MB的快速以太网条件下,能得到最快达80MB的带宽,然而在实际应用中,可能只有40MB-60MB的可用带宽。

IDC提供的负载均衡服务

IDC提供的负载均衡服务有:

互联网数据中心提供的专业负载均衡服务,可以针对用户的服务器做本地负载均衡(ServerLoadBalancing),负载均衡设备采用强劲有效的负载均衡算法,按照实际响应时间,在性能不同的服务器之间进行负载的智能分配,充分利用服务器群中的每一台服务器,保护现有投资,既保证性能一般的服务器不成为系统的瓶颈,也保证性能高的服务器资源得到充分的利用。

大部分的电信IDC互联网数据中心都建立了共享的负载均衡设施(SharedLoadBalancing),该机房的购买此项增值服务的所有托管客户的服务器都可以共享机房购置的负载均衡设施,针对一些高端用户,一些数据中心还推出了独享负载均衡服务(DedicatedLoadBalancingService),该服务主要是为了避免共享用户争用负载均衡设备资源的可能,而且会为个别大型客户单独建立自己的负载均衡设施,以保证达到良好的效果。

共享负载均衡服务(SharedLoadBalancingService)托管客户可以与其它客户共同分享IDC的共享负载均衡设施(SharedLoadBalancing),以低廉的代价,获得服务器的负载均衡服务。

独享负载均衡服务(DedicatedLoadBalancingService)IDC也可以为托管客户提供独享的负载均衡设施,在确保数据安全的情况下,达到更好的负载均衡效果。

但是,只对本地服务器(也就是指本机房服务器)进行负载均衡是不够的,大部分需要负载均衡服务的站点并发访问量都较大,这些站点多数都有异地镜像服务器,因此一些更加专业的IDC机房采用的负载均衡设备还可以穿透网络路由,进行异地镜像站点之间的负载均衡,这类负载均衡就称为异地负载均衡(WebsiteLoadBalancing)。

异地负载均衡服务(WebsiteLoadBalancingService)IDC的负载均衡服务,可以穿透网络路由,进行异地镜像站点之间的负载均衡。

负载均衡服务的更多服务对象:

负载均衡服务并非只针对托管服务器或者独立服务器,上面提到的几种也负载均衡服务可以对用户的防火墙(FirewallLoadBalancing)及虚拟主机(VirtualHostingLoadBalancing)进行负载均衡,其效果和基本原理也是通用的。

服务器网络负载均衡

负载均衡是由多台服务器以对称的方式组成一个服务器集合,每台服务器都具有等价的地位,都可以单独对外提供服务而无须其他服务器的辅助。

通过某种负载分担技术,将外部发送来的请求均匀分配到对称结构中的某一台服务器上,而接收到请求的服务器独立地回应客户的请求。

负载均衡能够平均分配客户请求到服务器列阵,籍此提供快速获取重要数据,解决大量并发访问服务问题。

这种群集技术可以用最少的投资获得接近于大型主机的性能。

网络负载均衡的优点

第一,网络负载均衡能将传入的请求传播到多达32台服务器上,即可以使用最多32台服务器共同分担对外的网络请求服务。

网络负载均衡技术保证即使是在负载很重的情况下,服务器也能做出快速响应;

第二,网络负载均衡对外只需提供一个IP地址(或域名);

第三,当网络负载均衡中的一台或几台服务器不可用时,服务不会中断。

网络负载均衡自动检测到服务器不可用时,能够迅速在剩余的服务器中重新指派客户机通讯。

这项保护措施能够帮助你为关键的业务程序提供不中断的服务,并可以根据网络访问量的增加来相应地增加网络负载均衡服务器的数量;

第四,网络负载均衡可在普通的计算机上实现。

网络负载均衡的实现过程

在WindowsServer2003中,网络负载均衡的应用程序包括Internet信息服务(IIS)、ISAServer2000防火墙与代理服务器、VPN虚拟专用网、终端服务器、WindowsMediaServices(Windows视频点播、视频广播)等服务。

同时,网络负载均衡有助于改善服务器的性能和可伸缩性,以满足不断增长的基于Internet客户端的需求。

网络负载均衡可以让客户端用一个逻辑Internet名称和虚拟IP地址(又称群集IP地址)访问群集,同时保留每台计算机各自的名称。

下面,我们将在两台安装WindowsServer2003的普通计算机上,介绍网络负载均衡的实现及应用。

这两台计算机中,一台计算机名称为A,IP地址为192.168.0.7;

另一台名为B,IP地址为192.168.0.8。

规划网络负载均衡专用虚拟IP地址为192.168.0.9。

当正式应用时,客户机只需要使用IP地址192.168.0.9来访问服务器,网络服务均衡会根据每台服务器的负载情况自动选择192.168.0.7或者192.168.0.8对外提供服务。

具体实现过程如下:

在实现网络负载均衡的每一台计算机上,只能安装TCP/IP协议,不要安装任何其他的协议(如IPX协议或者NetBEUI协议),这可以从“网络连接属性”中查看。

第一步,分别以管理员身份登录A机和B机,打开两台机的“本地连接”属性界面,勾选“此连接使用下列项目”中的“负载均衡”项并进入“属性”对话框,将IP地址都设为192.168.0.9(即负载均衡专用IP),将子网掩码设置为255.255.255.0;

第二步,分别进入A机和B机的“Internet协议(TCP/IP)”属性设置界面,点击“高级”按钮后,在弹出的“高级TCP/IP设置”界面中添加IP地址192.168.0.9和子网掩码设置为255.255.255.0。

第三步,退出两台计算机的“本地连接属性”窗口,耐心等一会儿让系统完成设置。

以后,如果这两台服务器不能满足需求,可以按以上步骤添加第三台、第四台计算机到网络负载均衡系统中以满足要求。

用IIS服务验证网络负载均衡

网络负载均衡配置好后,为了实现某项具体的服务,需要在网络负载均衡的计算机上安装相应的服务。

例如,为了实现IIS网站的负载均衡,需要在相应的网络负载均衡服务器上安装IIS服务。

为了让每个用户在通过网络负载均衡访问到不同的计算机时,能够访问到一致的数据,需要在网络负载均衡的每台计算机上保持数据的一致性。

举例来说,实现了两个节点的IIS的网络负载均衡,为了保证两个网站内容的一致性,除了这两个IIS服务器的配置相同外,相应的网站数据必须一致。

为了检验网络负载均衡,我们可以通过IIS来进行验证,其他的一些应用如终端服务、WindowsMedia服务与IIS的应用与之相类似。

在其他计算机上的IE浏览器中键入192.168.0.9,根据网络的负载,网络负载均衡会自动转发到A机或B机。

为了验证效果,你可以在浏览的时候,拔掉第一台计算机的网线或拔掉第二台机器的网线,将会发现浏览到的将是不同内容。

当然,我们在测试的时候,为了验证网络负载均衡的效果,把两个网站设置成不一致的内容,而在正式应用的时候,网络负载均衡群集的每个节点计算机的内容将是一致的,这样不管使用哪一个节点响应,都能保证访问的内容是一致的。

负载均衡在校园网中的应用

校园网的应用除了用于教学、科研、管理、图书情报资料检索外,还承担任着校内外信息交流、电子邮件、公告、新闻发布,以及各种公共网络口的访问等任务。

由于在网络上传输的信息不只是数字、文字和图形,还会随应用水平的提高,逐步增加语音、活动图像及视频图像等高带宽的应用。

因此,网络的建设,尤其是主干网要求高带宽与高速度,在校园网的服务器中应用负载均衡技术不失为一种廉价的解决方案。

负载均衡技术—什么是负载均衡?

Internet的规模每一百天就会增长一倍,客户希望获得7天24小时的不间断可用性及较快的系统反应时间,而不愿屡次看到某个站点"

ServerTooBusy"

及频繁的系统故障。

网络的各个核心部分随着业务量的提高、访问量和数据流量的快速增长,其处理能力和计算强度也相应增大,使得单一设备根本无法承担。

在此情况下,如果扔掉现有设备去做大量的硬件升级,这样将造成现有资源的浪费,而且如果再面临下一次业务量的提升,这又将导致再一次硬件升级的高额成本投入,甚至性能再卓越的设备也不能满足当前业务量的需求。

于是,负载均衡机制应运而生。

负载均衡(LoadBalance)建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。

负载均衡有两方面的含义:

首先,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;

其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。

什么是负载均衡?

负载均衡(LoadBalance)

由于目前现有网络的各个核心部分随着业务量的提高,访问量和数据流量的快速增长,其处理能力和计算强度也相应地增大,使得单一的服务器设备根本无法承担。

在此情况下,如果扔掉现有设备去做大量的硬件升级,这样将造成现有资源的浪费,而且如果再面临下一次业务量的提升时,这又将导致再一次硬件升级的高额成本投入,甚至性能再卓越的设备也不能满足当前业务量增长的需求。

针对此情况而衍生出来的一种廉价有效透明的方法以扩展现有网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性的技术就是负载均衡(LoadBalance)。

负载均衡技术主要应用

1、DNS负载均衡最早的负载均衡技术是通过DNS来实现的,在DNS中为多个地址配置同一个名字,因而查询这个名字的客户机将得到其中一个地址,从而使得不同的客户访问不同的服务器,达到负载均衡的目的。

DNS负载均衡是一种简单而有效的方法,但是它不能区分服务器的差异,也不能反映服务器的当前运行状态。

2、代理服务器负载均衡使用代理服务器,可以将请求转发给内部的服务器,使用这种加速模式显然可以提升静态网页的访问速度。

然而,也可以考虑这样一种技术,使用代理服务器将请求均匀转发给多台服务器,从而达到负载均衡的目的。

3、地址转换网关负载均衡支持负载均衡的地址转换网关,可以将一个外部IP地址映射为多个内部IP地址,对每次TCP连接请求动态使用其中一个内部地址,达到负载均衡的目的。

4、协议内部支持负载均衡除了这三种负载均衡方式之外,有的协议内部支持与负载均衡相关的功能,例如HTTP协议中的重定向能力等,HTTP运行于TCP连接的最高层。

5、NAT负载均衡NAT(NetworkAddressTranslation网络地址转换)简单地说就是将一个IP地址转换为另一个IP地址,一般用于未经注册的内部地址与合法的、已获注册的InternetIP地址间进行转换。

适用于解决InternetIP地址紧张、不想让网络外部知道内部网络结构等的场合下。

6、反向代理负载均衡普通代理方式是代理内部网络用户访问internet上服务器的连接请求,客户端必须指定代理服务器,并将本来要直接发送到internet上服务器的连接请求发送给代理服务器处理。

反向代理(ReverseProxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个服务器。

反向代理负载均衡技术是把将来自internet上的连接请求以反向代理的方式动态地转发给内部网络上的多台服务器进行处理,从而达到负载均衡的目的。

7、混合型负载均衡在有些大型网络,由于多个服务器群内硬件设备、各自的规模、提供的服务等的差异,我们可以考虑给每个服务器群采用最合适的负载均衡方式,然后又在这多个服务器群间再一次负载均衡或群集起来以一个整体向外界提供服务(即把这多个服务器群当做一个新的服务器群),从而达到最佳的性能。

我们将这种方式称之为混合型负载均衡。

此种方式有时也用于单台均衡设备的性能不能满足大量连接请求的情况下。

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 高等教育 > 法学

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2