路由器实现网络负载均衡的三种模式“负载均衡”概念运用在网络上简单来说是利
用多个网络设备通道均衡分担流量。就像是寺庙一天要挑10桶水1个尚必需要走10趟但同时指派10个和尚却只要一趟即可完成工作的道理一样。负载均衡可运用多个网络设备同时工作达成加速网络信息的处理能力进而优化网络设备的性能取代设备必须不停升级或淘汰的命运。目前普遍被运用在网络设备中如服务器、路由器、交换机等。目前提出的三种不同的负载均衡模式可较全面的包含各种网络架构中所应采取措施三种模式分别是模式一智能型负载均衡智能型负载均衡模式是依据接入WAN端带宽的大小比例自动完成负载均衡工作进一步协助达成带宽使用率的优化服务器地址
目的。Qno侠诺在智能型负载均衡模式中提供了联机数均衡与IP均衡两种选择。联机数均衡是依据WAN端带宽大小比例将内网所有的联网机数作均衡分配。例如WAN1接入4M、WAN2接入2M则联机数就会依据2:1分配。此种配置是网管员最一般的配置模式。而IP均衡模式是为了避免某些网站EX银行网站或HTTPS类型的网站只能接受来自同一个公网IP的所发出封包的瓶颈。如果采用联机数负载均衡模式会发生该IP所发出的访问封包不一定是从固定WAN口流出造成特定网站拒绝服务
导致断线的情况发生。如果采用IP均衡让IP依据WAN端带宽大小进行比例均衡分配例如WAN1与WAN2的带宽比例为2:1则PC1、PC2走WAN1PC3走WAN2PC4、PC5走WAN1……即可达到同一个内网PC所发出的应用服务封包都从固定的WAN口公网IP流出而整体内网IP也会依据带宽大小比例自动进行均衡配置。此
种配置比较适合常常需要进入特定网站时选择。模式二指定路由指定路由比起智能型负载均衡而言是保留了更多的自由设定弹性与例外原则。由于智能型负载均衡是针对整体内网联机数或是整体IP进行均衡分配。并不能个别指定某种应用服务、某个特定IP、某个特定网址通过哪个WAN口出去。所以有时会造成特定的服务例如邮件、VOIP 等或特定的人士公司老板、高管等不能有享有优先或例外的不便。因此指定路由是提供可配合协议绑定先分别指定哪个应用服务、哪个IP网段、哪个目的网址走哪个WAN端口。而其余剩下未绑定的部份再进行智能型负载均衡同样也有协议绑定模式或是IP均衡模式两种选择。模式三策略路由由于大陆地区普遍存在电信、网通彼此互连不互通的跨网瓶颈。某家公司若同时接入电信网通线路有时会明显发现要从电信去访问网通所提供的服务如游戏下载等其它应用会发现非常的缓慢这就是服务器互访非常困难所造成的问题。策略路由设定让两个以上互连不互通的ISP线路分流让电信服务走电信、网通服务走网通加速服务存取的速度可大大减低跨网的瓶颈。Qno侠诺在在产品的接口设计上采用了内建的网通策略模式指定哪些WAN口只给
网通走即可快速设定完成。如果有其它的ISP线路需要做策略路由也可采用自定的策略模式。策略路由除了普遍应用在电信网通分流之外也同样可运用在跨国企业、校园网络专线、公众网络、医保专线与一般网络的双网配置架构中可帮助整合、加速双网的服务质量。浅谈IDC机房的负载均衡服务大部分的个人网站在一开始或许只是跟几十人上百人共享的一个虚拟主机空间然后随着内容的增加和访问量的增长虚拟主机的带宽、空间已经不能满足需求站长就得开始考虑为网站购置一台独立的服务器使用100M共享甚至是10M独享带宽而当网站继续发展访问的用户也已经遍
布大江南北站长又得考虑电信网通的互通问题在南方和北方各放置一台服务器作为镜像站点或是采用双线接入当这个网站访问量更大时一味的增加带宽和设置镜像站点无疑会使网站运营成本剧增加上单个服务器本身也有性能和线程的瓶颈在并发访
问量较大并且集中在一台服务器的时候“Server too busy”就出现了而这时站长应该采用什么方式使得网站在高访问量的时候仍然拥有较好的访问效果呢这就牵涉到负载均衡的话题。我们之前讨论过CDN其实CDN除了加速之外也具有分流的效果因此在负载均衡领域也有不少应用其实基本上缓存Cache镜像技术都有分流作用但是如何分流还是需要一个负载均衡设备进行引导所以我们今天专门讨论负载均衡技术。关于负载均衡服务负载均衡服务能够平衡服务器中的所有的服务器和应用之间的通信负载根据实时响应时间进行判断将任务交由负载最轻的服务器来处理以实现真正的智能通信管理和最佳的服务器性能。负载均衡技术控制第四层到第七层的应用/内容从而对不同类型的客户和应用实现了优先级划分和差别服务使用第七层智能会话恢复技术同时可以检测出HTTP 400500和600系列的错误。它透明地将交易重新定向到另一台服务器从而使系统能够完成该交易。服务器故障切换和多重冗余特性可以让通信绕过故障点从而使网站始终保持运行和可访问性。实现负载均衡的方法关于实现负载均衡的方法网上也有不少相关讨论以下做一些引用1、基于特定服务器软件的负载均衡很多网络协议都支持“重定向”功能例如在HTTP协议中支持Location指令接收到这个指令的浏览器将自动重定向到Location指明的另一个URL上。由于发送Location指令比起执行服务请求对Web服务器的负载要小的多因此可以根据这个功能来设计一
种负载均衡的服务器。任何时候Web服务器认为自己负载较大的时候它就不再直接发送回浏览器请求的网页而是送回一个Location指令让浏览器去服务器集中的其他服务器上获得所需要的网页。在这种方式下服务器本身必须支持这种功能然而具体实现起来却有很多困难例如一台服务器如何能保证它重定向过的服务器是比较空闲的并且不会再次发送Location指令Location指令和浏览器都没有这方面的支持能力这样很容易在浏览器上形成一种死循环。因此这种方式实际应用当中并不多见使用这种方式实现的服务器集软件也较少。有些特定情况下可以使用CGI包括使用FastCGI或mod_perl扩展来改善性能来模拟这种方式去分担负载而Web服务器仍然保持简洁、高效的特性此时避免Location循环的任务将由用户的CGI程序来承担。2、基于DNS的负载均衡由于基于服务器软件的负载均衡需要改动软件因此常常是得不偿失负载均衡最好是在服务器软件之外来完成这样才能利用现有服务器软件的种种优势。最早的负载均衡技术是通过DNS服务中的随机名字解析来实现的在DNS服务器中可以为多个不同的地址配置同一个名字而最终查询这个名字的客户机将在解析这个名字时得到其中的一个地址。因此对于同一个名字不同的客户机会得到不同的地址他们也就访问不同地址上的Web服务器从而达到负载均衡的目的。例如如果希望使用三个Web服务器来回应对www.ghq的HTTP请求就可以设置该域的DNS服务器中关于该域的数据包括有与下面例子类似的结果: www1 IN A 192.168.1.1 www2 IN A 192.168.1.2 www3 IN A 192.168.1.3 www IN CNAME www1 www IN CNAME www2 www IN CNAME www3 此后外部的客户机就可能随机的得到对应www的不同地址那么随后的HTTP请求也就发送给不同地址了。DNS负载均衡的优点是简单、易行并且服务器可以位于互联网的任意位置上当前使用在包括Yahoo在内的Web站点上。
然而它也存在不少缺点一个缺点是为了保证DNS数据及时更新一般都要将DNS的刷新时间设置的较小但太小就会造成太大的额外网络流量并且更改了DNS数据之后也不能立即生效第二点是DNS负载均衡无法得知服务器之间的差异它不能做到为性能较好的服务器多分配请求也不能了解
到服务器的当前状态甚至会出现客户请求集中在某一台服务器上的偶然情况。3、反向代理负载均衡使用代理服务器可以将请求转发给内部的Web服务器使用这种加速模式显然可以提升静态网页的访问速度。因此也可以考虑使用这种技术让代理服务器将请求均匀转发给多台内部Web服务器之一上从而达到负载均衡的目的。这种代理方式与普通的代理方式有所不同标准代理方式是客户使用代理访问多个外部Web服务器而这种代理方式是多个客户使用它访问内部Web服务器因此也被称为反向代理模式。实现这个反向代理能力并不能算是一个特别复杂的任务但是在负载均衡中要求特别高的效率这样实现起来就不是十分简单的了。每针对一次代理代理服务器就必须打开两个连接一个为对外的连接一个为对内的连接因此对于连接请求数量非常大的时候代理服务器的负载也就非常之大了在最后反向代理服务器会成为服务的瓶颈。例如使用Apache的mod_rproxy模块来实现负载均衡功能时提供的并发连接数量受Apache本身的并发连接数量的限制。一般来讲可以使用它来对连接数量不是特别大但每次连接都需要消耗大量处理资源的站点进行负载均衡例如搜寻。使用反向代理的好处是可以将负载均衡和代理服务器的高速缓存技术结合在一起提供有益的性能具备额外的安全性外部客户不能直接访问真实的服务器。并且实现起来可以实现较好的负载均衡策略将负载可以非常均衡的分给内部服务器不会出现负载集中到某个服务器的
偶然现象。4、基于NAT的负载均衡技术网络地址转换为在内部地址和外部地址之间进行转换以便具备内部地址的计算机能访问外部网络而当外部网络中的计算机访问地址转换网关拥有的某一外部地址时地址转换网关能将其转发到一个映射的内部地址上。因此如果地址转换网关能将每个连接均匀转换为不同的内部服务器地址此后外部网络中的计算机就各自与自己转换得到的地址上服务器进行通信从而达到负载分担的目的。地址转换可以通过软件方式来实现也可以通过硬件方式来实现。使用硬件方式进行操作一般称为交换而当交换必须保存TCP连接信息的时候这种针对OSI网络层的操作就被称为第四层交换。支持负载均衡的网络地址转换为第四层交换机的一种重要功能由于它基于定制的硬件芯片因此其性能非常优秀很多交换机声称具备400MB-800MB的第四层交换能力。使用软件方式来实现基于网络地址转换的负载均衡则要实际的多除了一些厂商提供的解决方法之外更有效的方法是使用免费的自由软件来完成这项任务。其中包括Linux Virtual Server Project中的NAT实现方式或者本文作者在FreeBSD下对natd的修订版本。一般来讲使用这种软件方式来实现地址转换中心负载均衡器存在带宽限制在100MB的快速以太网条件下能得到最快达80MB的带宽然而在实际应用中可能只有40MB-60MB的可用带宽。IDC提供的负载均衡服务IDC提供的负载均衡服务有互联网数据中心提供的专业负载均衡服务可以针对用户的服务器做本地负载均衡Server Load Balancing负载均衡设备采用强劲有效的负载均衡算法按照实际响应时间在性能不同的服务器之间进行负载的智能分配充分利用服务器中的每一台服务器保护现有投资既保证性能一般的服务器不成为系统的瓶颈也保证性能高的服务器资源得到充分的利用。大部分的电信IDC互联网数据中心都建立了共享的负载均衡设施Shared Load Balancing该机房的购买此项增值服务的所有托
管客户的服务器都可以共享机房购置的负载均衡设施针对一些高端用户一些数据中心还推出了独享负载均衡服务Dedicated Load Balancing Service该服务主要是为了避免共享用户争用负载均衡设备资源的可能而且会为个别大型客户单独建立自己的负载均衡设施以保证达到良好的
效果。共享负载均衡服务Shared Load Balancing Service 托管客户可以与其它客户共同分享IDC的共享负载均衡设施Shared Load Balancing以低廉的代价获得服务器的负载均衡服务。独享负载均衡服务Dedicated Load Balancing Service IDC也可以为托管客户提供独享的负载均衡设施在确保数据安全的情况下达到更好的负载均衡效果。但是只对本地服务器也就是指本机房服务器进行负载均衡是不够的大部分需要负载均衡服务的站点并发访问量都较大这些站点多数都有异地镜像服务器因此一些更加专业的IDC 机房采用的负载均衡设备还可以穿透网络路由进行异地镜像站点之间的负载均衡这类负载均衡就称为异地负载均衡Website Load Balancing。异地负载均衡服务Website Load Balancing Service IDC的负载均衡服务可以穿透网络路由进行异地镜像站点之间的负载均衡。负载均衡服务的更多服务对象负载均衡服务并非只针对托管服务器或者独立服务器上面提到的几种也负载均衡服务可以对用户的防火墙Firewall Load Balancing及虚拟主机Virtual Hosting Load Balancing进行负载均衡其效果和基本原理也是通用的。服务器网络负载均衡负载均衡是由多台服务器以对称的方式组成一个服务器集合每台服务器都具有等价的地位都可以单独对外提供服务而无须其他服务器的辅助。通过某种负载分担技术将外部发送来的请求均匀分配到对称结构中的某一台服务器上而接收到请求的服务器独立地回应客户的请求。负载
均衡能够平均分配客户请求到服务器列阵籍此提供快速获取重要数据解决大量并发访问服务问题。这种集技术可以用最少的投资获得接近于大型主机的性能。网络负载均衡的优点第一网络负载均衡能将传入的请求传播到多达32台服务器上即可以使用最多32台服务器共同分担对外的网络请求服务。网络负载均衡技术保证即使是在负载很重的情况下服务器也能做出快速响应第二网络负载均衡对外只需提供一个IP地址或域名第三当网络负载均衡中的一台或几台服务器不可用时服务不会中断。网络负载均衡自动检测到服务器不可用时能够迅速在剩余的服务器中重新指派客户机通讯。这项保护措施能够帮助你为关键的业务程序提供不中断的服务并可以根据网络访问量的增加来相应地增加网络负载均衡服务器的数量第四网络负载均衡可在普通的计算机上实现。网络负载均衡的实现过程在Windows Server 2003中网络负载均衡的应用程序包括Internet信息服务IIS、ISA Server 2000防火墙与代理服务器、VPN虚拟专用网、终端服务器、Windows Media ServicesWindows 视频点播、视频广播等服务。同时网络负载均衡有助于改善服务器的性能和可伸缩性以满足不断增长的基于Internet客户端的需求。网络负载均衡可以让客户端用一个逻辑Internet名称和虚拟IP地址又称集IP地址访问集同时保留每台计算机各自的名称。下面我们将在两台安装Windows Server 2003的普通计算机上介绍网络负载均衡的实现及应用。这两台计算机中一台计算机名称为AIP地址为192.168.0.7另一台名为BIP地址为192.168.0.8。规划网络负载均衡专用虚拟IP地址为192.168.0.9。当正式应用时客户机只需要使用IP地址192.168.0.9来访问服务器网络服务均衡会根据每台服务器的负载情况自动选择192.168.0.7或者192.168.0.8对外提供服务。具体实现过程如下在实现网络负载均衡的每一台计算机上只能安装TCP/IP协议不要安装任何其他的协议如IPX协议或
者NetBEUI协议这可以从“网络连接属性”中查看。第一步分别以管理员身份登录A机和B机打开两台机的“本地连接”属性界面勾选“此连接使用下列项目”中的“负载均衡”项并进入“属性”对话框将IP地址都设为192.168.0.9即负载均衡专用IP将子网掩码设置为255.255.255.0 第二步分别进入A机和B机的
“Internet协议TCP/IP”属性设置界面点击“高级”按钮后在弹出的“高级TCP/IP设置”界面中添加IP地址192.168.0.9和子网掩码设置为255.255.255.0。第三步退出两台计算机的“本地连接属性”窗口耐心等一会儿让系统完成设置。以后如果这两台服务器不能满足需求可以按以上步骤添加第三台、第四台计算机到网络负载均衡系统中以满足要求。用IIS服务验证网络负载均衡网络负载均衡配置好后为了实现某项具体的服务需要在网络负载均衡的计算机上安装相应的服务。例如为了实现IIS网站的负载均衡需要在相应的网络负载均衡服务器上安装IIS服务。为了让每个用户在通过网络负载均衡访问到不同的计算机时能够访问到一致的数据需要在网络负载均衡的每台计算机上保持数据的一致性。举例来说实现了两个节点的IIS的网络负载均衡为了保证两个网站内容的一致性除了这两个IIS服务器的配置相同外相应的网站数据必须一致。为了检验网络负载均衡我们可以通过IIS来进行验证其他的一些应用如终端服务、Windows Media服务与IIS的应用与之相类似。在其他计算机上的IE浏览器中键入192.168.0.9根据网络的负载网络负载均衡会自动转发到A机或B机。为了验证效果你可以在浏览的时候拔掉第一台计算机的网线或拔掉第二台机器的网线将会发现浏览到的将是不同内容。当然我们在测试的时候为了验证网络负载均衡的效果把两个网站设置成不一致的内容而在正式应用的时候网络负载均衡集的每个节点计算机的内容将是一致的这
样不管使用哪一个节点响应都能保证访问的内容是一致的。负载均衡在校园网中的应用校园网的应用除了用于教学、科研、管理、图书情报资料检索外还承担任着校内外信?⒔涣鳌⒌缱佑始 ⒐ 妗⑿挛欧⒉家约案髦止 餐 缈诘姆梦实热挝瘛S捎谠谕 缟洗 涞男畔不只是数字、文字和图形还会随应用水平的提高逐步增加语音、活动图像及视频图像等高带宽的应用。因此网络的建设尤其是主干网要求高带宽与高速度在校园网的服务器中应用负载均衡技术不失为一种廉价的解决方案。负载均衡技术—什么是负载均衡Internet的规模每一百天就会增长一倍客户希望获得7天24小时的不间断可用性及较快的系统反应时间而不愿屡次看到某个站点Server Too Busy及频繁的系统故障。网络的各个核心部分随着业务量的提高、访问量和数据流量的快速增长其处理能力和计算强度也相应增大使得单一设备根本无法承担。在此情况下如果扔掉现有设备去做大量的硬件升级这样将造成现有资源的浪费而且如果再面临下一次业务量的提升这又将导致再一次硬件升级的高额成本投入甚至性能再卓越的设备也不能满足当前业务量的需求。于是负载均衡机制应运而生。负载均衡Load Balance建立在现有网络结构之上它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。负载均衡有两方面的含义首先大量的并发访问或数据流量分担到多台节点设备上分别处理减少用户等待响应的时间其次单个重负载的运算分担到多台节点设备上做并行处理每个节点设备处理结束后将结果汇总返回给用户系统处理能力得到大幅度提高。什么是负载均衡负载均衡Load Balance 由于目前现有网络的各个核心部分随着业务量的提高访问量和数据流量的快速增长其处理能力和计算强度也相应地增大使得单一的服务器设备根本无法承担。在此情况下如果扔掉现有设备去做大量的硬件升级这样将造成
现有资源的浪费而且如果再面临下一次业务量的提升时这又将导致再一次硬件升级的高额成本投入甚至性能再卓越的设备也不能满足当前业务量增长的需求。针对此情况而衍生出来的一种廉价有效透明的方法以扩展现有网络设备和服务器的带宽、增加吞吐量、加

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。