1) balance load with double path
双链路网络负载分担
3) load sharing
负载分担
1.
A repairable parallel system with load sharing is modeled in this paper.
提出了一个负载分担可修的并联系统模型 ,在系统中 ,n个并联部件是可修的 ,一个部件失效 ,将会导致剩余部件有更高的负载 ,从而引起更高的失效率 。
2.
To improve the performance of Mobility Anchor Point(MAP) selection algorithm for Hierarchical Mobile IPv6(HMIPv6),a novel algorithm supporting load sharing was proposed.
分析了分级移动ipv6(HMipv6)现有移动锚点(MAP)选择算法的不足,提出了一种支持负载分担的新算法。
4) load-sharing
负载分担
1.
In this paper,a repairable parallel system with load-sharing is studied.
在部件寿命、控制器寿命以及部件修理时间均服从指数分布的条件下,研究了负载分担下可修并联系统。
2.
Because of the rapid self-recovery capability of the Resilient Packet Ring technology,the authors have proposed a solution for the redundancy and load-sharing of broadband access server.
由于弹性分组环具有快速自愈、业务分级等特性,论文以此为基础提出了实现宽带接入服务器备份和负载分担的城域网解决方案,并通过实验数据验证了这一解决方案的有效性。
3.
For the repairable parallel system with load-sharing,the controller can be repaired,the number of repairmen is larger than one,the key component to be repaired in priority are considered in this paper,we have analyzed the model reliability.
针对负载分担可修的并联系统模型,考虑了控制器可修,修理工多人的情形,并且在将控制器作为关键部件优先维修的规则下,对模型进行了可靠性分析。
6) link load
链路负载
1.
Based on the conventional method named least loaded routing (LLR), the routing problem in wavelength division multiplexing (WDM) optical networks was discussed, and a novel algorithm called least loaded-hop routing (LLHR) scheme was proposed for multi-fiber networks, which takes into account both link load and route hop.
基于经典的LLR算法,研究了波分复用光网络的路由问题,提出了一种用于多光纤网的新算法—LLHR,该算法综合考虑了链路负载和路由跳数两个因素。
2.
This paper introduce the concept of link load balancing the common method to get the balance and Its application in telecommunication networks.
本文简述了链路负载均衡技术及常用方法,并且对链路负载均衡在电信网络中的实际应用进行了探讨。
3.
The deflection routing was computed and stored in terms of traffic load of the link,and the contention burst deflect or retransmit is confirmed by the average link load rate and hops.
结合偏射路由和丢弃重传的优点,提出了一种基于链路负载的偏射和重传混合的路由算法(LHDR)。
补充资料:网络负载平衡
网络负载平衡允许你将传入的请求传播到最多达32台的服务器上,即可以使用最多32台服务器共同分担对外的网络请求服务。
网络负载平衡技术保证即使是在负载很重的情况下它们也能作出快速响应。网络负载平衡对外只须提供一个IP地址(或域名)。如果网络负载平衡中的一台或几台服务器不可用时,服务不会中断。
网络负载平衡自动检测到服务器不可用时,能够迅速在剩余的服务器中重新指派客户机通讯。此保护措施能够帮助你为关键的业务程序提供不中断的服务。可以根据网络访问量的增多来增加网络负载平衡服务器的数量。网络负载平衡可在普通的计算机上实现。在WindowsServer2003中,网络负载平衡的应用程序包括Internet信息服务(IIS)、ISA Server2000防火墙与代理服务器、VPN虚拟专用网、终端服务器、WindowsMediaServices(Windows视频点播、视频广播)等服务。同时,网络负载平衡有助于改善你的服务器性能和可伸缩性,以满足不断增长的基于Internet客户端的需求。
网络负载平衡可以让客户端用一个逻辑Internet名称和虚拟IP地址(又称群集IP地址)访问群集,同时保留每台计算机各自的名称。
正因为如此,网络负载均衡技术在最近得到了非常迅猛的发展。在接下来的文章内,编者就将向大家简要介绍一下网络负载均衡的工作原理以及三种常见的工作方式。
网络负载均衡技术的诞生与互联网的高速发展有很大的关系。
随着互联网用户的急剧增长,获取信息的速度快慢已经成为制约互联网发展的重要因素。尤其随着电子商务的迅速发展,企业的信息中心已经从侧重计算与数据处理的计算中心和侧重网络与数据通讯的网络中心发展成为一个将计算中心与网络中心功能平衡优化的集成一体的数据中心。作为企业电子商务网络的基础核心,数据中心将汇集高性能计算、数据通讯、语音通讯等处理功能于一体,成为支持企业未来电子商务系统应用的必然平台。
但是,作为企业网的心脏,数据中心面临着众多的挑战。扩展性、灵活性、高性能、可靠性、高密度和安全性无一不是数据中心不可或缺的要求,尤其是在数据流急剧增长的时候还要进行持续稳定的运行。很难想象用户会在屡次遇到“ServerTooBusy”后还能再次访问这个网站;更难以想象正在进行信用卡支付时遇到掉线会有多么严重的后果。那么,如何解决这个瓶颈问题呢?如何才能切实提高网络的服务质量呢?
图一 负载均衡原理图
负载均衡技术
互联网的快速增长已经使网络服务器面对的访问数量大大增加并且更加不可预知。如今,服务器必须具备提供大量并发访问服务的能力,其处理能力和I/O能力已经成为提供服务的瓶颈。如果客户的增多导致通信量超出了服务器能承受的范围,那么其结果必然是――宕机。
显然,单台服务器有限的性能不可能解决这个问题,一台普通服务器的处理能力只能达到每秒几万个到几十万个请求,无法在一秒钟内处理上百万个甚至更多的请求。但若能将10台这样的服务器组成一个系统,并通过软件技术将所有请求平均分配给所有服务器,那么这个系统就完全拥有每秒钟处理几百万个甚至更多请求的能力。这就是负载均衡最初的基本设计思想。
最早的负载均衡技术是通过DNS来实现的,在DNS中为多个地址配置同一个名字,因而查询这个名字的客户机将得到其中一个地址,从而使得不同的客户访问不同的服务器,达到负载均衡的目的。DNS负载均衡是一种简单而有效的方法,但是它不能区分服务器的差异,也不能反映服务器的当前运行状态。
这种负载均衡的基本设计思想只能算是负载均衡技术的最初应用。现代负载均衡技术除了可以做到合理、平均、实时地均衡系统负载外,还能够确保系统正常运行的高可用性和高可靠性。
网络负载平衡技术保证即使是在负载很重的情况下它们也能作出快速响应。网络负载平衡对外只须提供一个IP地址(或域名)。如果网络负载平衡中的一台或几台服务器不可用时,服务不会中断。
网络负载平衡自动检测到服务器不可用时,能够迅速在剩余的服务器中重新指派客户机通讯。此保护措施能够帮助你为关键的业务程序提供不中断的服务。可以根据网络访问量的增多来增加网络负载平衡服务器的数量。网络负载平衡可在普通的计算机上实现。在WindowsServer2003中,网络负载平衡的应用程序包括Internet信息服务(IIS)、ISA Server2000防火墙与代理服务器、VPN虚拟专用网、终端服务器、WindowsMediaServices(Windows视频点播、视频广播)等服务。同时,网络负载平衡有助于改善你的服务器性能和可伸缩性,以满足不断增长的基于Internet客户端的需求。
网络负载平衡可以让客户端用一个逻辑Internet名称和虚拟IP地址(又称群集IP地址)访问群集,同时保留每台计算机各自的名称。
正因为如此,网络负载均衡技术在最近得到了非常迅猛的发展。在接下来的文章内,编者就将向大家简要介绍一下网络负载均衡的工作原理以及三种常见的工作方式。
网络负载均衡技术的诞生与互联网的高速发展有很大的关系。
随着互联网用户的急剧增长,获取信息的速度快慢已经成为制约互联网发展的重要因素。尤其随着电子商务的迅速发展,企业的信息中心已经从侧重计算与数据处理的计算中心和侧重网络与数据通讯的网络中心发展成为一个将计算中心与网络中心功能平衡优化的集成一体的数据中心。作为企业电子商务网络的基础核心,数据中心将汇集高性能计算、数据通讯、语音通讯等处理功能于一体,成为支持企业未来电子商务系统应用的必然平台。
但是,作为企业网的心脏,数据中心面临着众多的挑战。扩展性、灵活性、高性能、可靠性、高密度和安全性无一不是数据中心不可或缺的要求,尤其是在数据流急剧增长的时候还要进行持续稳定的运行。很难想象用户会在屡次遇到“ServerTooBusy”后还能再次访问这个网站;更难以想象正在进行信用卡支付时遇到掉线会有多么严重的后果。那么,如何解决这个瓶颈问题呢?如何才能切实提高网络的服务质量呢?
图一 负载均衡原理图
负载均衡技术
互联网的快速增长已经使网络服务器面对的访问数量大大增加并且更加不可预知。如今,服务器必须具备提供大量并发访问服务的能力,其处理能力和I/O能力已经成为提供服务的瓶颈。如果客户的增多导致通信量超出了服务器能承受的范围,那么其结果必然是――宕机。
显然,单台服务器有限的性能不可能解决这个问题,一台普通服务器的处理能力只能达到每秒几万个到几十万个请求,无法在一秒钟内处理上百万个甚至更多的请求。但若能将10台这样的服务器组成一个系统,并通过软件技术将所有请求平均分配给所有服务器,那么这个系统就完全拥有每秒钟处理几百万个甚至更多请求的能力。这就是负载均衡最初的基本设计思想。
最早的负载均衡技术是通过DNS来实现的,在DNS中为多个地址配置同一个名字,因而查询这个名字的客户机将得到其中一个地址,从而使得不同的客户访问不同的服务器,达到负载均衡的目的。DNS负载均衡是一种简单而有效的方法,但是它不能区分服务器的差异,也不能反映服务器的当前运行状态。
这种负载均衡的基本设计思想只能算是负载均衡技术的最初应用。现代负载均衡技术除了可以做到合理、平均、实时地均衡系统负载外,还能够确保系统正常运行的高可用性和高可靠性。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条