双活数据中心建设方案
双活数据中心建设方案
PAGE
PAGE # / 159 / 15
目录
TOC \o "1-5" \h \z \o "Current Document" 第1章 概述 2
\o "Current Document" 数据集中阶段的数据中心建设 2
\o "Current Document" 传统架构存在的问题 2
\o "Current Document" H3C 全融合虚拟化架构 3
\o "Current Document" 双活数据中心建设目标 3
\o "Current Document" 第2 章 双活数据中心业务部署 5
\o "Current Document" 2.1基于IP的业务部署模式 5
\o "Current Document" 模式简介 5
\o "Current Document" 企业数据中心IP业务典型部署 5
\o "Current Document" 基于 DNS 的业务部署模式 7
\o "Current Document" DNS 技术简介 7
\o "Current Document" 企业数据中心 DNS 典型部署 8
\o "Current Document" GSLB 与 SLB 10
\o "Current Document" 第3章 XXXX 双活数据中心设计 13
XXXX网络结构 13
\o "Current Document" XXXX双活数据中心部署 13
第1 章 概述
为进一步推进 XXXX 信息化建设,以信息化推动 XXXX 业务工作的改革与发展, XXXX 在科技楼建有核心机房和一个小的本地容灾备份中心, 现在在干保楼又新建了容 灾网,实现同城双中心布局。
为提高业务可靠性与双中心设备资源的利用率, XXXX 拟建同城双活数据中心,达 到双中心同时对外提供同种业务的目标, 同时实现业务切换无感知、 计算资源灵活调度 的功能目标。
1.1 数据集中阶段的数据中心建设
1.1.1 传统架构存在的问题
传统数据中心网络采用传统以太网技术构建,随着各类业务应用对 IT 需求的深入 发展,业务部门对资源的需求正以几何级数增长,传统的 IT 基础架构方式给管理员和 未来业务的扩展带来巨大挑战。具体而言存在如下问题:
维护管理难: 在传统构架的网络中进行业务扩容、迁移或增加新的服务功能越
来越困难,每一次变更都将牵涉相互关联的、不同时期按不同初衷建设的多种
物理设施,涉及多个不同领域、不同服务方向,工作繁琐、维护困难,而且容
易出现漏洞和差错。比如数据中心新增加一个业务类型,需要调整新的应用访
问控制需求,此时管理员不仅要了解新业务的逻辑访问策略,还要精通物理的 防火墙实体的部署、连接、安装,要考虑是增加新的防火墙端口、还是需要添 置新的防火墙设备, 要考虑如何以及何处接入, 有没有相应的接口, 如何跳线, 以及随之而来的 VLAN 、路由等等,如果网络中还有诸如地址转换、 7 层交换 等等服务与之相关联,那将是非常繁杂的任务。当这样的 IT 资源需求在短期
内累积,将极易在使得系统维护的质量和稳定性下降,同时反过来减慢新业务 的部署,进而阻碍公司业务的推进和发展。
资源利用率低: 传统架构方式对底层资源的投入与在上层业务所收到的效果很
难得到同比发展,最普遍的现象就是忙的设备不堪重负,闲的设备资源储备过
多,二者相互之间又无法借用和共用。这是由于对底层网络建设是以功能单元
为中心进行建设的,并不考虑上层业务对底层资源调用的优化,这使得对网络
的投入往往无法取得同样的业务应用效果的改善, 反而浪费了较多的资源和维 护成本。
服务策略不一致: 传统架构最严重的问题是这种以孤立的设备功能为中心的设
计思路无法真正从整个系统角度制订统一的服务策略,比如安全策略、高可用
性策略、业务优化策略等等,造成跨平台策略的不一致性,从而难以将所投入 的产品能力形成合力为上层业务提供强大的服务支撑。
1.1.2 H3C 全融合虚拟化架构
H3C 提供横向虚拟化、 1 虚多的设备虚拟化以及纵向虚拟化的全融合虚拟化方案。
通过建设网络资源池, 不仅简化了网络部署, 而且提高了网络设备的利用率, 是业界最 具优势的数据中心网络解决方案。
1.2 双活数据中心建设目标
XXXX 双活数据中心应实现如下设计目标:
简化管理: 同城双中心业务统一部署,统一管理,使上层业务的变更作用于物 理设施的复杂度降低,能够最低限度的减少了物理资源的直接调度,使维护管 理的难度和成本大大降低。
高效复用: 同城双中心网络资源与计算资源高效利用,减少设备主备部署,提 高网络设备利用率。物理服务器部署虚拟机,实现计算资源高度复用,提高计 算资源利用率。
策略一致: 降低具体设备个体的策略复杂性,最大程度的在设备层面以上建立 统一、抽象的服务,每一个被充分抽象的服务都按找上层调用的目标进行统一 的规范和策略化,这样整个 IT 将可以达到理想的服务规则和策略的一致性。
无缝切换: 同城双中心同时对外提供同一种业务,当某中心业务失效,要实现 应用的无缝切换,在短时间内实现业务的快速恢复。
资源调度: 同城双中心二层互联,计算资源可以在双中心之间灵活迁移,快 速扩展,统一调度。
第2章 双活数据中心业务部署
2.1基于IP的业务部署模式
2.1.1模式简介
基于IP发布的业务一般用于企业内部管理,业务运营。客户直接通过访问某个 IP
地址来实现端到端通信。由标准的路由协议以及健康路由注入来实现 IP地址的自动发
布。
2.1.2企业数据中心IP业务典型部署
茲据中亡山发布主机路由司中■ciurfiorfc VL/WV1P-B5er>j?er vlaniStow翠 irBivoTk1T毛的存
茲据中亡山
发布主机路由
司中■ciurfiorfc VL/W
V1P-B
5er>j?er vlani
Stow翠 irBivoTk
1T毛的存嚅何蛊
VTP
Sv^c- FaiiiiMer
Device Group
Heartbeat .
两个数据中心的SLB跨中心部署HA Cluster,服务器跨数据中心部署负载均衡集
群。同一个业务的在两个数据中心的业务 IP不同,分别为VIP-A与VIP-B。
1、部署时External self IP和业务IP可以直接使用相同的网段,因为用户访问业
务时通过主机路由进行选路,而 HA Cluster中只有为Active的SLB才会发布主机路
由。
2、对于同一业务,数据中心A使用VIP-A对外提供服务,数据中心B使用VIP-B
对外提供服务,实现业务在两个数据中心之间的负载均衡,当数据中心 A发生故障时,
Traffic group-1 将进行HA切换,VIP-A的主机路由将由数据中心 B的SLB发布。
如果数据中心A的SLB发生故障,如图所示
境布主机路由
P^odLCtion VLAN
s arvarVUVM
5>nc*Faila?er
Device Gr^up
由于两个数据中心的SLB跨中心部署HA Cluster,服务器跨数据中心部署负载均
衡集群,所以数据中心B的SLB在一个心跳周期结束之后,感知到数据中心 A的SLB
无响应,数据中心A的SLB发生故障,Traffic Group-1 将发生HA切换,此时用户访 问VIP-A时将直接到达数据中心B,由SLB处理后发送至数据中心 A的服务器
如果当数据中心A的服务器发生故障,如图所示
VWPrndLtiQDn V ANI/:!■=卜H>"iTirrtTStorage netvrcrk
VW
PrndLtiQDn V ANI
/:!■=卜
H>"iTirrtT
Storage netvrcrk
数据中心SLB探测到本中心的服务器都故障,则触发Traffic Group-1 将发生HA 切换,此时用户访问VIP-A时将直接到达数据中心B,由数据中心B的服务器进行处 理,因为此时数据中心 A的服务器已无处理能力。
2.2基于DNS的业务部署模式
2.2.1 DNS技术简介
什么BDNS
DN5是域呂真第Duindh Ndii t SysLern&T^ ” 土卷实现域WEI1P地址白螂听 ?正向挈析:即.通过主机冬或域呂童询】P地址
?辰向解析:即,通过【P:性址查与主机容我疇
罐名系统Domain Name System由三个部分鉅咸
靠名空巨(Norrie Space )和资诉运录(Resource Records )
DING窖祢頤器(DN£ Nmme辰rve「),卿域容空间的葩0媛
DM5解析器(DNS Revolvers ).葩的发迅者
DNS解析模式
■隻呂翼忙理弍.Rtcuruve r?oljtion;
僅用考兵吉出一?《:,由DM5 SEIVEf■芫戎芸唯所亲利奁甸后晅应
■ 'Iterative resolution \
蓦四指示性曲应,由测盘再逆行鈕巧兰沟
在PNS珈g碍躍中,Clien t35?wr^)j£?3 ^10, Strwr有Server之旬皿吃空屯
Rw.hJc.wm A?Loci ON510.(3 _:A_771A*k h3c i?rip
Rw.hJc.wm A?
Loci ON5
10.(3 _:A_77
1
A*k h3c i?ripw 忙 m hSc cow
222企业数据中心 DNS典型部署
Hb:d- Lj-:cLVIP APr;:C..- ic t \ I A'J怙良叵歩VIMVIP-BStorage nets^oik
Hb:d- Lj-:cL
VIP A
Pr;:C..- ic t \ I A'J
怙良叵歩
VIM
VIP-B
Storage nets^oik
扩.隹的存以湖坦
Syr c- Falouer
Or vice Group
数据申亡A
Server VI AN ]
数据申心B
数据中心A和数据中心B分别使用VIP-A和VIP-B对外提供服务,当用户请求 域名时,GSLB根据设定的权值给不同用户返回 VIP-A或VIP-B。
SLB实现HA Cluster后,可以根据将不同的业务IP划分到不同的Traffic Group , HA的切换是基于 Traffic Group实现的,以 VIP-A 对应的Traffic Group-1 为例。
Traffic Group-1 的缺省设备是数据中心 A中的SLB,VIP-A在该SLB上生效,当Traffic Group-1发生HA切换后,VIP-A将在数据中心B中的SLB上生效。
SLB对数据中心A和数据中心B内的服务器都进行健康检查,负载分担算法设置 本数据中心内的优先级较高,当有业务需要处理时,会优先选择本数据中心的服务器进 行处理,当本数据中心的服务器都发生故障后,将由远端数据中心的服务器处理业务, 同时触发Traffic Group 的HA切换。
GSLB会对LTM的健康状态进行检查,当发现LTM故障后,将触发DNS的切换, 从而实现全局路径的优化。
如此,即可将客户端访问数据中心的流量实现有效的负载分担, 使双中心的利用率最高
如果数据中心A的SLB故障后,如图所示Storaije networkEync-Fail overDevice GroupHeartbeat数据中心戌数抿中心B信巳同步側Bpraducoon vlan
如果数据中心A的SLB故障后,如图所示
Storaije network
Eync-Fail over
Device Group
Heartbeat
数据中心戌
数抿中心B
信巳同步
側B
praducoon vlan
-
因为两个数据中心的SLB跨中心部署HA Cluster,服务器跨数据中心部署负载均
I
■
MVP
VI A N
[
344M ■电.
1
1
& <ir-i!|v
衡集群
当数据中心A的SLB发生故障时,Traffic Group-1 将发生HA切换,VIP-A在 数据中心B的SLB上生效,用户访问服务器的流量将经过二层 LAN扩展网络到达数据 中心B的SLB,经过处理后再发送至数据中心 A中的服务器进行处理。因此,实现故 障切换过程客户无感知。
当数据中心A的SLB发生故障后,GSLB还是会探测本中心的SLB,在探测超时 后对故障进行感知,触发 DNS切换,此时用户访问时,该域名将被解析为 VIP-B,解 决业务流量次优路径的问题。
如果数据中心A的SLB故障后,如图所示。
双活数据中心建设方案
双活数据中心建设方案
PAGE
PAGE # / 1510 / 15
VII1
Ttdtl
Server VLAN
vejjLXAN
坏
坏
故据中心B
www.Z匚gm
(1^1=步
PT^DduchJon XjT an
Storage network
扩屋的存誉网蜡
截百
I [』[p-A
VIP旧
当数据中心A的服务器都发生故障时,Traffic Group-1
将发生HA切换,VIP-A
在数据中心B的SLB上生效,用户访问服务器的流量将经过二层 LAN扩展网络到达数 据中心B的SLB,服务器返回的流量经过二层 LAN经过二层LAN扩展网络到达数据
中心A,实现业务切换无流量丢失
2.2.3 GSLB 与 SLB
GSLB即全局负载均衡设备,又名 GTM,如下图所示
Global Traffic Manager
■基于DN£的负聯衡、盍量管理机制”主宴完成:
■用户询H是业应用时 域舍醉tHl求穹寰冬生苛阳 氏 蓋处理.它通过一鋼预先^好的策盟■再最接近用户
的冇点地址提供给用户.使用户可以得到扶逵£引須.
印L它圧与丹壬在有DC肉所肖GTMD点保持通乳.
搜集各节点的淀耒伏态.&佛证不陽宇户E]请求左配壬
uvww.hm 匚.mm
IP为 9
ivwyy 二北gm
I咲J 2117221181
FB GTM
任何Y 盟不可用的节点上
主真功能和特性:应用智抵兀管理性和高性能 恐?:尧畳码嚅叽址戢|石鱼爺砍
堆夬去匪壬匡汪玮濯=_埜陆司臣笆
豊哇炬〔60K匚琳)
商恭宜可DN5R二轻
211.72.;1L75
IPtfij*
211.72.211.^0
21173.211.81
L數据电心A
GSLB的工作原理,如下图所示
GTM的DN5解析流程
F5GTMI充当权威名秫服翁骼旳角色r为It业应用提 供外部DNS轲析和内SGDNS斛析能力
I 作施理同DN£ Authoritative Server f 溺#如下:
害户端向本imMsaf结黠晝询指定域名
当廉地0砧服务器在本地/级存中找不剽扌晅峽名时.士向
Knot DNU齢器育询
Root服努器返回F£ GTM服虻器的地二
? 本地DN5脈务器向已GTM服务器诂求DN5無析
rs右?股労瀏艮舷用服勞罄可用性仁詛策,并I时地
DN5孫务器返回合适的置努器I啲址
△也DNS服吏器£]容户曲回城名齋嗨果
'?咅厂喘向所页3的]円枕1:发起育求
GSLB能够完成DNS解析请求的负载均衡、服务器状态监控以及用户访问路径
优化,解决跨中心业务的协同问题,提高多中心资源利用效率,实现全局负载均 衡。
SLB即服务器负载均衡设备,又名 LTM,主要用来完成本地流量的管理,实 现服务器集群的负载分担,同时通过多种算法探测服务器健康状态, 给业务切换 提供依据与触发条件。
如下图所示
Local Traffic Manager
■年地盂屋冒理「主要完成:
■三要躅
书 ICMP Monitor
边 TCP Monitor
总 H i~ P kfunitor
■J) FTP Monitor
■主妄负裁均崔算去
龙 Round Rc-bin[¥faS
燼 現a廿otttM-
?歯 Priarity[*fc^=SQ
■5 Least Conned:ion:iiJgs^-^^?L:
迪尬协求〔冇呃殴忑蛮
电 Observed
■Z'卩「詢巾咗箕陳模式I
LTM设备能够支持四台跨数据中心集群,实现 SLB的LOCAL CLUSTER的功能, 提高了 LTM本身的稳定性与可靠性,同时实现多业务的负载分担。
LTM 的 Cluster 介绍
多个LTIV1可以构建HA集群r提高LTM的可靠性
Device Group :设备组
Floating IP :浮动IP
Traffic Group :流量组
Device GluupFTlITTCiri^adiye Inactiverioaiing IP— LTM HA集群中可以有多个traffic group ,每^traffic group对应 f 业务IP f HA的主备关系是以traffic group为粒度的「不同的 traffic group的恥tive设备可以在不同的LTM上‘从而实现业务的负 载分担中当traffic group发生切换时#业务I卩会在新的mctig设备上 生效。日ct讥与inactive设备之间有业务连接信息的镜像
Device Gluup
FTlITTCiri^
adiye Inactive
rioaiing IP
第3章XXXX双活数据中心设计
3.1 XXXX网络结构
3.2XXXX双活数据中心部署
XXXX双活数据中心关键在于中心 A和中心B各部署两台S12500核心交换机。
核心交换机部署横向虚拟化IRF, —虚多MDC以及云间互联EVI,配合GTM和LTM, 实现应用级容灾。
部署过程如下:
1.双中心各两台S12508先横向虚拟化IRF,将两台或多台物理设备虚拟成一台逻 辑设备,逻辑上成为一个网元。
如图所示。
横向虚拟化的优势IRF:
?统一的管理:由其中某物理设备的某控制单元作为整组设备的控制单元
?统一的板卡和端口命名:各个设备加机框 ID的前缀
? 统一的 L2/L3、IPv4/IPv6、MPLS 等转发表
?可以实现跨设备的链路聚合
2.在横向虚拟化的基础之上,再部署一虚多的设备虚拟化技术MDC
(Multite na nt Device Co ntext ),可以实现将一台物理网络设备通过软件虚拟
化成多台逻辑网络设备。也就是说通过软、硬件虚拟化的配合, MDC逻辑设备具
有完全的设备功能,有独立的软件环境和数据,有独立的硬件资源。甚至可以像一 台物理设备一样单独重启,而不影响物理设备上其他 MDC的正常运行。
如图所示
在MDC1所属的板卡上可以部署各个业务的业务网关,在 MDC2上部署EVI
特性,实现双中心之间的二层互通,优化二层网络质量,防止单中心故障域扩散到 多中心。双中心之间的光纤链路保持,可以提高二层互联的传输保障。
3?两个数据中心部署LTM,可以实现四台LTM跨中心部署可集群,可以保证 虚拟机迁移过程中业务的不中断。
数据中心之间通过EVI隧道建立二层LAN扩展网络,LTM经过二层LAN扩展 网络做HA Cluster,每个数据中心使用LTM构建服务器的负载均衡集群。
两个数据中心提供相同业务,数据中心 A中的集群的业务IP使用External VIP-A,两个数据中心的LTM共享该地址,其中数据中心A的LTM为缺省设备,将发 布VIP_A的主机路由,当该LTM故障后,数据中心B的LTM上配置的External VIP-A 立即生效,将发布 VIP_A 的主机路由,同时数据中心 A 的 LTM 撤销 VIP_A 的主机路 由,以实现业务在数据中心之间的切换。每个数据中心的 LTM 同时对两个数据中心的 服务器进行探测, 通过负载均衡算法优选本数据中心内的服务器, 当本数据中心内的服 务器都故障时,选择远端数据中心的服务器提供服务。数据中心 B 中的集群的公网 IP 使用 External VIP-B ,采用类似的方式部署,此处不再赘述。
4.两个数据中心部署 GTM , GTM提供对DNS的解析,同时GTM对LTM的 状态进行健康检查,当 GTM 感知到数据中心 A 的 LTM 发生故障时,将进行 DNS 切 换,对于新的DNS请求,GTM将引导客户直接访问数据中心 B。同时,GTM支持基 于VS的负载均衡,即多个VIP提供同一服务,对应一个域名时,可以在多个 VIP之间 负载分担。
- 下载文档
- 收藏
- 0
推荐访问:建设方案 数据中心 方案 建设 双活数据中心建设方案