双活数据中心建设方案

时间:2020-11-29 09:11:00 手机站 来源:网友投稿

双活数据中心建设方案

双活数据中心建设方案

PAGE

PAGE # / 159 / 15

目录

TOC \o "1-5" \h \z \o "Current Document" 第1章 概述 2

\o "Current Document" 数据集中阶段的数据中心建设 2

\o "Current Document" 传统架构存在的问题 2

\o "Current Document" H3C 全融合虚拟化架构 3

\o "Current Document" 双活数据中心建设目标 3

\o "Current Document" 第2 章 双活数据中心业务部署 5

\o "Current Document" 2.1基于IP的业务部署模式 5

\o "Current Document" 模式简介 5

\o "Current Document" 企业数据中心IP业务典型部署 5

\o "Current Document" 基于 DNS 的业务部署模式 7

\o "Current Document" DNS 技术简介 7

\o "Current Document" 企业数据中心 DNS 典型部署 8

\o "Current Document" GSLB 与 SLB 10

\o "Current Document" 第3章 XXXX 双活数据中心设计 13

XXXX网络结构 13

\o "Current Document" XXXX双活数据中心部署 13

第1 章 概述

为进一步推进 XXXX 信息化建设,以信息化推动 XXXX 业务工作的改革与发展, XXXX 在科技楼建有核心机房和一个小的本地容灾备份中心, 现在在干保楼又新建了容 灾网,实现同城双中心布局。

为提高业务可靠性与双中心设备资源的利用率, XXXX 拟建同城双活数据中心,达 到双中心同时对外提供同种业务的目标, 同时实现业务切换无感知、 计算资源灵活调度 的功能目标。

1.1 数据集中阶段的数据中心建设

1.1.1 传统架构存在的问题

传统数据中心网络采用传统以太网技术构建,随着各类业务应用对 IT 需求的深入 发展,业务部门对资源的需求正以几何级数增长,传统的 IT 基础架构方式给管理员和 未来业务的扩展带来巨大挑战。具体而言存在如下问题:

维护管理难: 在传统构架的网络中进行业务扩容、迁移或增加新的服务功能越

来越困难,每一次变更都将牵涉相互关联的、不同时期按不同初衷建设的多种

物理设施,涉及多个不同领域、不同服务方向,工作繁琐、维护困难,而且容

易出现漏洞和差错。比如数据中心新增加一个业务类型,需要调整新的应用访

问控制需求,此时管理员不仅要了解新业务的逻辑访问策略,还要精通物理的 防火墙实体的部署、连接、安装,要考虑是增加新的防火墙端口、还是需要添 置新的防火墙设备, 要考虑如何以及何处接入, 有没有相应的接口, 如何跳线, 以及随之而来的 VLAN 、路由等等,如果网络中还有诸如地址转换、 7 层交换 等等服务与之相关联,那将是非常繁杂的任务。当这样的 IT 资源需求在短期

内累积,将极易在使得系统维护的质量和稳定性下降,同时反过来减慢新业务 的部署,进而阻碍公司业务的推进和发展。

资源利用率低: 传统架构方式对底层资源的投入与在上层业务所收到的效果很

难得到同比发展,最普遍的现象就是忙的设备不堪重负,闲的设备资源储备过

多,二者相互之间又无法借用和共用。这是由于对底层网络建设是以功能单元

为中心进行建设的,并不考虑上层业务对底层资源调用的优化,这使得对网络

的投入往往无法取得同样的业务应用效果的改善, 反而浪费了较多的资源和维 护成本。

服务策略不一致: 传统架构最严重的问题是这种以孤立的设备功能为中心的设

计思路无法真正从整个系统角度制订统一的服务策略,比如安全策略、高可用

性策略、业务优化策略等等,造成跨平台策略的不一致性,从而难以将所投入 的产品能力形成合力为上层业务提供强大的服务支撑。

1.1.2 H3C 全融合虚拟化架构

H3C 提供横向虚拟化、 1 虚多的设备虚拟化以及纵向虚拟化的全融合虚拟化方案。

 通过建设网络资源池, 不仅简化了网络部署, 而且提高了网络设备的利用率, 是业界最 具优势的数据中心网络解决方案。

1.2 双活数据中心建设目标

XXXX 双活数据中心应实现如下设计目标:

简化管理: 同城双中心业务统一部署,统一管理,使上层业务的变更作用于物 理设施的复杂度降低,能够最低限度的减少了物理资源的直接调度,使维护管 理的难度和成本大大降低。

高效复用: 同城双中心网络资源与计算资源高效利用,减少设备主备部署,提 高网络设备利用率。物理服务器部署虚拟机,实现计算资源高度复用,提高计 算资源利用率。

策略一致: 降低具体设备个体的策略复杂性,最大程度的在设备层面以上建立 统一、抽象的服务,每一个被充分抽象的服务都按找上层调用的目标进行统一 的规范和策略化,这样整个 IT 将可以达到理想的服务规则和策略的一致性。

无缝切换: 同城双中心同时对外提供同一种业务,当某中心业务失效,要实现 应用的无缝切换,在短时间内实现业务的快速恢复。

资源调度: 同城双中心二层互联,计算资源可以在双中心之间灵活迁移,快 速扩展,统一调度。

第2章 双活数据中心业务部署

2.1基于IP的业务部署模式

2.1.1模式简介

基于IP发布的业务一般用于企业内部管理,业务运营。客户直接通过访问某个 IP

地址来实现端到端通信。由标准的路由协议以及健康路由注入来实现 IP地址的自动发

布。

2.1.2企业数据中心IP业务典型部署

茲据中亡山发布主机路由司中■ciurfiorfc VL/WV1P-B5er>j?er vlaniStow翠 irBivoTk1T毛的存

茲据中亡山

发布主机路由

司中■ciurfiorfc VL/W

V1P-B

5er>j?er vlani

Stow翠 irBivoTk

1T毛的存嚅何蛊

VTP

Sv^c- FaiiiiMer

Device Group

Heartbeat .

两个数据中心的SLB跨中心部署HA Cluster,服务器跨数据中心部署负载均衡集

群。同一个业务的在两个数据中心的业务 IP不同,分别为VIP-A与VIP-B。

1、部署时External self IP和业务IP可以直接使用相同的网段,因为用户访问业

务时通过主机路由进行选路,而 HA Cluster中只有为Active的SLB才会发布主机路

由。

2、对于同一业务,数据中心A使用VIP-A对外提供服务,数据中心B使用VIP-B

对外提供服务,实现业务在两个数据中心之间的负载均衡,当数据中心 A发生故障时,

Traffic group-1 将进行HA切换,VIP-A的主机路由将由数据中心 B的SLB发布。

如果数据中心A的SLB发生故障,如图所示

境布主机路由

P^odLCtion VLAN

s arvarVUVM

5>nc*Faila?er

Device Gr^up

由于两个数据中心的SLB跨中心部署HA Cluster,服务器跨数据中心部署负载均

衡集群,所以数据中心B的SLB在一个心跳周期结束之后,感知到数据中心 A的SLB

无响应,数据中心A的SLB发生故障,Traffic Group-1 将发生HA切换,此时用户访 问VIP-A时将直接到达数据中心B,由SLB处理后发送至数据中心 A的服务器

如果当数据中心A的服务器发生故障,如图所示

VWPrndLtiQDn V ANI/:!■=卜H>"iTirrtTStorage netvrcrk

VW

PrndLtiQDn V ANI

/:!■=卜

H>"iTirrtT

Storage netvrcrk

数据中心SLB探测到本中心的服务器都故障,则触发Traffic Group-1 将发生HA 切换,此时用户访问VIP-A时将直接到达数据中心B,由数据中心B的服务器进行处 理,因为此时数据中心 A的服务器已无处理能力。

2.2基于DNS的业务部署模式

2.2.1 DNS技术简介

什么BDNS

DN5是域呂真第Duindh Ndii t SysLern&T^ ” 土卷实现域WEI1P地址白螂听 ?正向挈析:即.通过主机冬或域呂童询】P地址

?辰向解析:即,通过【P:性址查与主机容我疇

罐名系统Domain Name System由三个部分鉅咸

靠名空巨(Norrie Space )和资诉运录(Resource Records )

DING窖祢頤器(DN£ Nmme辰rve「),卿域容空间的葩0媛

DM5解析器(DNS Revolvers ).葩的发迅者

DNS解析模式

■隻呂翼忙理弍.Rtcuruve r?oljtion;

僅用考兵吉出一?《:,由DM5 SEIVEf■芫戎芸唯所亲利奁甸后晅应

■ 'Iterative resolution \

蓦四指示性曲应,由测盘再逆行鈕巧兰沟

在PNS珈g碍躍中,Clien t35?wr^)j£?3 ^10, Strwr有Server之旬皿吃空屯

Rw.hJc.wm A?Loci ON510.(3 _:A_771A*k h3c i?rip

Rw.hJc.wm A?

Loci ON5

10.(3 _:A_77

1

A*k h3c i?ripw 忙 m hSc cow

222企业数据中心 DNS典型部署

Hb:d- Lj-:cLVIP APr;:C..- ic t \ I A'J怙良叵歩VIMVIP-BStorage nets^oik

Hb:d- Lj-:cL

VIP A

Pr;:C..- ic t \ I A'J

怙良叵歩

VIM

VIP-B

Storage nets^oik

扩.隹的存以湖坦

Syr c- Falouer

Or vice Group

数据申亡A

Server VI AN ]

数据申心B

数据中心A和数据中心B分别使用VIP-A和VIP-B对外提供服务,当用户请求 域名时,GSLB根据设定的权值给不同用户返回 VIP-A或VIP-B。

SLB实现HA Cluster后,可以根据将不同的业务IP划分到不同的Traffic Group , HA的切换是基于 Traffic Group实现的,以 VIP-A 对应的Traffic Group-1 为例。

 Traffic Group-1 的缺省设备是数据中心 A中的SLB,VIP-A在该SLB上生效,当Traffic Group-1发生HA切换后,VIP-A将在数据中心B中的SLB上生效。

SLB对数据中心A和数据中心B内的服务器都进行健康检查,负载分担算法设置 本数据中心内的优先级较高,当有业务需要处理时,会优先选择本数据中心的服务器进 行处理,当本数据中心的服务器都发生故障后,将由远端数据中心的服务器处理业务, 同时触发Traffic Group 的HA切换。

GSLB会对LTM的健康状态进行检查,当发现LTM故障后,将触发DNS的切换, 从而实现全局路径的优化。

如此,即可将客户端访问数据中心的流量实现有效的负载分担, 使双中心的利用率最高

如果数据中心A的SLB故障后,如图所示Storaije networkEync-Fail overDevice GroupHeartbeat数据中心戌数抿中心B信巳同步側Bpraducoon vlan

如果数据中心A的SLB故障后,如图所示

Storaije network

Eync-Fail over

Device Group

Heartbeat

数据中心戌

数抿中心B

信巳同步

側B

praducoon vlan

-

因为两个数据中心的SLB跨中心部署HA Cluster,服务器跨数据中心部署负载均

I

MVP

VI A N

[

344M ■电.

1

1

& <ir-i!|v

衡集群

当数据中心A的SLB发生故障时,Traffic Group-1 将发生HA切换,VIP-A在 数据中心B的SLB上生效,用户访问服务器的流量将经过二层 LAN扩展网络到达数据 中心B的SLB,经过处理后再发送至数据中心 A中的服务器进行处理。因此,实现故 障切换过程客户无感知。

当数据中心A的SLB发生故障后,GSLB还是会探测本中心的SLB,在探测超时 后对故障进行感知,触发 DNS切换,此时用户访问时,该域名将被解析为 VIP-B,解 决业务流量次优路径的问题。

如果数据中心A的SLB故障后,如图所示。

双活数据中心建设方案

双活数据中心建设方案

PAGE

PAGE # / 1510 / 15

VII1

Ttdtl

Server VLAN

vejjLXAN

故据中心B

www.Z匚gm

(1^1=步

PT^DduchJon XjT an

Storage network

扩屋的存誉网蜡

截百

I [』[p-A

VIP旧

当数据中心A的服务器都发生故障时,Traffic Group-1

将发生HA切换,VIP-A

在数据中心B的SLB上生效,用户访问服务器的流量将经过二层 LAN扩展网络到达数 据中心B的SLB,服务器返回的流量经过二层 LAN经过二层LAN扩展网络到达数据

中心A,实现业务切换无流量丢失

2.2.3 GSLB 与 SLB

GSLB即全局负载均衡设备,又名 GTM,如下图所示

Global Traffic Manager

■基于DN£的负聯衡、盍量管理机制”主宴完成:

■用户询H是业应用时 域舍醉tHl求穹寰冬生苛阳 氏 蓋处理.它通过一鋼预先^好的策盟■再最接近用户

的冇点地址提供给用户.使用户可以得到扶逵£引須.

印L它圧与丹壬在有DC肉所肖GTMD点保持通乳.

搜集各节点的淀耒伏态.&佛证不陽宇户E]请求左配壬

uvww.hm 匚.mm

IP为 9

ivwyy 二北gm

I咲J 2117221181

FB GTM

任何Y 盟不可用的节点上

主真功能和特性:应用智抵兀管理性和高性能 恐?:尧畳码嚅叽址戢|石鱼爺砍

堆夬去匪壬匡汪玮濯=_埜陆司臣笆

豊哇炬〔60K匚琳)

商恭宜可DN5R二轻

211.72.;1L75

IPtfij*

211.72.211.^0

21173.211.81

L數据电心A

GSLB的工作原理,如下图所示

GTM的DN5解析流程

F5GTMI充当权威名秫服翁骼旳角色r为It业应用提 供外部DNS轲析和内SGDNS斛析能力

I 作施理同DN£ Authoritative Server f 溺#如下:

害户端向本imMsaf结黠晝询指定域名

当廉地0砧服务器在本地/级存中找不剽扌晅峽名时.士向

Knot DNU齢器育询

Root服努器返回F£ GTM服虻器的地二

? 本地DN5脈务器向已GTM服务器诂求DN5無析

rs右?股労瀏艮舷用服勞罄可用性仁詛策,并I时地

DN5孫务器返回合适的置努器I啲址

△也DNS服吏器£]容户曲回城名齋嗨果

'?咅厂喘向所页3的]円枕1:发起育求

GSLB能够完成DNS解析请求的负载均衡、服务器状态监控以及用户访问路径

优化,解决跨中心业务的协同问题,提高多中心资源利用效率,实现全局负载均 衡。

SLB即服务器负载均衡设备,又名 LTM,主要用来完成本地流量的管理,实 现服务器集群的负载分担,同时通过多种算法探测服务器健康状态, 给业务切换 提供依据与触发条件。

如下图所示

Local Traffic Manager

■年地盂屋冒理「主要完成:

■三要躅

书 ICMP Monitor

边 TCP Monitor

总 H i~ P kfunitor

■J) FTP Monitor

■主妄负裁均崔算去

龙 Round Rc-bin[¥faS

燼 現a廿otttM-

?歯 Priarity[*fc^=SQ

■5 Least Conned:ion:iiJgs^-^^?L:

迪尬协求〔冇呃殴忑蛮

电 Observed

■Z'卩「詢巾咗箕陳模式I

LTM设备能够支持四台跨数据中心集群,实现 SLB的LOCAL CLUSTER的功能, 提高了 LTM本身的稳定性与可靠性,同时实现多业务的负载分担。

LTM 的 Cluster 介绍

多个LTIV1可以构建HA集群r提高LTM的可靠性

Device Group :设备组

Floating IP :浮动IP

Traffic Group :流量组

Device GluupFTlITTCiri^adiye Inactiverioaiing IP— LTM HA集群中可以有多个traffic group ,每^traffic group对应 f 业务IP f HA的主备关系是以traffic group为粒度的「不同的 traffic group的恥tive设备可以在不同的LTM上‘从而实现业务的负 载分担中当traffic group发生切换时#业务I卩会在新的mctig设备上 生效。日ct讥与inactive设备之间有业务连接信息的镜像

Device Gluup

FTlITTCiri^

adiye Inactive

rioaiing IP

第3章XXXX双活数据中心设计

3.1 XXXX网络结构

3.2XXXX双活数据中心部署

XXXX双活数据中心关键在于中心 A和中心B各部署两台S12500核心交换机。

 核心交换机部署横向虚拟化IRF, —虚多MDC以及云间互联EVI,配合GTM和LTM, 实现应用级容灾。

部署过程如下:

1.双中心各两台S12508先横向虚拟化IRF,将两台或多台物理设备虚拟成一台逻 辑设备,逻辑上成为一个网元。

 如图所示。

横向虚拟化的优势IRF:

?统一的管理:由其中某物理设备的某控制单元作为整组设备的控制单元

?统一的板卡和端口命名:各个设备加机框 ID的前缀

? 统一的 L2/L3、IPv4/IPv6、MPLS 等转发表

?可以实现跨设备的链路聚合

2.在横向虚拟化的基础之上,再部署一虚多的设备虚拟化技术MDC

(Multite na nt Device Co ntext ),可以实现将一台物理网络设备通过软件虚拟

化成多台逻辑网络设备。也就是说通过软、硬件虚拟化的配合, MDC逻辑设备具

有完全的设备功能,有独立的软件环境和数据,有独立的硬件资源。甚至可以像一 台物理设备一样单独重启,而不影响物理设备上其他 MDC的正常运行。

如图所示

在MDC1所属的板卡上可以部署各个业务的业务网关,在 MDC2上部署EVI

特性,实现双中心之间的二层互通,优化二层网络质量,防止单中心故障域扩散到 多中心。双中心之间的光纤链路保持,可以提高二层互联的传输保障。

3?两个数据中心部署LTM,可以实现四台LTM跨中心部署可集群,可以保证 虚拟机迁移过程中业务的不中断。

数据中心之间通过EVI隧道建立二层LAN扩展网络,LTM经过二层LAN扩展 网络做HA Cluster,每个数据中心使用LTM构建服务器的负载均衡集群。

两个数据中心提供相同业务,数据中心 A中的集群的业务IP使用External VIP-A,两个数据中心的LTM共享该地址,其中数据中心A的LTM为缺省设备,将发 布VIP_A的主机路由,当该LTM故障后,数据中心B的LTM上配置的External VIP-A 立即生效,将发布 VIP_A 的主机路由,同时数据中心 A 的 LTM 撤销 VIP_A 的主机路 由,以实现业务在数据中心之间的切换。每个数据中心的 LTM 同时对两个数据中心的 服务器进行探测, 通过负载均衡算法优选本数据中心内的服务器, 当本数据中心内的服 务器都故障时,选择远端数据中心的服务器提供服务。数据中心 B 中的集群的公网 IP 使用 External VIP-B ,采用类似的方式部署,此处不再赘述。

4.两个数据中心部署 GTM , GTM提供对DNS的解析,同时GTM对LTM的 状态进行健康检查,当 GTM 感知到数据中心 A 的 LTM 发生故障时,将进行 DNS 切 换,对于新的DNS请求,GTM将引导客户直接访问数据中心 B。同时,GTM支持基 于VS的负载均衡,即多个VIP提供同一服务,对应一个域名时,可以在多个 VIP之间 负载分担。

  • 下载文档
  • 收藏
  • 0

推荐访问:建设方案 数据中心 方案 建设 双活数据中心建设方案

版权声明 :以上文章中选用的图片文字均来源于网络或用户投稿 ,如果有侵权请立即联系我们 , 我们立即删除 。