Archive for the ‘09. 数据中心网络’ Category.

Zabbix 4.0.2试用(一):Zabbix介绍——开源IT系统监控平台

zabbix_js01

概述

Zabbix由 Alexei Vladishev 创建,目前由其成立的拉托维亚公司—— Zabbix SIA 积极的持续开发维护,并为用户提供技术支持服务。
Zabbix是一个企业级分布式开源监控解决方案。
Zabbix软件能够监控众多网络参数和服务器的健康度、完整性。Zabbix 使用灵活的告警机制,允许用户为几乎任何事件配置基于邮件的告警。这样用户可以快速响应服务器问题。Zabbix 基于存储的数据提供出色的报表和数据可视化功能。这些功能使得 Zabbix 成为容量规划的理想选择。
Zabbix支持主动轮询和被动捕获。所有的 Zabbix 报告、统计信息和配置参数都可以通过基于 Web 的前端页面进行访问。基于 Web 的前端页面确保您的网络状态和服务器健康状况等可以从任何地方访问。在经过适当的配置后,Zabbix 可以在监控 IT 基础设施方面发挥重要作用。无论是对于拥有少量服务器的小型组织,还是拥有大量服务器的大型公司而言,同样适用。
Zabbix是免费的。Zabbix 是根据 GPL 通用公共许可证的第二版编写和分发的。这意味着它的源代码是免费发布的,可供公共使用。
Zabbix公司还为全球用户提供专业的技术支持服务 。

Zabbix 的用户
Zabbix的使用者包括不同行业,不同规模的企业,遍布全球,他们都选择Zabbix作为最主要的监控平台。

功能
Zabbix 是一种高度集成的网络监控解决方案,在单一的软件包中提供了多种功能。

数据采集
可用性和性能采集;
支持 SNMP(包括主动轮询和被动捕获)、IPMI、JMX、VMware 监控;
自定义检查;
按照自定义的时间间隔采集需要的数据;
通过 Server/Proxy 和 Agents 来执行数据采集。

灵活的阈值定义
您可以定义非常灵活的告警阈值,称之为触发器,触发器从后端数据库获得参考值。

高度可配置化的告警
可以根据递增计划、接收者、媒介类型自定义发送告警通知;
使用宏变量可以使告警通知变得更加高效有益;
自动动作包含远程命令。

实时图形
使用内置图形功能可实以将监控项绘制成图形。

Web 监控功能
Zabbix 可以追踪模拟鼠标在 Web 网站上的点击操作,来检查 Web 网站的功能和响应时间。
丰富的可视化选项

能够创建可以将多个监控项组合到单个视图中的自定义图形;
网络拓扑图;
以仪表盘样式展示自定义聚合图形和幻灯片演示;
报表;
监控资源的高层次(业务)视图。

历史数据存储
存储在数据库中的数据;
可配置的历史数据;
内置数据管理机制(housekeeping)。

配置简单
将被监控设备添加为主机;
主机一旦添加到数据库中,就会采集主机数据用于监控;
将模板用于监控设备。

套用模板
在模板中分组检查;
模板可以关联其他模板,获得继承。

网络发现
自动发现网络设备;
Zabbix Agent 发现设备后自动注册;
自动发现文件系统、网络接口和 SNMP OIDs 值。

快捷的 Web 界面
基于 PHP 的 Web 前端;
可以从任何地方访问;
您可以定制自己的操作方式;
审计日志。

Zabbix API
Zabbix API 为 Zabbix 提供可编程接口,用于批量操作、第三方软件集成和其他用途。

权限管理系统
安全的用户身份验证;
将特定用户限制于访问特定的视图。

功能强大且易于扩展的 Zabbix Agent
部署于被监控对象上;
完美支持 Linux 和 Windows ;

二进制守护进程
为了更好的性能和更少的内存占用,采用 C 语言编写;
便于移植。

适应更复杂的环境
使用 Zabbix Proxy 代理,可以轻松实现分布式远程监控。

架构
Zabbix 由几个主要的功能组件组成,其职责如下所示。

Server
Zabbix server 是 Zabbix agent 向其报告可用性、系统完整性信息和统计信息的核心组件。是存储所有配置信息、统计信息和操作信息的核心存储库。

数据库
所有配置信息以及 Zabbix 收集到的数据都被存储在数据库中。

Web 界面
为了从任何地方和任何平台轻松访问 Zabbix ,我们提供了基于 web 的界面。该界面是 Zabbix server 的一部分,通常(但不一定)和 Zabbix server 运行在同一台物理机器上。

Proxy
Zabbix proxy 可以替 Zabbix server 收集性能和可用性数据。Zabbix proxy 是 Zabbix 环境部署的可选部分;然而,它对于单个 Zabbix server 负载的分担是非常有益的。

Agent
Zabbix agents 部署在被监控目标上,用于主动监控本地资源和应用程序,并将收集的数据发送给 Zabbix server。

数据流
此外,重要的是,需要回过头来了解下 Zabbix 内部的整体数据流。首先,为了创建一个采集数据的监控项,您就必须先创建主机。其次,必须有一个监控项来创建触发器。最后,您必须有一个触发器来创建一个动作,这几个点构成了一个完整的数据流。因此,如果您想要收到 CPU load it too high on Server X 的告警,您必须首先为 Server X 创建一个主机条目,其次创建一个用于监视其 CPU 的监控项,最后创建一个触发器,用来触发 CPU is too high 这个动作,并将其发送到您的邮箱里。虽然这些步骤看起来很繁琐,但是使用模板的话,其实并不复杂。也正是由于这种设计,使得 Zabbix 的配置变得更加灵活易用。

Zabbix支持运行在多种操作系统平台上,同时也支持对多种操作系统的监控,具体如下:

zabbix_js02

软件界面截图:

zabbix_js04small

Intel 至强E5/E7 V4 CPU与至强可扩展CPU性能对比表

目前Intel E5 V4/E7 V4 CPU已慢慢停止供应,采用Intel至强可扩展处理器,在选择新的处理器时,可通过如下的CPU性能表数量来作为一个参考:(CPU性能数据来源

Intel至强 E5/7 V4 CPU 核数 频率 性能得分(双CPU)
E5-2609 v4

8

1.7GHz 10992
E5-2620 v4 8 2.1GHz 16471
E5-2630 v4 10 2.2GHz 18872
E5-2640 v4 10 2.4GHz 20765
E5-2650 v4 12 2.2GHz 20439
E5-2660 v4 14 2.0GHz 23128
E5-2680 v4 14 2.4GHz 23368
E7-4809 v4 8 2.1GHz 16742
E7-4820 v4 10 2.0GHz 18433
E7-4830 v4 14 2.0GHz 19403
E7-4850 v4 14 2.1GHz 22031

Intel至强可扩展CPU 核数 频率 性能得分(双CPU)
铜牌 3104 处理器 6 1.7GHz 8987
铜牌 3106 处理器 8 1.7GHz 11646
银牌 4108 处理器 8 1.8GHz 15702
银牌 4110 处理器 8 2.1GHz 16810
银牌 4114 处理器 10 2.2GHz 19569
银牌 4116 处理器 12 2.1GHz 19929
金牌 5115 处理器 10 2.4GHz 21833
金牌 5118 处理器 12 2.3GHz 20751
金牌 5120 处理器 14 2.2GHz 25997
金牌 5122 处理器 4 3.6GHz 17491
金牌 6126 处理器 12 2.6GHz 27757
金牌 6128 处理器 6 3.4GHz 22869
金牌 6130 处理器 16 2.1GHz 23057
金牌 6134 处理器 8 3.2GHz 26525
金牌 6136 处理器 12 3.0GHz 28778
金牌 6138 处理器 20 2.0GHz 35063
金牌 6140 处理器 18 2.3GHz 33297
金牌 6142 处理器 16 2.6GHz 28848
金牌 6144 处理器 8 3.5GHz 28886
金牌 6146 处理器 12 3.2GHz 28993
金牌 6148 处理器 20 2.4GHz 36272
金牌 6150 处理器 18 2.7GHz 31175
金牌 6152 处理器 22 2.1GHz 35368
金牌 6154 处理器 18 3.0GHz 36640
铂金 8160 处理器 24 2.1GHz 35823
铂金 8168 处理器 24 2.7GHz 38975
铂金 8180 处理器 28 2.5GHz 34585

华为 ASG5000上网行为管理性能参数

型号

ASG5305/5505

ASG5310/5510

ASG5320/5520

ASG5530

ASG5550

ASG5610

建议适配带宽

50~60Mbps

100~120Mbps

400~500Mbps

1Gbps

5Gbps

10Gbps

管理接口

任一业务接口

任一业务接口

专用带外管理GE口

专用带外管理GE口

专用带外管理GE口

专用带外管理GE口

固定业务接口

6个千兆电接口

4GE(Combo)+10GE(电)

12GE(电)+12GE(光)

12GE(电)+12GE(光)+2万兆

4SFP+万兆口/12GE千兆电口/12SFP千兆光口

8SFP+万兆口/12GE千兆电口/12SFP千兆光口

Console

1*(RS232 RJ45)

1*(RS232 RJ45)

1*(RS232 RJ45)

1*(RS232 RJ45)

1*(RS232 RJ45)

1*(RS232 RJ45)

BYPASS(对)

支持一对GE口(GE0和GE1)

支持一对GE口(GE0和GE1)

支持一对GE口(GE0和GE1)

支持一对bypass口(GE0和GE1)

支持两对bypass)

FLASH

4GB

4GB

4GB

4GB

4GB

4GB

平均无故障时间(MTBF)

≥100,000小时

≥100,000小时

≥100,000小时

≥100,000小时

≥100,000小时

≥100,000小时

缺省配置重量

1.5kg

2.9kg

3.2kg

5.2kg

6.5kg

6.5kg

外形尺寸(长×高×深/mm)

279*44*152

440*44*263

440*44*263

440*86*300

440*86*415

440*86*415

推荐带宽来自产品描述中的数据。

WORD文档下载(HUAWEI ASG5000 V200R001C00SPC100 产品描述)

华为USG6000系列下一代防火墙详细性能参数表(吞吐量,含USG63/65/66系列)

华为防火墙在官网上只有功能性及外观的描述,没有具体性能的描述,故将华为USG防火墙性能参数表共享一下,方便查看。

华为USG6000系列防火墙性能参数表.pdf下载

usg6300

usg6500

usg6600

VMware vSphere 永久设备丢失Permanent Device Loss(PDL)、全部路径异常All-Paths-Down(APD)相关参数设置

VMware vSphere可以借助双活存储等技术实现虚拟化的双活数据中心,即可以将vSphere HA集群跨机房部署,如下图所示,本例中存储层使用的EMC VPLEX方案实现的存储双活,ESXi虚拟化服务器四4台,生产和容灾各部署在两台,通过vSphere HA形成虚拟化集群,当某ESXi主机或网络出现故障时,即能将虚拟机切换至正常的主机上。

但有一种故障,即某台ESXi虚拟化主机不能识别到存储了,比如ESXi-01上连接两台SAN光纤交换机的光纤线全部损坏不通了,这时,ESXi主机本身运行是正常的,但主机上创建的虚拟机数据是放在存储上的,所以造成该主机上的虚拟机会全部停止,无响应,虚拟机名称会变成灰色斜体字,因为当存储链路断开,VMWARE默认是不作处理的,不会将现在的虚拟机杀死等操作,所以虚拟机就不会在另外正常的ESXI主机上重新起来。从vSphere 5.0开始,引入了PDL(Permanent Device Loss,永久设备丢失),又有APD(All-Paths-Down,所有路径异常),下面,通过相关设置,使发生APD或PDL时VMWARE平台有所反应。

apdpdl011

1、VMware vSphere 5.0/5.1版本设置步骤

5.0,5.1版本时代刚引入此PDL参数,所以只需进行PDL设置即可:

(1)disk.terminateVMonPDLDefault设置为true

通过SSH方式进入ESXi-01的主机命令行界面,并进入/etc/vmware目录,将“Disk.terminateVMOnPDLDefault=TRUE”添加至settings文件中,如下图所示。

apdpdl02

(2)das.maskCleanShutdownEnabled设置为true

进入集群的编辑设置界面,如下图

apdpdl03

进入vSphere HA选项,点击右下角的“高级选项”,如下图

apdpdl04

在弹出的对话框中选项中输入das.maskCleanShutdownEnabled,值中输入true,完成设置后,重启ESXi-01主机。

apdpdl05

完成后,也需要对集群中的每台主机都要进行设置。

 

2、VMware vSphere 5.5/6.0版本设置步骤

到了vSphere 5.5或者6.0版本后,又出现了APD(全部路径异常)功能,与PDL的监测存储的方式不一样。设置也都在主机的高级选项中设置即可,具体如下:

(1)VMkernel.Boot.terminateVMOnPDL启用,打钩

选择一台虚拟化主机,选择“配置”->“高级设置”

apdpdl06

进入VMkernel –> Boot选项下,如下图,再找到 VMkernel.Boot.terminateVMOnPDL选项值,在后面打上钩

apdpdl07

(2)Disk.AutoremoveOnPDL设置为0

还是在高级选项窗口中,找到Disk选项,在第一行,将Disk.AutoremoveOnPDL设置0,如下图

apdpdl08

(3)Misc.APDHandlingEnable设置为1,Misc.APDTimeout设置为20

进入Misc选项,进行如下设置。

apdpdl09

(4)das.maskCleanShutdownEnabled设置为true

进入集群的编辑设置界面,如下图

apdpdl03

进入vSphere HA选项,点击右下角的“高级选项”,如下图

apdpdl04

在弹出的对话框中选项中输入das.maskCleanShutdownEnabled,值中输入true,完成设置后,重启ESXi-01主机。

apdpdl05

同时也需要对其它虚拟化主机也进行相关设置。

完成以上设置后,当SAN光纤链路或存储或光纤交换机出现问题,使某台主机不能识别存储后,虚拟化平台会在一定的时间内作出反应,将虚拟机主动杀死,使集群功能能将虚拟机在另外正常的主机上重新启动,以使虚拟机恢复正常运行。

声明:本文是通过查阅网络上相关文章,自己整理后所得,若是生产环境,建议先在测试环境中测试验证再使用,若出现任何问题,本人概不负责:)。

参考资料:

1、http://cormachogan.com/2012/09/07/vsphere-5-1-storage-enhancements-part-4-all-paths-down-apd/

2、http://www.yellow-bricks.com/2015/07/02/vsphere-metro-storage-cluster-with-vsphere-5-5/

3、https://www.emc.com/collateral/technical-documentation/h13813-vplex-metro-cross-cluster-host-connectivity-best-practices.pdf

4、https://wenku.baidu.com/view/f8dbee54804d2b160b4ec0fa.html

5、http://support.huawei.com/enterprise/zh/doc/DOC1000053001

Veeam Backup & Replication9.5(9.5.0.711) 试用(二):升级至9.5.0.1038

之前写过“Veeam Backup & Replication8.0 试用”系列文章,距离现在已有两年时间,前段时间刚知道推出了Veeam Backup and Replication 9.5最新版,准备体验下新版本。

===================================================================

Veeam Backup & Replication9.5 安装/配置系列:

1、Veeam Backup & Replication9.5(9.5.0.711) 试用(一):下载、安装及配置
2、Veeam Backup & Replication9.5(9.5.0.711) 试用(二):升级至9.5.0.1038
3、Veeam Backup & Replication9.5(9.5.0.1038) 试用(三):从9.5.0.1038升级至9.5.0.1536
4、Veeam Backup & Replication9.5(9.5.0.1536) 试用(四):添加备份代理(Backup Proxies)
5、Veeam Backup & Replication9.5(9.5.0.1536) 试用(五):配置目标存储位置
6、Veeam Backup & Replication9.5(9.5.0.1536) 试用(六):添加VMware和Hyper-v虚拟化平台(备份源)
7、Veeam Backup & Replication9.5(9.5.0.1536) 试用(七):创建VMware vSphere虚拟机备份任务
8、Veeam Backup & Replication9.5(9.5.0.1536) 试用(八):创建Hyper-v虚拟机备份任务
9、Veeam Backup & Replication9.5(9.5.0.1536) 试用(九):从备份(Backup)中恢复VMware虚拟机——Instant VM recovery(快速VM恢复)
10、Veeam Backup & Replication9.5(9.5.0.1536) 试用(十):从备份(Backup)中恢复VMware虚拟机——Entire VM(完全恢复虚拟机)
11、Veeam Backup & Replication9.5(9.5.0.1536) 试用(十一):从备份(Backup)中恢复VMware虚拟机——Virtual disks(虚拟机虚拟磁盘恢复)和VM files(虚拟机文件恢复)
12、Veeam Backup & Replication9.5(9.5.0.1536) 试用(十二):从备份(Backup)中恢复VMware虚拟机——Guest files(Windows文件恢复)
13、Veeam Backup & Replication9.5(9.5.0.1536) 试用(十三):创建配置Replication(复制)任务
14、Veeam Backup & Replication9.5(9.5.0.1536) 试用(十四):从Replication(复制)中恢复虚拟机(Failover Now\Undo Failover\Permanent Failover\Failback to production\Guest files(Microsoft Windows))

转载请注明出处,本系列文章来自老管网络日志http://guanjianfeng.com

===================================================================

 

> > > 下载地址:Veeam 9.5.0.711(含823和1038升级包) < < <

> > > 官方新版本功能及下载地址 < < <

上一步已将Veeam 9.5.0.711版本安装成功,并可以打开主界面,下面开始小版本的升级,目前一共发布了两个小版本:9.5.0.823和9.5.0.1038。

升级步骤:

首先需要将%CommonProgramFiles%\Veeam\Backup And Replication目录下的veComLic.dll文件更换成原版文件(原版veComLic.dll下载地址),因为之前替换过此文件,替换时也需要将Veeam开头的进程全部杀死

veeam_update01

若不替换成原文件,升级时会报错,如下图:

veeam_update04

完成veComLic.dll替换工作后,下载VeeamBackup&Replication_9.5.0.823_Update1.exe和VeeamBackup&Replication_9.5.0.1038.Update2.exe升级包(下载地址),如下图所示:

veeam_update02

目前升级前的版本号为9.5.0.711,如下图:

veeam_update03

关闭Veeam程序,然后运行VeeamBackup&Replication_9.5.0.823_Update1.exe开始升级成823,如下图,开始升级

veeam_update05

veeam_update06

完成后,再点击VeeamBackup&Replication_9.5.0.1038.Update2.exe升级1038版本,如下图

veeam_update07

veeam_update08

veeam_update09

完成以上两个补丁包的安装后,再用之前的方法,将安装包中的Crack文件夹中的veComLic.dll文件复制到%CommonProgramFiles%\Veeam\Backup And Replication目录下,覆盖之前一样先杀死Veeam开头的进程,如下图所示:

veeambk019

覆盖完成后,重启服务器,运行程序,点击Apply开始升级服务器

veeam_update10

查看已经是9.5.0.1038,License也是激活状态,到此,升级完成。

veeam_update11

veeam_update12


转载请注明出处,本系列文章来自老管网络日志http://guanjianfeng.com

ESXi集群配置一例(HP C7000+DELL EQlogic+HUAWEI 6700)

本案例为ESXi集群的一个例子,正如[VMware集群常见硬件配置、架构说明]说的,此架构应该为第4种安全,即“刀片服务器+IPSAN万兆存储+万兆核心交换机 ”。这里的刀片服务器为HP C7000,IPSAN万兆存储为DELL EQlogic,万兆存储交换机为华为S6700。

说明:该文档只会描述案例的整个架构,以及如何实现等,不会涉及详细的配置说明,如需了解请网上自行搜索相关设备的教程,具体内容如下:

一、案例概述

该案例主要搭建一套小型的私有云中心,以给需要计算资源的单位提供相应的服务。将硬件资源(刀片服务器、存储等)通过VMware的虚拟化软件来实现。

二、系统拓扑图

yjs01

三、设备清单

1、刀片服务器

两台HP C7000刀片机箱,每机箱配置8个刀片服务器及四个VC模块,具体如下:

(1)HP C70000刀箱 * 2 
(2)BL420c刀片 * 8 (每刀片配置两颗CPU、128G内存、4个10GB以太网卡) 
(3)HP Virtual Connect FlexFabric 10Gb/24-port Module模块 * 4 
(4)其它(OA管理模块、电源、风扇等)

hpc7000-1 hpc7000-2

2、DELL EQlogic存储

存储共配置了6个盘柜,三个为高速盘柜(PS6110XV,双控制器、8G缓存、24× 600GB 15Krpm SAS热插拨硬盘),三个为低速盘柜(PS6110E,双控制器、8G缓存、24× 3TB 7.2Krpm NL-SAS热插拨硬盘)

(1)DELL EQLogic PS6110XV * 3 
(2)DELL EQLogic PS6110E * 3

3、华为S6700万兆交换机

共配置了两台,具体如下

(1)华为 S6700-48-EI * 2 (配置48个万兆SFP接口、支持三层交换)

4、虚拟化软件VMware

虚拟化软件采用的VMware vSphere 5.0 Enterprise,32个CPU授权(16个刀片,每刀片2个CPU)。

四、详细连线图

yjs02small

以太网业务网络和IP SAN网络都先连接至华为S6700万兆交换机上,业务网络核心交换机华为S9312再与S6700万兆交换机通过4根10GB光纤相连。各网络通过VLAN来隔离。刀片的VC模块多根线连接至S6700时,连接在S6700上的多个端口需要做端口聚合(华为交换机中称E-trunk)。

五、网络划分

在一个私有云中,不单有存储网络及业务网络,还有其它一些辅助的网络,如VMware管理网络、VMware vMotion网络、存储管理网络等。此次具体划分如下:

(1)VMware集群管理,IP:172.22.228.0/128,网关:172.22.228.1,VLAN ID:228 
(2)业务网络,IP:172.22.227.0/24,网关:172.22.227.1,VLAN ID:227 
(3)vMotion网络,IP:10.100.100.0/24,网关:无,VLAN ID:3000 
(4)Iscsi存储管理网络,IP:172.22.228.128/28,网关:172.22.228.129,VLAN ID:229 
(5)Iscsi存储业务网络,IP:10.200.88.0/22,网关:无,VLAN ID:3088

五、HP VC模块网络配置

从详细连接图中可看出,每个刀箱配置了四个VC模块,两个模块用于以太网连接,两个模块用于IP SAN连接。

在整个配置过程中,唯一与传统服务器不同的是网络的连接方式。传统服务器只需将网络接入服务器的物理网口即可。但本项目中HP刀片服务器使用了VC模块来接入网络。 
每台刀片服务器配置了2块双端口刀兆物理网卡,即有4个物理网口。每个物理网口需有一个VC模块来对应,VC模块如下图所示:

yjs03

所以每个刀箱配置了4个VC模块。每个刀片的1个物理网口通过VC模块,可以虚拟出4个虚拟网口(4个虚拟网口总带宽仍为10GB),即4个物理网口可以虚拟出16个虚拟网口。虚拟的网口带宽可以随意分配,如1G+3G+3G+3G=10GB,当然也可以虚拟成三块,如1G+3G+6G=10G。 
刀片的4个物理网卡由两块双端口的卡组成,第一块接在主板上,称为LOM,第二块接入Mezz插槽,称为Mezz Slot1插槽。在VC中LOM网卡的第一块标记为LOM:1,第二块为LOM:2。Mezz Slot1在VC中第一块标记为Mezz1:1,第二块为Mezz1:2。如下图所示。

yjs04

在VC中,每个物理端口都被分成了a、b、c、d四个虚拟网口,例如LOM:1网口就被虚拟成:LOM:1-a、LOM:1-b、LOM:1-c、LOM:1-d。其它三个网口以此类推,则16块虚拟网卡如下图所示。

yjs05

我们知道,在VMware中,网卡的序号是vmnic0、vmnic1、 vmnic2这样顺序排下去的。在VC中,每个虚拟网卡如LOM:1-a也有一个序号。这三者之间的关系如下图所示。

yjs06

在整个VMware集群中,网络分为管理网络、业务网络、vMotion网络及Iscsi存储网络。对应的带宽分配如下:

1、VMware管理网络,带宽1+1=2GB,VLAN ID:228 
2、业务网络,带宽6+6=12GB,VLAN ID:227 
3、vMotion网络,带宽3+3=6GB,VLAN ID:3000 
4、iSCSI存储网络,带宽10+10=20GB,VLAN ID:3088

VMware四部分网络对应刀片的网口划分如下图所示:

yjs07

综合上面的对应表,即能得出本案例网卡对应表,如下:

yjs08

六、DELL EQLogic存储规划、配置

共配置了6个盘柜,存储的网络划分成管理网络和存储网络两类,管理网络通过一个单独的交换机,将6个盘柜连接起来,网络地址为172.22.228.128/128。存储网络地址为10.200.88.0/22,存储服务地址为10.200.88.200/22。详细如下:

1、拓扑

yjs09

两台华为的6700交换机,存储有两个控制器,接入规划为每个盘柜的控制器A接入第一台华为6700的交换机上,每个盘柜的控制器B接入第二台华为6700交换机上。如上图所示。

2、存储管理网络

(1)PS6110XV-1(高速柜1),管理IP:172.22.228.201/128,VLAN ID:229 
(2)PS6110XV-1(高速柜1),管理IP:172.22.228.202/128,VLAN ID:229 
(3)PS6110XV-1(高速柜1),管理IP:172.22.228.203/128,VLAN ID:229 
(4)PS6110E-1(低速柜1),管理IP:172.22.228.204/128,VLAN ID:229 
(5)PS6110E-1(低速柜1),管理IP:172.22.228.205/128,VLAN ID:229 
(6)PS6110E-1(低速柜1),管理IP:172.22.228.206/128,VLAN ID:229

3、存储业务网络

存储业务网络只有一个IP地址,为10.200.88.200/22,所有需要访问存储空间的设备只需访问该IP地址即可。

4、存储LAN划分规划

(1)高速盘

高速盘用于对数据读写要求高的分配,如虚拟机的操作系统等。

序号

分区名称 分区大小 盘类型 用途

1

Cluster1-EQL_Datastore01

800GB

高速盘

虚拟机创建

2

Cluster1-EQL_Datastore02

800GB

高速盘

虚拟机创建

3

Cluster1-EQL_Datastore03

800GB

高速盘

虚拟机创建

4

Cluster1-EQL_Datastore04

800GB

高速盘

虚拟机创建

5

Cluster1-EQL_Datastore05

800GB

高速盘

虚拟机创建

6

Cluster2-EQL_Datastore01

800GB

高速盘

虚拟机创建

7

Cluster2-EQL_Datastore02

800GB

高速盘

虚拟机创建

8

Cluster2-EQL_Datastore03

800GB

高速盘

虚拟机创建

9

Cluster2-EQL_Datastore04

800GB

高速盘

虚拟机创建

10

Cluster2-EQL_Datastore05

800GB

高速盘

虚拟机创建

 

说明:划分分区时名称带有cluster1和cluster2,是因为VMware到时创建两个HA,8个ESXI刀片主机为一个HA,cluster1的lun只能让VMware的cluster1可以访问,cluster2只能让VMware的cluster2可以访问。

(2)低速盘

低速盘用于存储视频等大容量的空间应用。

序号 分区名称 分区大小 盘类型 用途
1

DC1_ISO_Datastore01

800GB 低速盘 软件、镜像存放

5、存储管理

存储管理是通过WEB界面来管理,可以通过服务器10.200.88.200来管理,如https://10.200.88.200,也可以通过存储管理地址来访问,如172.22.228.201等地址。默认用户名密码为:grpadmin/password,进入后,就可以对存储进行管理。

六、华为万兆交换机规划、配置

两台华为交换机作为业务网络及存储网络的基础,起着十分重要的作用。交换机本身只作为二层交换机使用,通过VLAN来隔离不同的网络。

型号为华为S6700-48-EI,带有48个SFP万兆插槽、包转发率:715Mpps、交换容量:960Gbps。

在交换机上创建五个VLAN,227 228 229 3000 3088。

交换机端口连接、划分表:

1、VMware管理网络

S67000-01:11口(接HP C7000-01 VC01 X1口) 
S67000-01:19口(接HP C7000-02 VC01 X1口) 
S67000-02:11口(接HP C7000-01 VC03 X1口) 
S67000-02:19口(接HP C7000-02 VC03 X1口)

2、vMotion网络

S67000-01:12口(接HP C7000-01 VC01 X2口) 
S67000-01:20口(接HP C7000-02 VC01 X2口) 
S67000-02:12口(接HP C7000-01 VC03 X2口) 
S67000-02:20口(接HP C7000-02 VC03 X2口)

3、业务网络

S67000-01:13口(接HP C7000-01 VC01 X3口) 
S67000-01:14口(接HP C7000-01 VC01 X4口) 
S67000-01:15口(接HP C7000-02 VC01 X3口) 
S67000-01:16口(接HP C7000-02 VC01 X4口) 
S67000-02:13口(接HP C7000-01 VC03 X3口) 
S67000-02:14口(接HP C7000-01 VC03 X4口) 
S67000-02:15口(接HP C7000-02 VC03 X3口) 
S67000-02:16口(接HP C7000-02 VC03 X4口)

4、存储网络

S67000-01: 7口(接HP C7000-01 VC02 X1口) 
S67000-01: 8口(接HP C7000-01 VC02 X2口) 
S67000-01:17口(接HP C7000-01 VC02 X3口) 
S67000-01:18口(接HP C7000-01 VC02 X4口) 
S67000-01: 9口(接HP C7000-02 VC02 X1口) 
S67000-01:10口(接HP C7000-02 VC02 X2口) 
S67000-01:21口(接HP C7000-02 VC02 X3口) 
S67000-01:22口(接HP C7000-02 VC02 X4口) 
S67000-02: 7口(接HP C7000-01 VC04 X1口) 
S67000-02: 8口(接HP C7000-01 VC04 X2口) 
S67000-02:17口(接HP C7000-01 VC04 X3口) 
S67000-02:18口(接HP C7000-01 VC04 X4口) 
S67000-02: 9口(接HP C7000-02 VC04 X1口) 
S67000-02:10口(接HP C7000-02 VC04 X2口) 
S67000-02:21口(接HP C7000-02 VC04 X3口) 
S67000-02:22口(接HP C7000-02 VC04 X4口)

VMware管理网络及 vMotion网络都是VC上单线接入S6700交换机,所以S6700上不用做端口聚合。而业务网络和存储网络都是同一VC设备上多根接入S6700交换机,则需要做端口链路聚合。具体如下:

1、S6700-01交换机上的端口聚合列表:

(1)13、14口做成E-trunk 11,对应HP C7000-01 VC01 X3 X4两端口 
(2)15、16口做成E-trunk 13,对应HP C7000-02 VC01 X3 X4两端口 
(3)7、8、17、18口做成E-trunk 12,对应HP C7000-01 VC02 X1 X2 X3 X4四端口 
(4)9、10、21、22口做成E-trunk 14,对应HP C7000-02 VC02 X1 X2 X3 X4四端口 
(5)41、42、43、44口做成E-trunk 5,对应以太网核心S9312交换机的0-3四端口 
(6)47、48口做成E-trunk 30,对应S6700-02交换机的47、48两端口

2、S6700-02交换机上的端口聚合列表:

(1)13、14口做成E-trunk 11,对应HP C7000-01 VC03 X3 X4两端口 
(2)15、16口做成E-trunk 13,对应HP C7000-02 VC03 X3 X4两端口 
(3)7、8、17、18口做成E-trunk 12,对应HP C7000-01 VC04 X1 X2 X3 X4四端口 
(4)9、10、21、22口做成E-trunk 14,对应HP C7000-02 VC04 X1 X2 X3 X4四端口 
(5)41、42、43、44口做成E-trunk 6,对应以太网核心S9312交换机的4-7四端口 
(6)47、48口做成E-trunk 30,对应S6700-01交换机的47、48两端口

华为交换机端口聚合E-trunk配置举例:

interface Eth-Trunk11 
description to-hp-c7000-01-vc01-eth_x3x4_ethernet 
port link-type trunk 
port trunk allow-pass vlan 227 to 228 3000 
mode lacp-static 

interface XGigabitEthernet0/0/13 
eth-trunk 11 

interface XGigabitEthernet0/0/14 
eth-trunk 11 
#

七、VMware集群规划、配置

案例中共有ESXi主机16台,规划为第一个刀箱的前四个刀片与第二个刀箱的前四个刀片组成一个VMware HA,名称为Cluster1,第一个刀箱的后四个刀片与第二个刀箱的后四个刀片组成另一个HA,名称为Cluster2,增强冗余性,如下图所示。

yjs10

1、集群概览

域:cloud.xxx.cn 
数据中心名称:DC1 
集群1名称:Cluster1 
集群1主机数:8台 
集群1资源:

yjs11

集群2名称:Cluster2 
集群2主机数:8台 
集群2资源:

yjs11

集群1、2存储资源:

yjs12

集群1、2网络如下图,存储网络、VMware管理网络使用标准交换机,业务网络采用分布式交换机dvSwitch1。

yjs13

2、集群网络配置

正如上面讲到的,每个刀片都会认到8个可用的网卡,如下图,为vmnic0、vmnic1、vmnic2、vmnic4、vmnic8、vmnic9、vmnic10、vmnic12,在集群网卡配置时,只需将当时规划好的网卡绑定在一起即可。如下:

(1)VMware管理网络:vmnic0、vmnic8 
(2)vMotion网络:vmnic4、vmnic12 
(3)业务网络:vmnic2、vmnic10 
(4)iSCSI存储网络:vmnic1、vmnic9

yjs14

yjs08

3、集群管理机规划、配置

案例中的管理机如域控、vCenter服务器都架设中虚拟机中,不单独使用物理机来架设。清单如下:

序号

服务器名称 服务器IP 网关
1 域控服务器-01 172.22.228.2 172.22.228.1
2 域控服务器-02 172.22.228.3 172.22.228.1
3 vCenter数据库 172.22.228.101 172.22.228.1
4 vCenter服务器 172.22.228.100 172.22.228.1
5 vcops服务器 172.22.228.110
172.22.228.111
172.22.228.1

该案例整个架构及实现方式介绍就此结束,整个案例的复杂点应该是在HP的VC模块与VMware结合的配置。因接触也不深,文中难免有问题,仅供参考!

参考文章:

1、HP刀片服务器系统Flex-10 VC配置与VMware vSphere网络设计

2、Understanding HP Flex-10 Mappings with VMware ESX/vSphere