71、vSphere管理与配置全解析

vSphere管理与配置全解析

1. vCenter Server管理

在一个环境中存在多个vCenter Server实例,若要使用vCenter Web Client进行管理,无需为每个vCenter Server安装单独的Web Client服务。每个vCenter Server实例可注册到单个Web Client,用户登录Web Client时,仅能看到其有权限访问的vCenter对象。

vCenter Server为ESXi主机和VM提供了广泛的管理功能,如计划任务、用于一致配置的主机配置文件、用于元数据的标签以及事件日志等。若要展示属于账户部门的所有VM和主机,且排除测试服务器,只需确保vCenter Server配置了适当的标签和类别,然后进行简单搜索即可。

2. vSphere Update Manager(VUM)
2.1 安装与集成

VUM需从VMware vCenter安装介质进行安装,且要求vCenter Server已安装。与vCenter Server一样,VUM需要使用后端数据库服务器。此外,必须在vSphere Client中安装插件,才能访问、管理和配置VUM。若其他管理员无法访问或配置VUM,很可能是其vSphere Client中未安装VUM插件,该插件需在每个vSphere Client实例中安装。

2.2 确定补丁和升级需求

基线是VUM判断ESX/ESXi主机或VM实例是否最新的“衡量标准”。VUM将ESX/ESXi主机或VM与基线进行比较,以确定是否需要打补丁以及应用哪些补丁,还可据此判断哪些主机需要升级到最新版本或哪些VM需要升级其硬件。VUM自带一些预定义基线,管理员也可创建特定于自身环境的额外基线。基线可以是固定的(内容保持不变)或动态的(内容随时间变化),基线组可让管理员组合基线并一起应用。

若要确保所有ESX/ESXi主机安装最新的关键和安全补丁,同时安装另一个特定的非关键补丁(该补丁未包含在关键补丁动态基线中),可创建一个基线组,将关键补丁动态基线与包含额外补丁的固定基线组合,然后将该基线组附加到所有ESX/ESXi主机。执行修复时,VUM会确保应用动态基线中的所有关键补丁和固定基线中的额外补丁。

2.3 升级VM硬件和VMware Tools

VUM可检测VM硬件版本过时的VM以及安装了过时版本VMware Tools的来宾操作系统。它自带预定义基线以实现此功能,还能升级VM硬件版本和来宾操作系统中的VMware Tools,确保一切保持最新。升级虚拟基础架构到VMware vSphere后,需完成两项额外任务:升级来宾操作系统中的VMware Tools,然后将虚拟机硬件升级到版本10。

2.4 应用补丁到ESX/ESXi主机

VMware ESX和ESXi需要不时应用软件补丁,如修复漏洞或安全问题。VUM可按用户选择的时间表为ESX/ESXi主机应用补丁,还可在应用补丁前将补丁暂存到主机,以减少打补丁过程中的停机时间或简化向远程办公室部署补丁。若要避免在为ESX/ESXi主机打补丁时VM停机,可确保ESX/ESXi主机位于全自动DRS集群中,VUM会利用vMotion和DRS将VM迁移到其他主机,从而避免停机。

2.5 主机升级和大规模数据中心升级协调

手动升级主机(每台主机上有数十个VM)既繁琐又难以扩展。VUM的编排升级功能可自动处理这些交互,它结合多个基线组,包括主机更新、VM硬件和VMware Tools的后续更新,还可包含虚拟设备升级基线。结合全自动DRS集群和足够的冗余容量,有可能在一个编排任务中升级整个vCenter的主机清单。

2.6 替代VUM更新方法

当VUM不可用时(如主机未连接到许可的vCenter),可采用其他方法升级主机。可使用CD安装介质在主机上运行交互式升级,也可使用主机自带的命令行工具,如 esxcli software vib update (详情见VMware知识库文章2008939)或 esxcli software vib install 来使用单个VIB打补丁。

2.7 日志收集器安装

vSphere为ESXi主机提供了两种不同的日志记录工具:ESXi Dump Collector用于从主机获取内核转储,Syslog Collector可集中存储主机的日志文件。Syslog Collector和ESXi Dump Collector已包含在vCSA中并默认启用,应登录vCSA控制台检查服务是否运行,并调整核心转储的存储库大小以适应环境。

2.8 集中日志配置

若要使用ESXi Dump Collector或Syslog Collector工具,需将每个主机配置为指向集中日志记录器,具体配置方法如下:
- 在每个主机的命令行使用 esxcli system coredump 将核心转储发送到ESXi Dump Collector。
- 使用vCenter中的主机配置文件功能将相同设置传播到多个主机,或继续在每个主机上使用CLI。
- 使用Web Client通过syslog.global下的高级设置配置每个主机。
- 使用 esxcli system syslog 通过CLI设置每个主机。
- 使用vCenter中的主机配置文件功能将相同设置传播到多个主机,或继续在每个主机上使用上述两种方法之一。

3. 虚拟网络创建与配置
3.1 虚拟网络组件识别

虚拟网络由虚拟交换机、物理交换机、VLAN、物理网络适配器、虚拟适配器、上行链路、NIC团队、VM和端口组等组成。虚拟网络设计受多种因素影响,如每个ESXi主机中的物理网络适配器数量、使用vSphere标准交换机还是分布式交换机、环境中VLAN的存在或使用情况、现有网络拓扑、对LACP或端口镜像的支持要求以及VM的连接需求等。设计网络时可考虑以下常见问题:
- 是否有或需要用于管理流量(如管理物理交换机)的专用网络?
- 是否有或需要用于vMotion流量的专用网络?
- 使用的是1 Gb以太网还是10 Gb以太网?
- 是否有IP存储网络?该IP存储网络是否为专用网络?运行的是iSCSI还是NAS/NFS?
- 是否需要为VM提供极高的容错级别?
- 现有物理网络是否由VLAN组成?
- 是否想将VLAN的使用扩展到虚拟交换机?

3.2 虚拟交换机和分布式虚拟交换机创建

vSphere支持vSphere标准交换机和分布式虚拟交换机。分布式虚拟交换机为vSphere网络环境带来新功能,包括私有VLAN和ESXi集群的集中管理点。vSphere分布式交换机并非基于每个ESXi主机创建,而是同时跨越多个ESXi主机,这使得分布式端口组能够进行集中配置和管理。若管理员在vSphere Web Client中选择ESXi主机时无法创建分布式交换机,应告知其导航到vSphere Web Client的分布式交换机区域进行创建。

在VMware vSphere 5.5环境中实施LACP时,虽该版本对LACP的支持有所增强,但仍存在一些限制。例如,特定分布式端口组不能有多个活动链路聚合组(LAG),给定分布式端口组不能同时有LAG和独立上行链路处于活动状态,但不同的分布式端口组可根据需要使用不同的LAG。增强的LACP支持还需要使用版本为5.5.0的vSphere分布式交换机。

3.3 NIC团队、VLAN和私有VLAN创建与管理

NIC团队可让虚拟交换机与网络的其余部分建立冗余网络连接,虚拟交换机还支持VLAN(提供网络的逻辑分段)和私有VLAN(为现有VLAN增加安全性,同时允许系统共享相同的IP子网)。

若使用NIC团队将多个物理上行链路绑定在一起以提高冗余性和吞吐量,选择“基于IP哈希路由”策略后vSwitch失去连接,可能是因为该负载均衡策略要求物理交换机也配置为支持此安排(在Cisco环境中称为EtherChannel)。若无法修改物理交换机的配置,可选择其他负载均衡策略,如默认的“基于源虚拟端口ID路由”策略。

若要配置vSphere标准交换机和分布式虚拟交换机将VLAN标签一直传递到来宾操作系统,在vSphere标准交换机上,可通过将VM的端口组的VLAN ID设置为4095来配置虚拟来宾标记(VGT);在vSphere分布式交换机上,可通过将分布式端口组的VLAN配置设置为VLAN中继,然后指定应传递到来宾操作系统的特定VLAN ID来启用VGT。

3.4 第三方虚拟交换机选项

除vSphere标准交换机和分布式虚拟交换机外,vSphere还支持一些第三方虚拟交换机,如Cisco Nexus 1000V、IBM Distributed Virtual Switch 5000V和HP FlexFabric 5900v。

3.5 虚拟交换机安全策略配置

虚拟交换机支持安全策略,包括允许或拒绝混杂模式、允许或拒绝MAC地址更改以及允许或拒绝伪造传输,这些安全选项有助于提高第2层安全性。若有网络应用程序需要查看同一VLAN上其他生产系统的流量,可通过创建一个与其他生产端口组设置相同(包括相同VLAN ID)但允许混杂模式的新端口组,将该网络应用程序的VM分配到新端口组,而将其余VM留在拒绝混杂模式的端口组,这样可在不牺牲整个虚拟交换机安全性的前提下满足网络应用程序的需求。

在vSphere分布式交换机上,所有安全策略都在分布式端口组级别设置,而非分布式交换机级别。若其他管理员在配置分布式交换机的安全策略时遇到困难,应告知其修改分布式端口组的属性,也可使用vSphere Web Client中操作菜单的“管理分布式端口组”命令同时对多个分布式端口组执行相同任务。

以下是VUM工作流程的mermaid流程图:

graph LR
    A[安装VUM] --> B[集成到vSphere Client]
    B --> C[确定基线]
    C --> D{判断是否需要补丁或升级}
    D -- 是 --> E[应用补丁或升级]
    D -- 否 --> F[继续监控]
    E --> G[完成升级]
4. 存储设备创建与配置
4.1 共享存储基础理解

vSphere依赖共享存储实现高级功能、集群范围的可用性以及集群中所有VM的综合性能。可在光纤通道、FCoE和iSCSI SAN以及NAS上设计高性能和高可用性的共享存储基础架构,适用于中高端企业存储架构。设计存储架构时,应首先满足性能要求,然后确保满足容量要求。

不同协议在不同vSphere部署中的理想应用场景如下:
| 协议 | 适用场景 |
| ---- | ---- |
| iSCSI | 适用于没有现有光纤通道SAN且刚开始使用vSphere的客户 |
| 光纤通道 | 适用于具有现有光纤通道基础架构或有高带宽(200 MBps+,单个而非综合)VM需求的客户 |
| NFS | 适用于有许多单个(和综合)带宽需求低于单链路带宽的VM的情况 |

存储性能的三个参数为带宽(MBps)、吞吐量(IOPS)和延迟(ms)。对于不同存储类型,单个数据存储(或RDM)的最大带宽计算方式如下:
- 光纤通道:HBA速度乘以系统中HBA的数量(需检查扇入比和阵列上的光纤通道端口数量)。
- iSCSI:NIC速度乘以系统中NIC的数量,最高约9 Gbps(需检查扇入比和阵列上的以太网端口数量)。
- NFS:NIC链路速度(跨多个数据存储,带宽可在多个NIC之间平衡)。

在所有情况下,吞吐量(IOPS)主要取决于主轴数量(假设无缓存效益且无RAID损失),快速估算规则为总IOPS = 单个主轴的IOPS × 该类型主轴的数量。延迟以毫秒为单位,在存储阵列过载时可能达到数十毫秒。

4.2 vSphere存储选项理解

vSphere有三种基本存储呈现模型:基于块的VMFS、RDM和NFS。最灵活的配置通常同时使用这三种模型,主要通过共享容器模型并选择性使用RDM。不同存储类型的使用场景如下:
- VMFS数据存储和NFS数据存储是共享容器模型,用于一起存储虚拟磁盘。VMFS由块存储堆栈管理,NFS由网络堆栈管理。NFS通常(不使用10 GbE LAN时)最适合大量低带宽(任何吞吐量)的VM,VMFS适用于广泛的工作负载。
- RDM应谨慎使用,仅在来宾必须直接访问单个LUN的情况下使用。

若使用VMFS,需跟踪的一个性能指标是队列深度,可使用 resxtop 进行监控,数据存储可用性或使用容量管理的数据存储警报是不错的非性能指标。

4.3 vSphere层存储配置

选择共享存储平台后,需为vSphere配置存储网络。该网络(无论是基于光纤通道还是以太网)必须设计为满足可用性和吞吐量要求,这受协议选择和vSphere基本存储堆栈(对于NFS,还包括网络堆栈)架构的影响。正确的网络设计涉及物理冗余和物理或逻辑隔离机制(如SAN分区和网络VLAN)。建立连接后,可使用预测或自适应模型(或混合模型)配置LUN和VMFS数据存储和/或NFS导出/NFS数据存储,还可使用Storage vMotion解决热点和其他非最优VM放置问题。

判断VMFS数据存储是否过载可通过评估队列深度,表现为VM运行缓慢,最好使用 resxtop 的QUED(队列深度列)进行跟踪。若队列已满,可采取以下纠正措施:
- 加深队列并增加 Disk.SchedNumReqOutstanding 高级参数以匹配。
- 使用Storage vMotion迁移VM。
- 为LUN添加更多主轴以更快满足请求,或更换为更快的主轴类型。

若VMFS卷已满,可采取以下三种无中断的纠正措施:
- 使用Storage vMotion将一些VM迁移到其他数据存储。
- 扩展后端LUN并扩展VMFS卷。
- 添加另一个后端LUN并添加另一个VMFS扩展。

判断NFS卷是否过载可查看数据存储中的工作负载是否达到单链路的最大带宽,最简便的方法是使用vCenter性能图表检查VMkernel NIC的利用率。若利用率达到100%,可采取以下纠正措施:
- 升级到10 GbE。
- 添加另一个NFS数据存储,添加另一个VMkernel NIC,根据负载均衡和高可用性决策树确定NIC团队或IP路由是否更合适,最后使用Storage vMotion将一些VM迁移到其他数据存储(注意使用Storage vMotion会给繁忙的数据存储增加额外工作,可考虑在低I/O期间安排)。

4.4 VM层存储配置

创建VM时,应将VM放置在适当的数据存储中,并在需要时选择性使用RDM。若合适,可利用来宾内iSCSI,但需了解对vSphere环境的影响。若要在不关闭机器的情况下将VMFS卷上的虚拟磁盘从精简转换为厚置备延迟置零(eagerzeroedthick)再转换回精简,可使用Storage vMotion并在过程中选择目标磁盘格式。

物理兼容性模式RDM可用于Microsoft集群(如W2K3的MSCS或W2K8的WFC),应下载VMware Microsoft集群指南并遵循相应用例。其他有效用例包括需要LUN的虚拟到物理迁移或需要解决方案启用VM的情况。

4.5 最佳实践应用

应阅读、遵循并利用VMware和存储供应商的最佳实践/解决方案指南文档,不要一开始就过度配置,而是学会利用VMware和存储阵列功能监控性能、队列和后端负载,并进行无中断调整。首先规划性能,其次考虑容量(通常满足性能要求时容量也能满足),在可用性设计和大型高I/O VM上投入设计时间,并为通用VMFS和NFS数据存储使用灵活的池设计。

若要快速估算200个平均大小为40 GB的VM的最小可用容量,考虑25%的额外空间(快照和其他VMware文件),则需要10 TB。使用RAID 10时,阵列至少需要20 TB原始容量;使用RAID 5(4 + 1)需要12.5 TB;使用RAID 6(10 + 2)需要12 TB。若容量不足,可向阵列添加容量并添加数据存储。

以下是存储配置流程的mermaid流程图:

graph LR
    A[选择存储平台] --> B[配置存储网络]
    B --> C[配置LUN和数据存储]
    C --> D[创建VM并放置]
    D --> E[监控和调整]

vSphere管理与配置全解析(续)

5. 总结与操作要点回顾

在vSphere的管理与配置过程中,涉及多个关键方面,每个方面都有其独特的操作要点和注意事项,下面进行详细总结:

5.1 vCenter Server管理
  • Web Client使用 :多个vCenter Server实例可注册到单个Web Client,用户登录后仅显示有权限的对象,无需为每个vCenter Server安装单独的Web Client服务。
  • 功能应用 :利用vCenter Server的管理功能,如计划任务、主机配置文件、标签和事件日志等,通过设置合适的标签和类别,可方便地筛选出特定部门的VM和主机。
5.2 vSphere Update Manager(VUM)
  • 安装与集成 :从VMware vCenter安装介质安装VUM,需先安装vCenter Server,且要在每个vSphere Client实例中安装VUM插件才能进行访问和配置。
  • 基线管理 :通过基线判断ESX/ESXi主机或VM是否需要补丁或升级,可创建固定或动态基线及基线组,以满足不同的更新需求。
  • 升级操作 :升级虚拟基础架构到VMware vSphere后,需升级来宾操作系统中的VMware Tools和虚拟机硬件到版本10。
  • 补丁应用 :VUM可按时间表为ESX/ESXi主机应用补丁,利用全自动DRS集群可避免VM停机。
  • 替代方法 :当VUM不可用时,可使用CD安装介质或主机自带的命令行工具(如 esxcli software vib update esxcli software vib install )进行升级。
  • 日志管理 :ESXi Dump Collector和Syslog Collector已包含在vCSA中并默认启用,需登录vCSA控制台检查服务运行情况,并调整核心转储的存储库大小。
  • 集中日志配置 :可通过多种方式将主机配置为指向集中日志记录器,如使用命令行工具、vCenter主机配置文件功能或Web Client等。

以下是VUM操作要点的列表:
|操作类型|操作要点|
| ---- | ---- |
|安装|从VMware vCenter安装介质,需先装vCenter Server,各vSphere Client实例装插件|
|基线管理|创建固定/动态基线及基线组,满足更新需求|
|升级|升级后先升VMware Tools,再升虚拟机硬件到版本10|
|补丁应用|按时间表应用,利用DRS集群避免VM停机|
|替代方法|CD安装介质或命令行工具( esxcli software vib update 等)|
|日志管理|检查vCSA中服务运行,调整存储库大小|
|集中日志配置|命令行、主机配置文件、Web Client等方式|

5.3 虚拟网络创建与配置
  • 组件与设计 :虚拟网络由多种组件组成,设计时需考虑物理网络适配器数量、交换机类型、VLAN使用、网络拓扑、流量需求等因素。
  • 交换机创建 :vSphere支持标准和分布式虚拟交换机,分布式交换机跨多个ESXi主机,在vSphere Web Client的特定区域创建。
  • LACP实施 :vSphere 5.5对LACP支持增强,但特定分布式端口组有使用限制,需使用版本为5.5.0的分布式交换机。
  • NIC团队与VLAN配置 :NIC团队可增加冗余和吞吐量,选择负载均衡策略时需考虑物理交换机配置;配置VGT可将VLAN标签传递到来宾操作系统。
  • 第三方交换机 :支持Cisco Nexus 1000V、IBM Distributed Virtual Switch 5000V和HP FlexFabric 5900v等第三方虚拟交换机。
  • 安全策略配置 :在虚拟交换机上设置安全策略,通过创建新端口组满足特定网络应用程序需求。
5.4 存储设备创建与配置
  • 共享存储理解 :vSphere依赖共享存储实现高级功能,不同协议适用于不同场景,需根据性能和容量需求设计存储架构。
  • 存储选项应用 :VMFS、RDM和NFS三种存储呈现模型各有适用场景,使用VMFS时需关注队列深度。
  • vSphere层配置 :配置存储网络时考虑可用性和吞吐量,使用Storage vMotion解决热点和非最优VM放置问题,根据不同存储类型的过载表现采取相应的纠正措施。
  • VM层配置 :创建VM时合理选择数据存储和使用RDM,可使用Storage vMotion转换虚拟磁盘格式。
  • 最佳实践遵循 :遵循VMware和存储供应商的最佳实践,合理规划性能和容量,根据RAID类型估算所需的原始容量。

以下是存储设备配置操作的mermaid流程图:

graph LR
    A[理解共享存储] --> B[选择存储选项]
    B --> C[vSphere层配置]
    C --> D[VM层配置]
    D --> E[遵循最佳实践]
6. 常见问题解答与注意事项

在vSphere的管理与配置过程中,可能会遇到一些常见问题,以下是针对这些问题的解答和相关注意事项:

6.1 vCenter Server相关问题
  • Web Client登录无对象显示 :检查用户权限设置,确保用户对相应的vCenter Server实例和对象具有访问权限。
  • 功能无法正常使用 :检查vCenter Server的运行状态和配置,如服务是否正常启动、相关功能是否正确配置等。
6.2 VUM相关问题
  • 无法访问或配置VUM :检查VUM插件是否在vSphere Client中正确安装,确保网络连接正常。
  • 基线更新失败 :检查网络连接、存储库状态以及基线配置是否正确,查看相关日志文件以获取详细信息。
6.3 虚拟网络相关问题
  • vSphere Distributed Switch创建失败 :确保在vSphere Web Client的分布式交换机区域进行创建,检查ESXi主机的权限和网络连接。
  • NIC团队连接中断 :检查物理交换机的配置是否支持所选的负载均衡策略,尝试更换其他策略。
6.4 存储设备相关问题
  • VMFS数据存储过载 :及时采取加深队列、迁移VM或添加主轴等纠正措施,避免影响VM的性能。
  • NFS卷带宽不足 :考虑升级网络或添加数据存储,合理安排Storage vMotion的时间,避免增加过多负担。
7. 未来发展趋势与拓展应用

随着技术的不断发展,vSphere在管理与配置方面也将不断演进,以下是一些可能的未来发展趋势和拓展应用:
- 智能化管理 :借助人工智能和机器学习技术,实现对vSphere环境的智能化监控和管理,自动识别问题并提供解决方案。
- 混合云集成 :加强与公有云的集成,实现混合云环境下的统一管理和资源调配,提高资源利用率和灵活性。
- 安全增强 :不断提升安全防护能力,如加强对虚拟网络和存储的安全策略配置,防范日益复杂的网络攻击。
- 绿色节能 :优化资源分配和使用,降低能源消耗,实现绿色数据中心的建设目标。

通过深入理解和掌握vSphere的管理与配置要点,结合未来的发展趋势,我们可以更好地构建和维护高效、安全、稳定的虚拟基础架构。在实际应用中,要不断学习和实践,根据具体需求灵活运用各种功能和技术,以适应不断变化的业务环境。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值