产品一:深信服超△融合(Sangfor HCI)
深信服超融合 Sangfor HCI 是◥面向下一代数据中心的软件定义基础架构,通过虚拟化技术融◥合计算、存储、网络和安全等资源,并提供运维管■理、容灾备份、智能监控等高级特性,帮助用户构建极简、稳定、高性能的云化╱数据中心基石。Sangfor HCI 入围 Gartner 2019 年《超融合基础设施全球魔力象限》。
超融合基础架构(Sangfor HCI)仅需通√用的服务器和交换机硬件,利用软件定义技术构建『计算、存储、网络和安全的统◥一资源池,替代复杂的传统烟囱式架构,实现基础架构↓的极简化。
一、产品组件
1、服』务器虚拟化aSV
aSV是▆深信服拥有自主知识产权的虚拟化平台,通过对硬件资源的池化及虚拟资源的统一∑ 管理,为用户▆业务提供高性能、高安全、高可▆靠的计算、存储、网络、容灾备份服务,构建高可用、按需服务的虚拟化数⌒ 据中心。2016
2、网↓络虚拟化aNET
网络虚ζ 拟化 aNET基于软件定义网络(SDN)的★设计理念,提供传ω 统应用、新型应用所需虚拟◣网络环境,实现网络资源的》统一编排。aNet提供了完整的逻辑网络和安全性△扩展能力,其中包括虚◆拟交换、路由、防火墙、监控和排障功能,提升数据中心的敏捷性、安全性及扩展性。
3、分布式△存储aSAN
基于X86的服务器ㄨ投入成本比同类小型机产品降低45% aSAN是深信服自主研发的分布式文件存储系统,与服务器虚ξ拟化(aSV)结合使用时,可以在虚拟化或云平台中√管理存储资源。基于aSAN 特有○的自适应条带化、AI缓存算法、存储分卷、多副本机制⌒ 、双活〓集群设计等诸多技术,提供极简、稳定、高性能的存№储服务,满足各行@ 业关键业务的存储需求。
4、安全虚拟㊣ 化aSEC
集成深信服在安全市场的基№因,创新使用 NFV 技术将 7种安全产品融合在虚拟化平台□ 内部,提供上百种安全能力为用户业务及数据安全保驾护航。aSEC可实现安全资源的统一管∮理、灵活部署、弹性伸缩,保障用户业务的安全性、可靠性及敏︽捷性。
二、核心优势
1、性能优化设■计
基于AI的性能优化技术可降低ζ 数据库、消息队列等应用在虚拟化环境的性︾能抖动;分布式▃存储能够充分发挥SSD硬盘ζ性能的92%以上,单节点◆可达▽20万以上的IOPS。
2、数据安全◆可靠
超〗融合通过CDP技术、数据多副本(双副本或三副本◆)技术、虚拟机备份∏技术、应用数据●备份、网络行为管理等多项技术保障数据可靠,数据不※丢失可跨地域的数据备份。
3、全◥域安全能力
提供从平台、虚拟机、业务、数据全方位的安全设♂计,使运行在平台上的业务应用具备完整的安全防护◇体系,符合安︾全等保合规要求,支持与安全感知系统联动,实现全域安全∴可视。
4、平滑¤演进到云
以超融合◣架构打造的IT新基础架构,可支持未来向云数据中心平滑演进,现有IT资源和架构无需调整和变更,即可轻松演进到私有云及混合云模式。
5、极简可◣视运维
平台具备全局的♂资源管理能力,凭借“所画▓即所得”,减少故障定位和█修复时间,用╳户无需经过专门培训即可轻松掌握平台使用方』法。
6、业务承载丰富
Sangfor HCI 除↑了关注传统关键业务(SAP、ERP、Oracle等)稳态应用的承◣载之外,针对新型敏态应用(GPU、K8S、大数据等)承载进行了优化设计,保障业务√承载的稳定╲、安全及弹性。
三、应用场景
1、数据中心新建/改造
传统数据中心投入成Ψ 本高「、运维工作量大、扩展性差,Sangfor HCI将通过极简的建设模式、资源池化和①业务灵活编排等优势,打造更№经济、灵活、高效、弹※性的数据中心。
2、业务系ㄨ统新建/改造
超融ㄨ合架构提供高性能、高扩展性、高可※靠性的IT新型基础架构,解决了核心业务上线投入成本高∞、部署运维复杂→、改造扩容困难的问题。
3、容灾及@ 双活数据中心
面向关键应用提供跨数据中心的容灾及双活解决方案,提供了应用层面、数据层面的跨数据中心业务连续▅性访问能力。
4、云化数据中心建♂设
以软件定义的IT架构实现统一融合的全虚拟化资▆源池,并利旧现▲有硬件资源,优化投资,打造极简、随需应变、平滑Ψ演进的IT新架构;在变更IT架构的基础上实现向混合云平滑演进。
产品二:Smart X 超融合
1 传统集中式虚拟化的问题
传统虚拟化解决方案将计算服务器和存储服务器卐独立开来,采用集中式存储(SAN/NAS),这种结构是上世纪的遗留结构,缺陷日益╲凸显。这是其中的原因在于随着企业业务数据量的井↘喷,企业应㊣ 用呈现出类似大型互联网应用的特点:
存储控制器扩展困难
早期的共享①存储,性能瓶颈通常都在磁盘阵列上,通过添加磁盘向上升级的方ぷ式能一定程度解决瓶颈的问〗题,但随着磁盘数量的←增加以及高速硬件 SSD 的出现,存储端的性能↙瓶颈转移到存储控制器,集中式存储控制器扩展困难,一般都是固定的双控或者四控,这种架构设计上的弊端是的集中存储无法发挥高速硬件设备的潜能,随着虚拟化平台下业↑务数据量的增长,最终导致存储端▓无法支撑上层业务的访问。
存储【系统无法感知 VM
共享存储无法¤感知上层 VM 的负载,导致出现 I/O Blender 现象,即不同的 VM 间负载的混》合,加剧△了共享存储的访问压力。例如,上层 VM 出】发的顺序 I/O 的访问请「求,在通过 Hypervisor 调度后会与其▲他 VM 的 I/O 请求混合,使得原本顺序的 I/O 请求模式在共享存储端变得◇随机化,对机械卐磁盘极不友好。即便这种问题可以通过添加 SSD 缓解,但之前提到共享存储中控制器导致的的 SSD 不能充』分发挥效用的问题,使得 I/O Blender 的影响无法根本避免。
VM I/O 延时风险
共享存储通过存储网络与服务器ζ相连。VM 需要经过存储网络才能〓读写数据,这个与︼本地 I/O 仅通过总线访问物理盘的◣数据相比,延时大大♀增加。之前提到的增加︼物理盘向上升级的方式〖无法缩小 I/O 读写延时,不同↓服务器或者 VM 发出的 I/O 请求⊙本质还是串行的㊣ 。在非虚拟化的场景,连接存储网络的服务器是线性增加的,规模增加产生的并●发延时可能不明显;但在虚拟化场景下,一个物理◤服务器上可能会运行十几个甚至上百个 VM, 这些成几何级数增长︾的 VM 并发访◥问共享存储会带来 I/O 延时的问题ζ 。
存储单点故【障
虚拟化依赖底层的存〗储提供 VM 层面的高可↓用,但是共享存储本身存在单点故障的风险,存储控制器和磁盘阵列的错误都有可能造成存储∩不可用或者数据丢失。通用的解决办法就是购买维护⊙多套共享存储,但这样极大的增加的成本及其管理的复杂性。
成本昂贵
共享存储都是由专有的硬件实现,成本造价∏高。同时考虑到々扩展困难,用户通常在规划的Ψ时候需要预留出余量,无形中也提※高了初次购买成本。
运维复杂
共享存储支撑下的虚拟化平台,运维管理需要面向多个平¤台,至少∮包括虚拟化平台、存储平台、备♂份平台等,运维负担重。此外,系统发生异々常,管理员需要在不同的①管理平台间切换排查错误,效率低下。
2 SmartX超融合存储计算虚拟化架构
相比分离式的计算存储虚拟化,超融合虚拟①化,也称做Hyper-converged,在提供存储的同时,也提供计◤算能力,这不但大量减少了硬件和电ㄨ力成本,也将计算☆放在离存储更近的地方,达卐到最优的性能。超融合架构通常采用了全分布式的组件,横向☉可扩展,不存在单☉点失效,数据能够自动恢复和备份,下图是超融合的虚拟化架构ζ:
1) 无中心的系统架构
将计算和存储功能分布到每个节点中,去掉集中△式存储,利用标准化→硬件构建大规模的计算群集及海量的高性〓能存储。SmartX摒弃了传统的通过◣扩展磁盘柜扩展容量的方∩式,而是通过添加新的ㄨ服务器节点同时获得存储容量和性能的水平扩展,扩展后的空间、容量和※性能是可预估的,能极大帮≡助企业IT选择最合适的软硬件解决方案。SmartX每一次都可水平扩展:
SMARTX OS基于Linux的操↘作系统,提供ZBS分布式文件▅系统,Elf Compute KVM管理平台, Fisheye性能监控平台。
硬件包括:X86服务器、交换机等;
自动负载均衡
扩展№节点后,SmartX会根据集群中各⊙个服务器节点的负载和容量使用情况做负载↘均衡,以达←到整个系统的负载均衡,避免单点过热的情况☆出现。
扩展无需暂停业▓务
水平扩展只需要将部署了SmartX的新节点和原有集群连接到同一网络,通过图形控制Ψ台或者命令将新节点添加到SmartX集〖群中即可,整个扩容过程不会影响任何服务,虚拟机无需停机。
即刻生效
节点被添加※到集群,该新增节点的计算和存储资源会通过一轮“心跳”向集㊣ 群汇报,集群系统的整体容量〖和性能也随之线性扩展,此后新节点的资源就会被SmartX接管。
2) 高性→能分层存储
SmartX区别于』传统存储架构的一大特点就是对SSD的合↙理使用。SmartX实现了智①能Cache的技术,将热数据缓存在SSD里,加速数据读性能;同时使用Journal合并小的写操作来加速∑ 写性能。不同于传统的SAN和NAS—通常SSD容量的配比不能超过5%,SmartX支持用户ω 根据业务的数据访问需求,自行配置SSD的大小和比⌒ 例。
3) 基于弹性副本技术的数据高可∑用
ZBS通过软件实现了弹性】副本的功能,该功能将副本分布在不同的服务器上,来提供数据冗余及对上层应用连∑续性在存储层面的支持。ZBS对每∑个虚拟存储盘支持1~3个不同☆的副本,因此用∏户可以根据业务需求灵活的制定业务所需要的副本数。
同一份数据的多个副本会分布到「不同的物理服务器■节点上,即便一个服务器节点损坏也不会影响数据的可用性和可靠性。系统会周期性的卐扫描系统中可用的数据块,一旦ξ发现某个数据块的可靠性级别低于设定值〓,就会触发智能恢○复。假定用户设定某个虚←拟盘副本数为两份,系统ζ会将虚拟盘切分成小的数据块(如图:D1、D2、D3),同一份数据会复制到两个不同的服务器上,假使某台服务器损◣坏(服务器3),由于整个集群仍◎旧有该虚拟盘的完整数据,可以确保数据的可♀用性。此外,数据副本数减少,ZBS会及时发现这一事件,并将数据恢复到其它健康的物理服务器(服务器1、服务器2),以确保两副本的数据♂可靠性。
服务器Server 3故障
数据重〗构后
传统RAID重建时,经常导致存储系统不可用。不同于RAID重建机制,ZBS在恢复副◥本的时候,正常业务仍可正≡常运行,ZBS通ζ 过控制恢复流量所占的I/O带宽,确保业务性能不受大的影〗响。
4) 强大硬件兼容性
SmartX 超融ω 合架构拥有两种部署模式,一是 SmartX Halo 一体机,包含SmartX OS软ω 件和高密度服务器,二是将 SmartX OS 软件安装在符合硬件配置要求的x86 服务器上。
SmartX Halo 一体机为 SmartX OS 软件定制了硬件,是 SmartX 超融合平♂台最佳软硬件实践。硬件平台经过严格测试,是最快捷、最稳定的交付方式。 可⊙减少硬件投入成本、机房空间和电力』消耗。
如需将 SmartX OS 软件部署在◇其它通用 x86 服务器平¤台上,请参考 “SmartX 硬件∞配置及支持” 获得更为详细』的信息。
5) 其它特性
SmartX基于∞通用的X86服务器,可以跟随者通用硬件的快速升级而得到性能提升和新功能加入,为用户节省更多的开支。
利ぷ用软件定义存储实现传统多款存储产品①的功能,并且提供↘统一易用的接口,节省IT开支▓和机柜空间/电力使用的同时,使得IT更加的敏捷。
软件的灵活性使得私□ 有云和公有云ㄨ的存储可以更好的结合,例如软件可以将数据备︽份到云存储中去,提供灾难恢复≡,也可以跨数据☉中心提供虚拟机迁移和容√灾等功能。
SmartX内置ELF Compute虚拟化计算平台,该虚拟化平台基于KVM,提供能◆弹性的虚拟化计算功能,支持基本的虚拟机管理、热迁移、重建等功能,满足绝大部分虚拟化计算场景的需求。
SmartX超融合架构也♀可结合Vmware Vsphere Esxi、Citrix Xenserver等服务器「虚拟软件进行部署。