首頁 Enterprise EMC VNX5200 評測

EMC VNX5200 評測

by StorageReview 企業實驗室

EMC 的 VNX5200 存儲控制器是該公司 VNX2 產品的入口點,具有塊存儲以及可選文件和統一存儲功能。 VNX5200 最多可管理 125 個 2.5 英寸或 3.5 英寸 SAS 和 NL-SAS 硬盤驅動器和 SSD,並採用 EMC 的 MCx 多核架構構建。 StorageReview 企業測試實驗室主任 Kevin O'Brien 最近前往位於馬薩諸塞州霍普金頓的 EMC 數據中心進行了一些實際操作和 VNX5200 基準測試。


EMC 的 VNX5200 存儲控制器是該公司 VNX2 產品的入口點,具有塊存儲以及可選文件和統一存儲功能。 VNX5200 最多可管理 125 個 2.5 英寸或 3.5 英寸 SAS 和 NL-SAS 硬盤驅動器和 SSD,並採用 EMC 的 MCx 多核架構構建。 StorageReview 企業測試實驗室主任 Kevin O'Brien 最近前往位於馬薩諸塞州霍普金頓的 EMC 數據中心進行了一些實際操作和 VNX5200 基準測試。

In 去年九月, EMC 更新了他們流行的 VNX 系列統一存儲陣列,具有顯著的硬件增強功能。 其結果是 VNX2 系列,具有增強功能,例如從 PCIe 2.0 遷移到 PCIe 3.0 和新的 MCx 架構(包括多核 RAID、多核緩存和多核 FAST Cache)以更好地利用存儲處理器中的多個 CPU 內核。

其中許多增強功能側重於使 VNX 平台能夠在存儲管理員繼續轉向混合陣列配置時更好地利用閃存。 根據 EMC 的說法,近 70% 的 VNX2 系統現在都採用混合閃存配置,這一轉變也更加重視 EMC 的 FAST 套件在緩存和分層方面的作用。

而較小的 我們之前評測過的 VNXe3200 VNX2 還使用 VNX5200 技術進行了更新,專為需要在總部使用主存儲系統的中端市場客戶以及比 VNXe3200 更強大的遠程/分支機構需求而設計。 VNX5200 可以針對數據塊、文件或統一存儲進行配置,並使用 3U、25x 2.5 英寸 EMC 磁盤處理器機箱 (DPE) 機箱。 VNX5200 的存儲處理器單元採用 1.2GHz 四核 Xeon E5 處理器和 16GB RAM,最多可管理 125 個具有 FC、iSCSI、FCoE 和 NAS 連接的驅動器。

VNX2 系列目前還包括五個存儲系統,專為比 VNXe3200 和 VNX5200 更大的規模而設計。

  • VNX5400:1 個驅動器中高達 250PB 的原始容量、高達 1TB 的 SSD FAST 緩存以及每個陣列多達 8 個 UltraFlex I/O 模塊
  • VNX5600:2 個驅動器中高達 500PB 的原始容量、高達 2TB 的 SSD FAST 緩存以及每個陣列多達 10 個 UltraFlex I/O 模塊
  • VNX5800:3 個驅動器中高達 750PB 的原始容量、高達 3TB 的 SSD FAST 緩存以及每個陣列多達 10 個 UltraFlex I/O 模塊
  • VNX7600:4 個驅動器中高達 1,000PB 的原始容量、高達 4.2TB 的 SSD FAST 緩存以及每個陣列多達 10 個 UltraFlex I/O 模塊
  • VNX8000:6 個驅動器中高達 1,500PB 的原始容量、高達 4.2TB 的 SSD FAST 緩存以及每個陣列多達 22 個 UltraFlex I/O 模塊

VNX5200 塊存儲由具有 6Gb SAS 驅動器拓撲的雙 VNX 存儲處理器提供支持。 VNX2 部署可以使用一個或多個 Data Mover 和一個控制器單元來提供 NAS 服務。 與 VNX 系列的其他成員一樣,VNX5200 將 UltraFlex I/O 模塊用於其 Data Mover 和塊存儲處理器。 VNX5200 最多支持三個 Data Mover,每個 Data Mover 最多支持三個 UltraFlex 模塊。

MCx 多核功能

VNX 早於廣泛使用的多核處理器技術,並且該平台的前幾代並非構建在可以利用動態 CPU 擴展的基礎之上。 VNX1 和 CLARiiON CX 操作環境 FLARE 確實允許包括 RAID 在內的服務在特定的 CPU 核心上運行,但 FLARE 的單線程範例意味著許多核心功能都綁定到第一個 CPU 核心。 例如,所有傳入的 I/O 進程在被委託給其他核心之前都由核心 0 處理,從而導致出現瓶頸情況。

MCx 實現了 EMC 所描述的水平多核系統擴展,允許所有服務分佈在所有內核上。 在 VNX2 和 VNXe3200 上都可用的這種新架構下,傳入 I/O 進程不太可能成為瓶頸,因為例如,前端光纖通道端口可以均勻分佈在多個處理器內核中。 MCx 還通過其首選核心概念實現 I/O 核心親和性。 每個端口,前端和後端,都有一個首選核心和一個備用核心分配。 系統服務主機請求與發起請求的前端核心相同,以避免在核心之間交換緩存和上下文。

新的 MCx 架構的一個主要優勢是支持對稱的主動/主動 LUN,這使主機能夠通過陣列中的兩個存儲處理器同時訪問 LUN。 與 FLARE 的非對稱實施不同,對稱主動/主動模式允許兩個 SP 直接寫入 LUN,而無需將更新發送到主存儲處理器。

目前,VNX2 系統支持經典 RAID 組 LUN 的對稱主動/主動訪問,但不支持私有池 LUN 的主動/主動訪問,而是可以使用非對稱主動/主動模式。 如果專用池 LUN 或“經典 LUN”使用 VNX RecoverPoint 拆分器以外的數據服務,則它們當前無法使用對稱主動/主動模式。

VNX5200 在 MCx 體系結構和閃存媒體存儲之間的引人注目的協同作用之一是系統對 EMC FAST Suite 的支持,它允許管理員利用閃存存儲媒體來提高異構驅動器的陣列性能。 FAST Suite 將兩種使用閃存來加速存儲性能的方法(緩存和分層)結合到一個集成解決方案中。 FAST Suite 的 VNX2 更新包括四倍更好的分層粒度和對新 eMLC 閃存驅動器的支持。

VNX FAST Cache 允許使用多達 4.2TB 的 SSD 存儲,以便為高度活躍的數據提供服務並動態調整以適應工作負載峰值,儘管 VNX5200 的緩存大小上限為 600GB。 隨著數據老化並隨著時間的推移變得不那麼活躍,FAST VP 根據管理員定義的策略以 256MB 的增量將數據從高性能驅動器分層到高容量驅動器。

EMC VNX5200 規格

  • 陣列機箱:3U 磁盤處理器機箱
  • 驅動器外殼:
    • 2.5 英寸 SAS/閃存 (2U),25 個驅動器
    • 3.5 英寸 SAS/閃存 (3U),15 個驅動器
  • 最大 SAN 主機數:1,024
  • 最小/最大驅動器:4/125
  • 最大 FAST 緩存:600GB
  • 每個陣列的 CPU/內存:2 個 Intel Xeon E5-2600 4 核 1.2GHz/32GB
  • RAID: 0/1/10/3/5/6
  • 最大原始容量:500TB
  • 協議:FC、FCoE、NFS、CIFS、iSCSI、
  • 存儲類型:統一、SAN、NAS、對象
  • 驅動器類型:閃存 SSD、SAS、NL-SAS
  • 容量優化:精簡配置、塊重複數據刪除、塊壓縮、文件級重複數據刪除和壓縮
  • 性能:MCx、FAST VP、FAST Cache
  • 管理:EMC Unisphere
  • 虛擬化支持:VMware vSphere、VMware Horizo​​n View、Microsoft Hyper-V、Citrix XenDesktop
  • 每個陣列的最大塊 UltraFlex I/O 模塊:6
  • 每個陣列的最大總端口數:​​28
  • 2/4/8Gb/s FC 每個陣列的最大端口數:24
  • 1GBASE-T iSCSI 每個陣列的最大總端口數:​​16
  • 每個陣列的最大 FCoE 端口數:12
  • 每個陣列的 10GbE iSCSI 最大總端口數:​​12
  • 控制站:1 或 2
  • 支持的最大 LUN:1,000(池)
  • 最大 LUN 大小:256TB(虛擬池 LUN)
  • 最大文件系統大小:16TB
  • 文件數據移動器數量:1、2 或 3
  • 每個數據移動器的 CPU/內存:Intel Xeon 5600/6GB
  • 用於塊的 UltraFlex I/O 擴展模塊:
    • 4 端口 2/4/8Gb/s 光纖通道
    • 4 端口 1Gb/s(銅線)iSCSI
    • 2 端口 10Gb/s(光學)iSCSI
    • 2 端口 10GBASE-T(銅線)iSCSI
    • 2 端口 10GbE(光纖或雙軸)FCoE
  • 用於文件的 UltraFlex I/O 擴展模塊:
    • 4 端口 1GBASE-T
    • 4 端口 1GBASE-T 和 1GbE(光纖)
    • 2 端口 10GbE(光纖) 
    • 2 端口 10GBASE-T(銅線) 

設計和建造

在 VNX 術語中,存儲部署由多個集成機架組件組成。 控制器組件是不包含驅動器托架的存儲處理器機櫃 (SPE),或者與此 VNX5200 一樣,是提供內部存儲的磁盤處理器機櫃 (DPE)。 VNX 磁盤陣列存儲模塊 (DAE) 可用於合併額外的存儲容量。

除了雙 SAS 模塊、雙電源和風扇組之外,SPE 還集成了 VNX 存儲處理器。 磁盤處理器機櫃 (DPE) 包括機櫃、磁盤模塊、存儲處理器、雙電源和四個風扇組。 通過使用 DAE 添加額外的存儲可以通過使用帶有雙 SAS 鏈路控制卡和雙電源的 15x 3.5 英寸、25x 2.5 英寸或 60x 3.5 英寸驅動器托架來完成。

無論它們是存儲處理器機箱還是磁盤處理器機箱的一部分,VNX 存儲處理器都提供對外部主機的數據訪問,並將陣列的塊存儲與可選的 VNX2 文件存儲功能連接起來。 VNX5200 可以利用各種 EMC 的 UltraFlex IO 模塊來定制其連接性。

UltraFlex 塊 IO 模塊選項:

  • 四端口 8Gb/s 光纖通道模塊,帶有光纖 SFP 和 OM2/OM3 電纜,可連接到 HBA 或 FC 交換機。
  • 四端口 1Gb/s iSCSI 模塊,帶有 TCP 卸載引擎和四個 1GBaseT Cat6 端口。
  • 雙端口 10Gb/s 可選 iSCSI 模塊,帶有 TCP 卸載引擎、兩個 10Gb/s 以太網端口和一個 SFP+ 光學連接或一個到以太網交換機的雙軸銅連接。
  • 雙端口 10GBaseT iSCSI 模塊,帶有 TCP 卸載引擎和兩個 10GBaseT 以太網端口
  • 雙端口 10GbE FCoE 模塊,帶有兩個 10Gb/s 以太網端口和一個 SFP+ 光纖連接或雙軸銅纜連接
  • 四端口 6Gb/s SAS V2.0 模塊,用於後端連接到 VNX 塊存儲處理器。 對於 6Gb/s 的標稱吞吐量,每個 SAS 端口有四個通道,速度為 24Gb/s。 該模塊專為 PCIe 3 連接而設計,可配置為 4x4x6 或 2x8x6。

為了將 VNX5200 配置為文件存儲或統一存儲,它必須與一個或多個 Data Mover 單元串聯使用。 VNX Data Mover 機櫃 (DME) 的大小為 2U,用於容納 Data Mover。 Data Mover 使用 2.13GHz 四核 Xeon 5600 處理器,每個 Data Mover 具有 6GB RAM,並且每個 Data Mover 可以管理 256TB 的最大存儲容量。 數據移動器機櫃可以與一個、兩個或三個數據移動器一起運行。

控制站大小為 1U,為數據移動器提供管理功能,包括故障轉移控制。 控制台可以與輔助控制台一起部署以實現冗餘。 UltraFlex 文件 IO 模塊選項包括:

  • 四端口 1GBase-T IP 模塊,帶有四個用於 Cat45 電纜的 RJ-6 端口
  • 雙端口 10GbE Opt IP 模塊,帶有兩個 10Gb/s 以太網端口,可選擇 SFP+ 光纖連接或雙芯銅纜連接到以太網交換機
  • 雙端口 10 GBase-T IP 模塊,通過銅纜連接到以太網交換機
  • 四端口 8Gb/s 光纖通道模塊,帶有光學 SFP 和 OM2/OM3 電纜,可直接連接到固定陣列並提供 NDMP 磁帶連接

管理和數據服務

VNX 系列使用 EMC 的 Unisphere 管理軟件。 我們對 Unisphere 的總體印像是它提供了一個乾淨且組織良好的界面,IT 通才可以訪問它,同時還允許有經驗的存儲管理員訪問系統的全部功能。

Unisphere 合併了快照功能,其中包括自動刪除策略的配置選項,該策略在 (1) 指定時間後或 (2) 一旦快照存儲空間超過存儲容量的指定百分比時刪除快照。 VNX 快照可以利用 EMC 的自動精簡配置和重定向寫入技術來提高速度並降低存儲快照的存儲要求。

VNX 使用專為相對不活躍的 LUN 和文件設計的數據塊和文件壓縮算法,允許其壓縮和重複數據消除操作在後台執行,同時降低性能開銷。 VNX 的固定塊重複數據刪除以 8KB 粒度構建,適用於虛擬機、虛擬桌面和測試/開發環境等場景,可從重複數據刪除中獲益良多。 可以在池 LUN 級別設置重複數據刪除,精簡、密集和已刪除重複的 LUN 可以存儲在單個池中。

Unisphere Central 為多達數千個 VNX 和 VNXe 系統(例如部署在遠程和分支機構的系統)提供集中式多機監控。 Unisphere 套件還包括用於存儲利用率和工作負載模式的 VNX 監控和報告軟件,以促進問題診斷、趨勢分析和容量規劃。

在虛擬化環境中,VNX5200 可以部署 EMC 的 Virtual Storage Integrator for VMware vSphere 5,用於配置、管理、克隆和重複數據刪除。 對於 VMware,VNX5200 為 VAAI 和 VASA 提供 API 集成,在 Hyper-V 環境中,它可以配置為卸載數據傳輸和文件卸載複製。 EMC Storage Integrator 為 Hyper-V 和 SharePoint 提供配置功能。 EMC Site Recovery Manager 軟件也可以在災難恢復情況下管理故障轉移和故障恢復。

從 VNX2 到 VNX5200 的 VNX8000 陣列提供 EMC 新的基於控制器的靜態數據加密,名為 D@RE,它在驅動器級別加密所有用戶數據。 D@RE 使用 AES 256 加密,並且正在等待 FIPS-140-2 級別 1 合規性驗證。 新的支持 D@RE 的 VNX 陣列附帶加密硬件,現有的 VNX2 系統可以現場升級以支持 D@RE 並作為後台任務對現有存儲進行無中斷加密。

D@RE 使用常規數據路徑協議對寫入陣列的所有數據進行加密,每個磁盤具有唯一密鑰。 如果出於任何原因從陣列中移除驅動器,則驅動器上的信息將無法理解。 D@RE 還包含加密擦除功能,因為它的加密密鑰在刪除 RAID 組或存儲池時被刪除。

VNX2 提供鏡像寫入緩存功能,其中每個存儲處理器都包含其 LUN 的主要緩存數據和對等存儲處理器的緩存輔助副本。 RAID 級別 0、1、1/0、5 和 6 可以在同一陣列中共存,系統的主動熱備份功能進一步增強了數據保護。 該系統使用集成電池備份單元提供高速緩存降級和其他考慮因素,以便在電源故障期間有序關閉。

本地保護可通過 Unisphere 的時間點快照功能獲得,而連續數據保護可通過 RecoverPoint 本地複制獲得。 EMC 的 VPLEX 可用於在數據中心內部和跨數據中心擴展連續可用性。 根據 EMC 的說法,它使用電視 DVR 作為其 RecoverPoint Continuous Remote Replication 軟件的靈感來源。

Replication Manager 和 AppSync 通過 EMC 備份和恢復解決方案(包括 Data Domain、Avamar 和 Networker)提供應用程序一致的保護,以縮短備份窗口和恢復時間。

測試背景和存儲介質

我們發布一個 我們實驗室環境的清單,安 實驗室網絡能力概述,以及有關我們測試協議的其他詳細信息,以便管理員和負責設備採購的人員可以公平地衡量我們取得公佈結果的條件。 為了保持我們的獨立性,我們的評論都不是由我們正在測試的設備製造商支付或管理的。

與我們通常評估設備的方式相比,EMC VNX5200 評估作為一種相當獨特的測試方法脫穎而出。 在我們的標準審查流程中,供應商將平台發送給我們,然後我們將其連接到我們的固定測試平台以進行性能基準測試。 對於 VNX5200,尺寸和復雜性以及初始設置促使我們改變了這種方法並將我們的審核人員和設備飛到 EMC 的實驗室。 EMC 準備了一個 VNX5200,其中包含 iSCSI 和 FC 測試所需的設備和選件。 EMC 提供了他們自己的專用 8Gb FC 交換機,而我們帶來了我們的 Mellanox 10/40Gb SX1024 交換機之一用於以太網連接。 為了強調系統,我們利用了 EchoStreams OSS1A-1U 服務器,超過了我們在傳統實驗室環境中使用的硬件規格。

EchoStreams OSS1A-1U 產品規格:

  • 2 個 Intel Xeon E5-2697 v2(2.7GHz,30MB 緩存,12 核)
  • 英特爾 C602A 芯片組
  • 內存 – 16GB (2x 8GB) 1333MHz DDR3 Registered RDIMM
  • Windows Server標準2012 R2的
    • 引導固態硬盤:100GB 美光 RealSSD P400e
  • 2 個 Mellanox ConnectX-3 雙端口 10GbE NIC
  • 2 個 Emulex LightPulse LPe16002 Gen 5 光纖通道(8GFC、16GFC)PCIe 3.0 雙端口 HBA

我們對 VNX5200 的評估將比較其在五種配置的綜合基準測試中的性能,這些配置反映了 EMC 客戶如何在生產環境中部署 VNX2 系統。 每個配置利用 8 個 LUN,大小為 25GB。

  • 由具有光纖通道連接的 SSD 介質組成的 RAID10 陣列
  • 由具有 iSCSI 連接的 SSD 介質組成的 RAID10 陣列
  • 一個 RAID6 陣列,由具有光纖通道連接的 7k HDD 介質組成
  • 一個 RAID5 陣列,由具有光纖通道連接的 10k HDD 介質組成
  • 一個 RAID5 陣列,由具有光纖通道連接的 15k HDD 介質組成。

每個配置包含 24 個驅動器,並使用在生產環境中最常見的 RAID 配置。

企業綜合工作負載分析

在啟動每個 fio 綜合基準,我們的實驗室在 16 個線程的重負載下將設備預處理到穩定狀態,每個線程有 16 個未完成隊列。 然後使用多個線程/隊列深度配置文件以設定的時間間隔測試存儲,以顯示輕度和重度使用情況下的性能。

預處理和初級穩態測試:

  • 吞吐量(讀+寫 IOPS 聚合)
  • 平均延遲(讀+寫延遲一起平均)
  • 最大延遲(峰值讀取或寫入延遲)
  • 延遲標準偏差(讀+寫標準偏差一起平均)

該綜合分析包含四種配置文件,這些配置文件廣泛用於製造商規範和基準測試:

  • 4k 隨機 – 100% 讀取和 100% 寫入
  • 8k 順序 – 100% 讀取和 100% 寫入
  • 8k 隨機 – 70% 讀取/30% 寫入
  • 128k 順序 – 100% 讀取和 100% 寫入

在針對 4k 工作負載進行預處理後,我們對 VNX5200 進行了初步測試。 因此,當配置 SSD 並通過光纖通道訪問時,它發布了 80,472 IOPS 讀取和 33,527 IOPS 寫入。 在 RAID10 中使用相同的 SSD(雖然這次使用我們的 iSCSI 塊級測試),VNX5200 實現了 37,421 IOPS 讀取和 22,309 IOPS 寫入。 使用光纖通道連接切換到 RAID15 中的 5K HDD 顯示 12,054 IOPS 讀取和 3,148 IOPS 寫入,而 10K HDD 配置達到 7,688 IOPS 讀取和 2,835 IOPS 寫入。 當在相同連接類型的 RAID7 配置中使用 6K HDD 時,VNX5200 發布了 4,390 IOPS 讀取和 1,068 IOPS 寫入。

結果在平均延遲方面大致相同。 當在 RAID10 中配置 SSD 並使用光纖通道連接時,它顯示讀取時間為 3.18 毫秒,寫入時間為 7.63 毫秒。 在我們的 iSCSI 塊級測試中使用相同的 SSD,VNX5200 擁有 6.84 毫秒的讀取時間和 11.47 毫秒的寫入時間。 使用光纖通道連接切換到 RAID15 中的 5K HDD 顯示平均延遲為 21.23ms 讀取和 81.31ms 寫入,而 10K HDD 配置顯示 33.29ms 讀取和 90.31ms 寫入。 在相同連接類型的 RAID7 配置中切換到 6K HDD 時,VNX5200 讀取時間為 58.29 毫秒,寫入時間為 239.64 毫秒。

接下來,我們轉到最大延遲基準。 當在 RAID10 中配置 SSD 並使用我們的 iSCSI 塊級測試時,它顯示讀取時間為 197 毫秒,寫入時間為 421.8 毫秒。 使用相同的 SSD,雖然這次是光纖通道連接,但 VNX5200 擁有 202.1 毫秒的讀取時間和 429.2 毫秒的寫入時間。 使用光纖通道連接切換到 RAID15 中的 5K HDD 記錄了 1,311.3ms 讀取和 1,199.2ms 寫入最大延遲,而 10K HDD 配置記錄了 2,687.8ms 讀取和 2,228.1ms 寫入。 在相同連接類型的 RAID7 配置中切換到 6K HDD 時,VNX5200 讀取時間為 3,444.8 毫秒,寫入時間為 2,588.4 毫秒。

我們最後的 4K 基準是標準差,它衡量的是畫面的一致性 VNX5200的性能. 當使用我們的 iSCSI 塊級測試在 RAID10 中配置 SSD 時, VNX5200 發布 3.30ms 讀取和 12.06ms 寫入。 使用具有光纖通道連接的相同 SSD 顯示讀取時間為 9.20 毫秒,寫入時間為 14.32 毫秒。 切換到具有光纖通道連接的 RAID15 中的 5K HDD 記錄了 25.93ms 讀取和 120.53ms 寫入,而 10K HDD 配置記錄了 35.37ms 讀取和 175.66ms 寫入。 使用相同連接類型的 7K HDD RAID6 配置時,VNX5200 的讀取時間為 52.75 毫秒,寫入時間為 254.55 毫秒。

我們的下一個基準測試使用由 100% 讀取操作和 100% 寫入操作組成的順序工作負載,傳輸大小為 8k。 此處,當在 RAID5200 光纖通道連接中配置 178,959K HDD 時,VNX76,022 讀取 IOPS 為 10,寫入 IOPS 為 5。 在具有光纖通道連接的 RAID15 中使用 5K HDD 顯示 176,895 IOPS 讀取和 77,505 IOPS 寫入。 使用光纖通道連接切換到 RAID10 中的 SSD 記錄了 169,833 IOPS 讀取和 74,470 IOPS 寫入,而 SSD iSCSI 塊級測試顯示 69,303 IOPS 讀取和 40,379 IOPS 寫入。 在具有光纖通道連接的 RAID7 配置中使用 6K HDD 時,VNX5200 發布了 75,982 IOPS 讀取和 76,122 IOPS 寫入。

我們的下一系列工作負載由 8k 讀取 (70%) 和寫入 (30%) 操作混合組成,最多 16 個線程 16 個隊列,我們的第一個是吞吐量。 當使用光纖通道連接在 RAID10 中配置 SSD 時,VNX5200 發布了一系列 8,673 IOPS 至 41,866T/16Q 16 IOPS. 在我們的 iSCSI 塊級測試期間使用相同的 SSD 顯示了一系列 6,631 IOPS 至 28,193 IOPS. 在 RAID15 中切換到具有光纖通道連接的 5K HDD 記錄了一系列 1,204 IOPS  6,411 IOPS,而 10K HDD 配置在 826T/5,113Q 下發布了 16 IOPS 和 16 IOPS。 當使用相同連接類型的 7K HDD RAID6 配置時,VNX5200 公佈了 267 IOPS 到 2,467 IOPS 的範圍。

接下來,我們查看了平均延遲。 當使用光纖通道連接在 RAID10 中配置 SSD 時,VNX5200 發布的 0.45T/6.11Q 範圍為 16 毫秒至 16 毫秒。 在我們的 iSCSI 塊級測試期間使用相同的 SSD 顯示範圍為 0.59 毫秒到 9.07 毫秒。 在具有光纖通道連接的 RAID15 中切換到 5K HDD 記錄的範圍為 3.31ms 和 39.89ms,而 10K HDD 配置最初為 4.83ms,49.97T/16Q 為 16ms。 使用相同連接類型的 7K HDD RAID6 配置時,VNX5200 發布的範圍為 14.93 毫秒至 103.52 毫秒。

查看其最大延遲結果,當使用光纖通道連接在 RAID10 中配置 SSD 時,VNX5200 的 27.85T/174.43Q 範圍為 16 毫秒至 16 毫秒。 在我們的 iSCSI 塊級測試期間使用相同的 SSD 顯示最大延遲範圍為 31.78 毫秒至 134.48 毫秒。 在具有光纖通道連接的 RAID15 中切換到 5K HDD 記錄的範圍為 108.48ms 和 2,303.72ms,而 10K HDD 配置顯示 58.83T/2,355.53Q 為 16ms 和 16ms。 使用相同連接類型的 7K HDD RAID6 配置時,VNX5200 發布的最大延遲範圍為 82.74 毫秒至 1,338.61 毫秒。

我們的下一個工作負載分析 8k 70% 讀取和 30% 寫入操作的標準偏差。 在使用光纖通道連接的 RAID10 中使用 SSD,VNX5200 通過 0.18T/10.83Q 公佈的範圍僅為 16 毫秒至 16 毫秒。 在我們的 iSCSI 塊級測試期間使用相同的 SSD 顯示延遲一致性的相似範圍為 0.21 毫秒到 11.54 毫秒。 在具有光纖通道連接的 RAID15 中切換到 5K 硬盤記錄了 3.48 毫秒到 56.58 毫秒的範圍,而 10K 硬盤配置最初顯示為 2.5 毫秒,66.44T/16Q 為 16 毫秒。 當使用相同連接類型的 7K HDD RAID6 配置時,VNX5200 發布的標準偏差範圍為 7.98 毫秒至 110.68 毫秒。

我們最終的綜合基準測試使用順序 128k 傳輸和 100% 讀取和 100% 寫入操作的工作負載。 在此場景中,在使用我們的 iSCSI 塊級測試配置 SSD 時,VNX5200 的讀取速度為 2.84GB/s,寫入速度為 1.26GB/s。 在具有光纖通道連接的 RAID15 中使用 5K HDD 顯示 2.48GB/s 讀取和 2.33GB/s 寫入。 切換回 RAID10 中的 SSD(這次使用光纖通道連接),它記錄了 2.48GB/s 的讀取速度和 3.06GB/s 的寫入速度。 當在具有光纖通道連接的 RAID7 配置中使用 6K HDD 時,VNX5200 的讀取速度為 2.47GB/s,寫入速度為 2.68GB/s,而 10K HDD 配置的讀取速度為 2.47GB/s,寫入速度為 3.22GB/s。

結論

EMC 的 VNX 生態系統在企業存儲市場中已經確立,但 VNX2 反映了該公司徹底改革 VNX 架構以充分利用處理器、閃存和網絡技術的進步的意願。 很像 VNXe3200,面向較小的部署,VNX5200 還表明 EMC 正在關注中端市場公司和遠程/分支機構,它們可能無法證明 VNX 系列中大型系統的費用是合理的,但仍希望獲得所有企業優勢. 

與 FAST Suite 結合使用,VNX5200 能夠同時提供閃存緩存和分層,這是 EMC 同行難以與之競爭的組合。 在我們的測試中,我們打破了常見的存儲層和配置,以通過有限的測試套件說明用戶對 5200 的期望。測試涵蓋 7K HDD 和 SSD,說明系統具有的靈活性,提供容量、性能、或兩者都通過各種接口選項。 

最終,VNX2 平台幾乎可以處理任何問題; 正是這種靈活性贏得了每天的 EMC 交易。 考慮到存儲選項、IO 模塊和 NAS 支持的混合,系統能夠管理組織可能需要的幾乎所有內容。 當然,有些用例超出了我們在這裡測試的 5200。 VNX 系列擴展了很多(使用 VNXe3200 也縮小了一些)以滿足這些需求,無論是使用更多的計算能力、閃存分配還是磁盤架。 

優點

  • 通過 UltraFlex I/O 模塊提供多種連接選項
  • 支持塊、文件、統一存儲場景的配置
  • 訪問強大的 VNX 管理工具和第三方集成生態系統

缺點

  • 最大 600GB 的 FAST Cache

底線

EMC VNX5200 是其新一波統一存儲陣列的重要成員,這些陣列的架構旨在利用閃存存儲、多核 CPU 和現代數據中心網絡環境。 它的經濟性、配置靈活性以及對 VNX2 管理軟件和第三方集成的訪問權限為中端市場打造了一個強大的整體軟件包。

EMC VNX5200 產品頁面

討論這篇評論