Memblaze 在 PBlaze64 3-5 系列中發布了一系列 910 層、916D NAND NVMe SSD。 這些驅動器以 U.2 和 AIC 兩種形式發布,910 的容量一直高達 15.36TB。 驅動器的更高耐久性版本是 916。我們之前已經審查了 916 U.2 固態硬盤 現在專注於性能更高的 HHHL AIC 版本。
Memblaze 在 PBlaze64 3-5 系列中發布了一系列 910 層、916D NAND NVMe SSD。 這些驅動器以 U.2 和 AIC 兩種形式發布,910 的容量一直高達 15.36TB。 驅動器的更高耐久性版本是 916。我們之前已經審查了 916 U.2 固態硬盤 現在專注於性能更高的 HHHL AIC 版本。
Memblaze PBlaze5 916 AIC SSD 具有 U.2 版本的所有優勢,包括 AES 256 數據加密、完整數據路徑保護和增強的電源故障保護。 916 版本還具有更高的耐用性,支持 3 DWPD,而 910 僅支持 1 DWPD。 916 AIC 利用四個額外的通道來推動更高的性能,引用速度高達 5.9GB/s 讀取和 2.8GB/s 寫入,吞吐量高達 1 萬 IOPS 讀取和 303K IOPS 寫入。
Memblaze PBlaze5 916 AIC SSD 有 3.2TB 和 6.4TB 兩種型號,在本次評測中我們關注的是 6.4TB 版本。
Memblaze PBlaze5 916 系列 AIC 規格
用戶容量 (TB) | 3.2,6.4 |
外形 | HHHL AIC |
接口: | PCIe 3.0 x 8 |
順序讀取 (128KB)(GB/s) | 5.5,5.9 |
順序寫入(128KB)(GB/s) | 3.1,3.8 |
持續隨機讀取 (4KB) IOPS | 850K,1,000K |
持續隨機寫入 (4KB) IOPS(穩態) | 210K,303K |
延遲讀/寫 | 87 / 11 微秒 |
終身耐力 | 3 DWPD |
UBER | <10-17 |
平均無故障時間 | 2萬小時 |
協議 | NVMe 1.2a |
NAND閃存 | 3D eTLC NAND |
作業系統 | RHEL、SLES、CentOS、Ubuntu、Windows Server、VMware ESXi |
電源消耗功率 | 7〜25瓦 |
基本功能支持 | 電源故障保護、熱插拔、完整數據路徑保護、SMART:TRIM、多命名空間、AES 256 數據加密、快速重啟、加密擦除、 |
高級功能支持 | TRIM、多命名空間、AES 256 數據加密、快速重啟、加密擦除、雙端口 |
軟件支持 | 開源管理工具、CLI 調試工具、OS 內置驅動程序 (易於系統集成) |
性能
試驗台
我們的企業級 SSD 評測利用 Lenovo ThinkSystem SR850 進行應用程序測試和 戴爾 PowerEdge R740xd 用於綜合基準。 ThinkSystem SR850 是一個裝備精良的四 CPU 平台,提供的 CPU 能力遠遠超過對高性能本地存儲施加壓力所需的能力。 不需要大量 CPU 資源的綜合測試使用更傳統的雙處理器服務器。 在這兩種情況下,目的都是以盡可能符合存儲供應商最大驅動器規格的最佳方式展示本地存儲。
聯想 ThinkSystem SR850
- 4 個 Intel Platinum 8160 CPU(2.1GHz x 24 核)
- 16 x 32GB DDR4-2666Mhz ECC 內存
- 2 個 RAID 930-8i 12Gb/s RAID 卡
- 8 個 NVMe 托架
- VMware ESXI 6.5
戴爾 PowerEdge R740xd
- 2 個英特爾金牌 6130 CPU(2.1GHz x 16 核)
- 4 x 16GB DDR4-2666MHz ECC 內存
- 1x PERC 730 2GB 12Gb/s RAID 卡
- 附加 NVMe 適配器
- Ubuntu-16.04.3-桌面-amd64
測試背景和比較
StorageReview 企業測試實驗室 提供了一個靈活的架構,用於在與管理員在實際部署中遇到的環境相當的環境中對企業存儲設備進行基準測試。 企業測試實驗室結合了各種服務器、網絡、電源調節和其他網絡基礎設施,使我們的員工能夠建立真實世界的條件,以便在我們的審查期間準確地衡量性能。
我們將這些關於實驗室環境和協議的詳細信息納入審查,以便 IT 專業人員和負責存儲采購的人員能夠了解我們取得以下成果的條件。 我們的評論都不是由我們正在測試的設備製造商支付或監督的。 有關的其他詳細信息 StorageReview 企業測試實驗室 其網絡功能的概述 在這些相應的頁面上可用。
本次審查的可比性:
- 記憶 PBlaze5 3.2TB
- 液態元素 AIC 7.68TB
- 英特爾固態硬盤 DC P4610 1.6TB
- 華為ES3000 V5 3.2TB
- 英特爾固態硬盤 DC P4510 2TB、8TB
- Memblaze PBlaze5 910 AIC 7.68TB
應用程序工作負載分析
為了了解企業存儲設備的性能特徵,必須對實時生產環境中的基礎架構和應用程序工作負載進行建模。 因此,我們對 Memblaze PBlaze5 916 的基準測試是 通過 SysBench 的 MySQL OLTP 性能 Microsoft SQL Server OLTP 性能 具有模擬的 TCP-C 工作負載。 對於我們的應用程序工作負載,每個驅動器將運行 2-4 個配置相同的虛擬機。
SQL Server 性能
每個 SQL Server VM 都配置有兩個虛擬磁盤:100GB 卷用於啟動,500GB 卷用於數據庫和日誌文件。 從系統資源的角度來看,我們為每個 VM 配置了 16 個 vCPU、64GB DRAM 並利用了 LSI Logic SAS SCSI 控制器。 雖然我們之前測試的 Sysbench 工作負載在存儲 I/O 和容量方面使平台飽和,但 SQL 測試正在尋找延遲性能。
此測試使用在 Windows Server 2014 R2012 來賓虛擬機上運行的 SQL Server 2,並由 Quest 的數據庫基準工廠進行壓力測試。 存儲評論的 Microsoft SQL Server OLTP 測試協議 採用事務處理性能委員會基準 C (TPC-C) 的當前草案,這是一種在線事務處理基準,可模擬複雜應用程序環境中的活動。 TPC-C 基準比綜合性能基準更接近於衡量數據庫環境中存儲基礎設施的性能優勢和瓶頸。 我們用於本次審核的 SQL Server VM 的每個實例都使用 333GB(1,500 規模)的 SQL Server 數據庫,並測量 15,000 個虛擬用戶負載下的事務性能和延遲。
SQL Server 測試配置(每個虛擬機)
- 在Windows Server 2012 R2
- 存儲空間:分配 600GB,使用 500GB
- SQL Server 2014的
- 數據庫大小:1,500 規模
- 虛擬客戶端負載:15,000
- 內存緩衝區:48GB
- 測試時長:3 小時
- 2.5 小時預處理
- 30分鐘採樣期
對於我們的 SQL Server 事務基準測試,Memblaze PBlaze5 916 AIC 以 12,645.0 TPS 位居第三,儘管它距離第一名僅 1.1 TPS。
為了更好地了解性能,還需要考慮延遲。 在這裡,916 AIC 以僅 1.3 毫秒的優勢位居第二,擊敗了 910/916 系列的其他產品。
系統性能
下一個應用程序基準包括 Percona MySQL OLTP 數據庫 通過 SysBench 測量。 該測試測量平均 TPS(每秒事務數)、平均延遲和平均 99% 延遲。
每 系統平台 VM 配置了三個虛擬磁盤:一個用於引導 (~92GB),一個用於預建數據庫 (~447GB),第三個用於測試中的數據庫 (270GB)。 從系統資源的角度來看,我們為每個虛擬機配置了 16 個 vCPU、60GB DRAM 並利用了 LSI Logic SAS SCSI 控制器。
Sysbench 測試配置(每個虛擬機)
- 中央操作系統 6.3 64 位
- Percona XtraDB 5.5.30-rel30.1
- 數據庫表:100
- 數據庫大小:10,000,000
- 數據庫線程:32
- 內存緩衝區:24GB
- 測試時長:3 小時
- 2 小時預處理 32 個線程
- 1 小時 32 個線程
在 Sysbench 事務基準測試中,916 AIC 以 9,298 TPS 位居第二。
對於 Sysbench 平均延遲,916 AIC 以 13.8 毫秒位居第二。
對於我們最壞情況下的延遲(第 99 個百分位數),916 AIC 僅以 25.2 毫秒的延遲位居榜首。
SideFX 的胡迪尼
Houdini 測試專門用於評估與 CGI 渲染相關的存儲性能。 此應用程序的測試台是核心的變體 戴爾 PowerEdge R740xd 我們在實驗室中使用的服務器類型具有雙 Intel 6130 CPU 和 64GB DRAM。 在這種情況下,我們安裝了運行裸機的 Ubuntu 桌面 (ubuntu-16.04.3-desktop-amd64)。 基準測試的輸出以秒為單位來衡量,越少越好。
Maelstrom 演示代表了渲染管線的一部分,它通過演示其有效使用交換文件作為擴展內存形式的能力來突出存儲的性能。 測試不會寫出結果數據或處理點,以隔離延遲對底層存儲組件的影響。 測試本身由五個階段組成,我們將其中三個階段作為基準測試的一部分運行,如下所示:
- 從磁盤加載打包點。 這是從磁盤讀取的時間。 這是單線程的,可能會限制整體吞吐量。
- 將點解壓縮到一個平面數組中,以便對其進行處理。 如果這些點不依賴於其他點,則可以調整工作集以保留在核心中。 這一步是多線程的。
- (未運行)處理點。
- 將它們重新打包成適合存儲回磁盤的分桶塊。 這一步是多線程的。
- (未運行)將分桶塊寫回磁盤。
在 Houdini 測試中,916 AIC 的得分為 3,070.7 秒,在非 Optane 驅動器的死點附近著陸,正好與 910 AIC 持平。
VDBench 工作負載分析
在對存儲設備進行基準測試時,應用程序測試是最好的,綜合測試排在第二位。 雖然不能完美代表實際工作負載,但綜合測試確實有助於為具有可重複性因素的存儲設備建立基線,從而可以輕鬆地在競爭解決方案之間進行同類比較。 這些工作負載提供了一系列不同的測試配置文件,從“四個角”測試、常見的數據庫傳輸大小測試到來自不同 VDI 環境的跟踪捕獲。 所有這些測試都利用通用的 vdBench 工作負載生成器,以及一個腳本引擎來自動化和捕獲大型計算測試集群的結果。 這使我們能夠在各種存儲設備上重複相同的工作負載,包括閃存陣列和單個存儲設備。 我們針對這些基準測試的測試過程用數據填充整個驅動器表面,然後將驅動器部分分區為驅動器容量的 25%,以模擬驅動器如何響應應用程序工作負載。 這與使用 100% 的驅動器並使它們進入穩定狀態的全熵測試不同。 因此,這些數字將反映更高的持續寫入速度。
簡介:
- 4K 隨機讀取:100% 讀取,128 個線程,0-120% 重複率
- 4K 隨機寫入:100% 寫入,64 線程,0-120% iorate
- 64K 順序讀取:100% 讀取,16 線程,0-120% 迭代
- 64K 順序寫入:100% 寫入,8 個線程,0-120% 迭代
- 綜合數據庫:SQL 和 Oracle
- VDI 完整克隆和鏈接克隆跟踪
在我們的第一個 VDBench 工作負載分析隨機 4K 讀取中,將 Memblaze PBlaze5 916 AIC 與其他兩個 AIC 驅動器進行了比較:Memblaze PBlaze5 910 和 Liqid Element。 在這裡,916 並駕齊驅地落後於 910,Liqid 領先。 916 以 81,010μs 的 99 IOPS 開始,然後以 809,069 IOPS 的峰值達到 157μs 的延遲。
最後,隨機 4K 寫入顯示 916 的位置相同。 在這裡,916 以 64,157 IOPS 開始,僅需 17.7μs。 該驅動器能夠保持在 100 微秒以下,實際上是 25 微秒,直到大約 578K IOPS,在下降之前達到峰值。
切換到順序工作負載,首先我們看一下 64K 順序讀取。 在這裡,916 再次排在最後,僅次於 910。916 的峰值為 50,011 IOPS 或 3.13GB/s,延遲為 319μs。
64K 寫入讓 916 滑到第二位,僅次於 910。916 以 4,308 IOPS 或 256MB/s 開始,並在 50μs 延遲線上達到 30K IOPS 或 1.85GB/s,然後以 42,319 IOPS 或 2.65 達到峰值GB/s,370μs 延遲。
接下來是我們的 SQL 工作負載,這裡 916 再次墊底,但僅比 916 稍遜一籌。916 以 27,120 IOPS 和 100.9μs 延遲開始,然後以 269,845 IOPS 和 118.1μs 延遲達到峰值。 從開始到結束只有 18μs 的延遲差異。
對於 SQL 90-10,916 以 27,381 IOPS 和 97.7μs 的延遲排名第三。 916 在大約 100K IOPS 時超過 82μs,然後以 273,081μs 的延遲達到 116.3 IOPS 的峰值。
對於 SQL 80-20,916 的位置相同,從 28,023 IOPS 和 88.9μs 延遲開始,峰值為 277,572 IOPS,延遲為 114.6μs。
對於我們的 Oracle 工作負載,916 幾乎沒有超過 910。這裡的驅動器以 30,716 IOPS 開始,延遲為 91.2 微秒,峰值為 282,888 IOPS,延遲為 126.2 微秒。
甲骨文 90-10 看到 916 幾乎沒有下降到最後。 在這裡,驅動器以 40,494 IOPS 和 98.2 微秒的延遲開始,並以 202,512 IOPS 的峰值和 107.9 微秒的延遲達到峰值。
對於 Oracle 80-20,我們看到 916 再次僅次於 910。該驅動器以 42,276 IOPS 開始,延遲為 87.6μs,一直保持在 100μs 以下,直到大約 169K IOPS 達到峰值,達到 210,628 IOPS,延遲為 103.8μs .
接下來,我們繼續我們的 VDI 克隆測試,完整和鏈接。 對於 VDI 完整克隆啟動,916 以 22,788 IOPS 和 107.9μs 延遲獲得第三名,並以 218,323 IOPS 和 158.9μs 延遲達到峰值。
對於 VDI FC 初始登錄,916 以 910 IOPS 和 15,487μs 的延遲排在 69.7 之後,並保持在 100μs 以下,直到大約 65K IOPS。 該驅動器的峰值為 147,777 IOPS,延遲為 199.4μs。
VDI FC Monday Login 以 916 IOPS 和 10,213μs 的延遲率首先獲得 89.4。 該驅動器保持在 100μs 以下,直到大約 35K IOPS,然後以 101,673 IOPS 達到峰值,延遲為 155.5μs。
對於 VDI 鏈接克隆 (LC),我們再次從啟動測試開始。 在這裡,916 排名第三,從 9,598 IOPS 和 127μs 延遲開始,峰值為 98,621 IOPS,延遲為 161.6μs。
在 VDI LC 初始登錄中,916 擊敗 910 獲得第二名。 在這裡,驅動器以 5,599 IOPS 開始,延遲為 94.2μs,並在約 100K IOPS 時超過 20μs。 916 的峰值為 55,416 IOPS,延遲為 142.1μs。
最後,在 VDI LC Monday Login 中,916 以 78,483 IOPS 的峰值性能和 201.3μs 的延遲率排名第一。
結論
Memblaze PBlaze5 916 是該公司的 64 層 3D NAND NVMe SSD 之一。 對於這個特定的審查,我們查看了 AIC 外形。 AIC 外形允許 916 系列的所有相同優勢、AES 256 數據加密、完整數據路徑保護、增強的電源故障保護和更高的耐用性,同時提供比其 U.2 對應產品更高的性能。 916 AIC 的讀取速度高達 5.9GB/s,寫入速度高達 2.8GB/s,吞吐量高達 1 萬 IOPS 讀取和 303K IOPS 寫入以及 3DWPD。
對於我們的應用程序工作負載分析,Memblaze PBlaze5 916 AIC 在 SQL Server 和 Sysbench 中均表現出強大的性能。 該驅動器以 12,645 TPS 和 1.3 毫秒的平均延遲在 SQL Server 輸出中排名第三,位居第二。 對於 Sysbench,916 AIC 的 TPS 為 9,298,平均延遲為 13.8 毫秒,在我們最壞情況下的延遲為 25.2 毫秒,位居榜首。 Houdini 以 3070.7 秒的成績表現不佳。
對於我們的 VDBench,我們測試了 916 AIC 與其他兩種 AIC 模型,即 Memblaze PBlaze5 910 AIC 和 Liqid Element AIC。 這裡的表現不錯,但位置讓它看起來好壞參半。 916 經常排在其他兩個驅動器的最後,但每次都在 910 的嗅探距離之內。 亮點包括 4K IOPS 的隨機 809K 讀取分數、4K IOPS 的隨機 578K 寫入分數、64GB/s 的 3.13K 順序分數和 2.65GB/s 的順序寫入分數。 這裡更有趣的是延遲。 即使在峰值 370μs 也是最高的,驅動器在大部分隨機 25K 寫入中運行時間低於 4μs。 SQL 在每個測試中顯示超過 88.9 萬 IOPS 的峰值分數,延遲範圍從 118.1μs 到僅 283μs,非常低並且在所有測試中都是一致的。 Oracle 峰值分數不如 SQL 強(雖然第一個是 87.6K IOPS),但它確實有另一個低一致延遲的表現,在最高峰時從 126.2μs 到 XNUMXμs 不等。
Memblaze PBlaze5 916 AIC 是需要一致、低延遲的應用程序的理想選擇。 雖然它的附加卡特性使其放棄了熱插拔能力(使其可能具有更高的維護性——儘管它也具有很高的耐用性),但它在性能上彌補了這一點,尤其是延遲性能。