在今年的開放計算項目上,東芝宣布發布其圍繞 NVMe over Fabrics (NVMe-oF) 的新軟件 KumoScale。 KumoScale 旨在通過分解、抽象和管理集成,最大限度地發揮直連 NVMe 驅動器在數據中心網絡上的性能優勢。 該軟件通過允許無盤計算節點(只有引導驅動器)通過高速結構網絡連接訪問此閃存存儲,從而帶來了已經高性能的 NVMe SSD。 這種類型的連接將使網絡存儲達到接近峰值的性能。
在今年的開放計算項目上,東芝宣布發布其圍繞 NVMe over Fabrics (NVMe-oF) 的新軟件 KumoScale。 KumoScale 旨在通過分解、抽象和管理集成,最大限度地發揮直連 NVMe 驅動器在數據中心網絡上的性能優勢。 該軟件通過允許無盤計算節點(只有引導驅動器)通過高速結構網絡連接訪問此閃存存儲,從而帶來了已經高性能的 NVMe SSD。 這種類型的連接將使網絡存儲達到接近峰值的性能。
雖然此軟件可用於任何標準 x86 系統平台,但在我們的評測中,我們使用的是 Newisys NSS-1160G-2N 雙節點服務器。 Newisys NSS-1160G-2N 平台針對超大規模服務模型進行了優化,具有 NVMe 驅動器熱插拔、網絡到驅動器的平衡吞吐量、基於冷通道 FRU 的服務、冗餘電源和冷卻以及其他關鍵規模-出數據中心的要求。 我們的服務器在一個節點上通過兩個 100G Mellanox 卡和 8 個東芝 NVMe SSD 提供存儲,第二個節點用於管理目的。 負載生成將來自通過雙 740G Mellanox ConnectX-100 NIC 直接連接到 Newisys 的單個 Dell PowerEdge R5xd。 Newisys 可以在其緊湊的 16U 外形中容納多達 1 個 NVMe 和雙至強服務器主板,並針對直接連接驅動器的最低延遲和最高性能進行了優化,儘管服務器比我們在機架中使用的要長一些.
與傳統的直連 SSD 相比,KumoScale 還具有其他一些優勢。 利用 NVMe-oF 用戶需要更少的節點來達到更高的計算能力和存儲。 擁有更少的節點意味著可以更好地管理它們並降低成本。 部分成本降低將通過消除擱淺的存儲和計算能力來實現。 KumoScale 使用 restful API 與多個編排框架集成; 最有趣的是,它適用於 Kubernetes。 這將使那些利用 Kubernetes 進行容器存儲的人能夠以更高的性能執行此操作,並提供適量的預配置存儲。 除了 Kubernetes 之外,KumoScale 還可以與 OpenStack、Lenovo XClarity 和 Intel RSD 配合使用。
管理
KumoScale 有點突出,它帶有一個相當精簡和直觀的 GUI。 通常,這種類型的解決方案是通過 CLI 控制的(事實上,有幾個方面仍然如此)。 在儀表板選項卡上,用戶可以輕鬆查看存儲性能、系統容量和硬件狀態,並可以深入了解單個 SSD 的狀態。
下一個選項卡是網絡選項卡,顯示控制器的可用性和鏈路狀態,以及類型、速度、MAC 地址和 MTU。
存儲選項卡分為四個子選項卡。 第一個子選項卡是物理 SSD。 在這裡,用戶可以通過名稱、是否可用、序列號、容量、組使用情況和剩餘壽命百分比來查看驅動器。
虛擬化存儲組中的下一個子選項卡。 此子選項卡與上面的類似,包含名稱、可用性、容量以及可用空間、虛擬化的物理 SSD 及其目標。
下一個子選項卡 Targets 擴展了上面的目標並顯示了暴露給主機的虛擬化存儲,包括組卷。
存儲下的最後一個子選項卡是啟動器選項卡。 此選項卡提供啟動器名稱、別名(在本例中為 Dell)和訪問計數。 用戶可以為目標-啟動器對授予訪問控制 (ACL)。
下一個主要選項卡是存儲性能。 在這裡,用戶可以看到給定時間範圍內的吞吐量、IOPS 和延遲的讀數。
最後,我們談到網絡性能,這也為用戶提供了給定時間的性能指標、帶寬和數據包的細分。
性能
VDBench 工作負載分析
在對存儲陣列進行基準測試時,應用程序測試是最好的,綜合測試排在第二位。 雖然不能完美代表實際工作負載,但綜合測試確實有助於為具有可重複性因素的存儲設備建立基線,從而可以輕鬆地在競爭解決方案之間進行同類比較。 這些工作負載提供了一系列不同的測試配置文件,包括“四個角”測試、常見的數據庫傳輸大小測試,以及來自不同 VDI 環境的跟踪捕獲。 所有這些測試都利用通用的 vdBench 工作負載生成器,以及一個腳本引擎來自動化和捕獲大型計算測試集群的結果。 這使我們能夠在各種存儲設備上重複相同的工作負載,包括閃存陣列和單個存儲設備。 在陣列端,我們使用 Dell PowerEdge R740xd 服務器集群:
簡介:
- 4K 隨機讀取:100% 讀取,128 個線程,0-120% 重複率
- 4K 隨機寫入:100% 寫入,64 線程,0-120% iorate
- 64K 順序讀取:100% 讀取,16 線程,0-120% 迭代
- 64K 順序寫入:100% 寫入,8 個線程,0-120% 迭代
- 綜合數據庫:SQL 和 Oracle
- VDI 完整克隆和鏈接克隆跟踪
在 4K 峰值讀取性能中,帶有 KumoScale 的 Newisys(在本次評測的其餘部分中稱為“存儲節點”,因為它是唯一被觀察的設備)在整個測試過程中具有亞毫秒級性能,峰值為 2,981,084 IOPS,具有260μs的延遲。
在4K峰值寫入性能中,存儲節點峰值為1,926,637 IOPS,延遲為226μs。
切換到 64K 峰值讀取時,存儲節點的峰值性能為 213,765 IOPS 或 13.36GB/s,延遲為 441μs。
對於 64K 順序峰值寫入,存儲節點達到 141,454 IOPS 或 8.83GB/s,延遲為 432μs。
在我們的 SQL 工作負載中,存儲節點的峰值為 1,361,815 IOPS,延遲為 179μs。
在 SQL 90-10 基準測試中,我們看到了 1,171,467 IOPS 的峰值性能,延遲僅為 210 微秒。
SQL 80-20 基準測試顯示存儲節點達到 987,015 IOPS 的峰值性能,延遲為 248μs。
使用 Oracle Workload,存儲節點的峰值性能為 883,894 IOPS,延遲為 280μs。
Oracle 90-10 的峰值性能為 967,507 IOPS,延遲為 176 微秒。
在 Oracle 80-20 中,存儲節點能夠以 829,765 微秒的延遲達到 204 IOPS。
接下來我們切換到我們的 VDI 克隆測試,完整和鏈接。 對於 VDI Full Clone Boot,存儲節點的峰值為 889,591 IOPS,延遲為 261μs。
VDI 完整克隆初始登錄看到存儲節點達到 402,840 IOPS 的峰值,延遲為 562μs。
VDI 完整克隆星期一登錄顯示峰值性能為 331,351 IOPS,延遲為 369μs。
轉到 VDI 鏈接克隆,啟動測試顯示峰值性能為 488,484 IOPS,延遲為 234μs。
在測量初始登錄性能的鏈接克隆 VDI 配置文件中,存儲節點的峰值為 194,781 IOPS,延遲為 318μs。
在我們的最後一個配置文件中,我們查看了 VDI 鏈接克隆星期一登錄性能。 此處存儲節點的峰值為 247,806 IOPS,延遲為 498μs。
結論
KumoScale 軟件旨在最大限度地提高塊存儲的性能,將 NVMe SSD 匯集在一起,以提供適量的容量和 IOPS,這些容量和 IOPS 可以由 NVMe-oF 上的數千個作業實例共享。 這為雲用戶提供了更大的靈活性、可擴展性和效率。 雖然 KumoScale 可用於多種不同的硬件選項來創建存儲節點(東芝推薦 Intel Xeon CPU E5-2690 v4 @2.30GHz 或同等性能和 64GB DRAM),但我們使用了 Newisys NSS-1160G-2N 雙節點服務器。 NVMe-oF 不僅能讓存儲達到接近峰值的性能,KumoScale 還可以與多種編排框架配合使用,包括 Kubernetes、OpenStack、Lenovo XClarity 和 Intel RSD。
搭載東芝KumoScale的Newisys系統當然可以帶來性能方面的風頭。 存儲節點沒有接近突破 1ms,VDI FC 初始登錄時的最高延遲為 562μs。 一些亮點包括 3K 讀取接近 4 萬次 IOPS,2K 寫入接近 4 萬次,SQL 工作負載達到 1.3 萬次 IOPS,SQL 1.1-90 達到 10 萬次 IOPS,SQL 1-80 接近 20 萬次。 對於 64K 順序性能,存儲節點達到 13.36GB.s 讀取和 8.83GB/s 寫入。
毫無疑問,性能是天文數字,但將 KumoScale 放在上下文中確實讓它大放異彩。 與其他非 NVMe-oF 平台相比,該平台的延遲和性能要好得多。 延遲更接近本地存儲性能,這正是 NVMe-oF 協議所追求的,也是這些系統定位的應用程序所需要的。 不過,該系統的大規模性能才是真正重要的。 我們查看了一個存儲節點中 8 個 SSD 的性能,其中生產系統將有多個存儲節點,每個節點都有自己的存儲池。 在該預期場景中的性能可輕鬆將傳統存儲陣列指標打敗,使 KumoScale 成為 NVMe-oF 陣列的遊戲規則改變者。 Toshiba 在使用 KumoScale 提供性能效率方面做得非常出色,它甚至有一個用於評估和開發的 GUI。 搭配 Newisys 機箱,該解決方案肯定會在大型數據中心取得成功,這些數據中心可以利用 Toshiba KumoScale 軟件提供的吞吐量和延遲優勢。