首頁 Enterprise配件 Synology E10M20-T1 M.2 SSD & 10GbE 卡評測

Synology E10M20-T1 M.2 SSD & 10GbE 卡評測

by 亞當·阿姆斯特朗
群暉 e10m20-t1 生活方式

Synology 有一系列不錯的 NAS 設備,非常適合 SOHO 和 SMB。 唯一的缺點是中端 NAS 通常在構建時並沒有考慮到最高性能和網絡速度。 多虧了一張新的附加卡,現在他們不必這樣做了。 隨著 Synology E10M20-T1 AIC 的推出,用戶可以通過一張卡獲得更高的 I/O 和帶寬。

Synology 有一系列不錯的 NAS 設備,非常適合 SOHO 和 SMB。 唯一的缺點是中端 NAS 通常在構建時並沒有考慮到最高性能和網絡速度。 多虧了一張新的附加卡,現在他們不必這樣做了。 隨著 Synology E10M20-T1 AIC 的推出,用戶可以通過一張卡獲得更高的 I/O 和帶寬。

synology e10m20-t1開放端口

對於帶寬,Synology E10M20-T1 配備了一個 10GbE 端口,大大提高了板載 GbE 的 NAS 的 I/O。 除了增強的網絡性能之外,該卡還配備了兩個用於 M.2 驅動器(2280 和 22110 外形規格)的 NVMe SSD 插槽。 這為用戶提供了高 I/O 性能,並在不放棄驅動器托架的情況下為 SSD 緩存添加了兩個 NVMe 插槽。 這樣用戶就可以在 NAS 上加載高容量 HDD,同時仍然擁有 SSD 緩存。 該卡在 Synology 的一些沒有板載 SSD 插槽的較舊 NAS 系統中也特別有用。

Synology E10M20-T1 今天可以以 250 美元的價格購買. 對於那些喜歡的人,我們也有卡片的視頻演練。

Synology E10M20-T1 規格

通用
主機總線接口 PCIe 3.0 x8
支架高度 薄型和全高
尺寸(高 x 寬 x 深) 71.75 mm x 200.05 mm x 17.70 mm
工作溫度 0°C至40°C(32°F至104°F)
儲藏溫度 -20°C至60°C(-5°F至140°F)
相對濕度 5% to 95% RH
商品保修條款 5年
儲存應用
存儲接口 PCIe NVMe
支持的外形 22110 / 2280
連接器類型和數量 M 鍵,2 個插槽
網絡
符合 IEEE 規範 IEEE 802.3an 10Gbps 以太網
IEEE 802.3bz 2.5Gbps / 5Gbps 以太網
IEEE 802.3ab 千兆以太網
IEEE 802.3u 快速以太網
IEEE 802.3x流控制
資料傳輸率 10 Gbps
網絡運行模式 全雙工
支持的功能 9 KB 巨型幀
TCP/UDP/IP 校驗和卸載
100Mb/s、1Gb/s、2.5Gb/s、5Gb/s 和 10Gb/s 之間的自動協商
相容性
適用型號 NVMe SSD SA系列:SA3600、SA3400
20系列:RS820RP+、RS820+
19系列:DS2419+、DS1819+
18系列:RS2818RP+、DS3018xs、DS1618+

設計和建造

Synology E10M20-T1 是一款 HHFL AIC,適用於特定型號的 Synology NAS。 一側是沿著卡的長度延伸的散熱器。

synology e10m20-t1 頂部

用後部的四顆螺絲卸下散熱器,可以看到兩個 M.2 NVMe SSD 托架。 總體而言,很容易將驅動器固定在卡上。
synology e10m20-t1 打開

卡的背面相對簡樸。 如果需要,Synology 還包括一個全尺寸支架,以及一些用於 SSD 的熱接觸墊。

synology e10m20-t1底部

性能

為了測試 Synology E10M20-T1,我們將它插入了一個 Synology DS1819 +. 我們用 西數紅盤 14TB 硬盤驅動器。 對於緩存,我們使用了 Synology 的 SNV3400-400G SSD. 我們在緩存關閉和打開的情況下測試了 RAID6 中 iSCSI 和 CIFS 配置中的驅動器。

企業綜合工作負載分析

我們的企業硬盤驅動器基準測試流程預先將每個驅動器置於穩定狀態,工作負載與設備將在 16 個線程的重負載下進行測試,每個線程有 16 個未完成隊列。 然後在多個線程/隊列深度配置文件中以設定的時間間隔對其進行測試,以顯示輕度和重度使用情況下的性能。 由於硬盤驅動器很快就會達到其額定性能水平,因此我們只繪製出每個測試的主要部分。

預處理和初級穩態測試:

  • 吞吐量(讀+寫 IOPS 聚合)
  • 平均延遲(讀+寫延遲一起平均)
  • 最大延遲(峰值讀取或寫入延遲)
  • 延遲標準偏差(讀+寫標準偏差一起平均)

我們的企業綜合工作負載分析包括四個基於實際任務的配置文件。 開發這些配置文件是為了更輕鬆地與我們過去的基準測試以及廣泛發布的值(例如最大 4K 讀寫速度和 8K 70/30,通常用於企業驅動器)進行比較。

  • 4K
    • 100% 讀取或 100% 寫入
    • 100% 4K
  • 8K 70/30
    • 70% 讀取,30% 寫入
    • 100% 8K
  • 128K(連續)
    • 100% 讀取或 100% 寫入
    • 100% 128K

在我們的第一個企業工作負載中,我們測量了 4% 寫入和 100% 讀取活動的隨機 100K 性能的長樣本,以獲得我們的主要結果。 對於 CIFS,我們看到 170 IPS 讀取和 1,461 IOPS 寫入沒有緩存,4,075 IOPS 讀取和 10,950 IOPS 寫入緩存處於活動狀態。 對於 iSCSI,我們看到 2,897 IOPS 讀取和 1,502 IOPS 寫入(沒有緩存)並且利用 AIC 中的緩存,我們看到 20,021 IOPS 讀取和 22,439 IOPS 寫入。

群暉 E10M20-T1 4k

在平均延遲為 4K 的情況下,CIFS 在沒有緩存的情況下為我們提供了 1,497 毫秒的讀取時間和 176 毫秒的寫入時間,然後將其打開後,讀取時間降至 63 毫秒,寫入時間降至 23 毫秒。 iSCSI 看到 88 毫秒讀取和 170 毫秒寫入,然後打開緩存它下降到 12.8 毫秒讀取和 11.4 毫秒寫入。

接下來是 4K 最大延遲。 在這裡,CIFS 在沒有緩存的情況下達到了 4,476 毫秒的讀取和 3,360 毫秒的寫入; 利用 AIC,讀取時間降至 339 毫秒,寫入時間降至 45 毫秒。 iSCSI 在沒有緩存的情況下讀取時間為 1,051 毫秒,寫入時間為 6,131 毫秒,讀取延遲上升至 11,951 毫秒,但寫入延遲下降至 171 毫秒。

我們最後的 4K 測試是標準偏差。 在沒有緩存的情況下,CIFS 為我們提供了 228 毫秒的讀取時間和 288 毫秒的寫入時間,緩存啟用延遲一直下降到 7.3 毫秒的讀取時間和 2 毫秒的寫入時間。 對於 iSCSI,我們再次看到讀取量出現峰值而不是下降,從 69 毫秒非緩存變為 196 毫秒緩存。 寫入顯示出改進,從 282 毫秒增加到 16 毫秒。

我們的下一個基準測試在 100% 讀取和 8% 寫入操作中使用 16T16Q 負載測量 100% 100K 順序吞吐量。 此處,沒有緩存的 CIFS 配置讀取 IOPS 為 13,989,寫入 IOPS 為 10,770; 啟用緩存後,數字變為 13,055 IOPS 讀取和 11,443 IOPS 寫入。 使用 iSCSI,在未啟用緩存的情況下,我們看到 56,579 IOPS 讀取和 30,288 IOPS,啟用它後我們看到性能略有上升,達到 57,774 IOPS 讀取和 33,265 IOPS 寫入。

群暉 E10M20-T1 8k

與我們在 16% 16K 寫入測試中執行的固定 100 線程、4 隊列最大工作負載相比,我們的混合工作負載配置文件可在各種線程/隊列組合中擴展性能。 在這些測試中,我們將工作負載強度從 2 個線程和 2 個隊列擴展到 16 個線程和 16 個隊列。 在非緩存 CIFS 中,我們看到吞吐量從 221 IOPS 開始到 219 IOPS 結束,始終非常穩定。 啟用緩存後,我們看到 CIFS 以 4,597 IOPS 開始,以 4,844 IOPS 結束。 對於 iSCSI,非緩存開始時為 519 IOPS,結束時為 1,751 IOPS。 激活緩存後,我們看到 iSCSI 從 8,308 IOPS 開始,到 1,340 IOPS 結束。

當查看 8K 70/30 平均響應時間時,CIFS 配置開始時為 18 毫秒,結束時為 1,161 毫秒(非緩存),並且卡處於活動狀態時,開始時下降到 860 微秒,結束時為 53 毫秒。 對於 iSCSI,我們看到在沒有卡的情況下,開始時為 7.7 毫秒,結束時為 146 毫秒,使用卡時,開始時為 470 微秒,結束時為 191 毫秒。

在 8K 70/30 最大延遲下,CIFS 配置從大約 1,009 毫秒開始,一直上升到 4,799 毫秒。 啟用緩存後,整個數字從 523 毫秒下降到 260 毫秒。 使用 iSCSI,我們看到沒有緩存的延遲從 1,436 毫秒增加到 5,614 毫秒,有緩存的延遲從 640 毫秒增加到 13,588 毫秒。

對於 8K 70/30 標準偏差,CIFS 配置從 26 毫秒開始,在沒有緩存的情況下運行到 477 毫秒,使用 NIC 從 1.3 毫秒到 10.1 毫秒。 對於 iSCSI,我們說在沒有緩存的情況下為 17 毫秒到 299 毫秒,而在有緩存的情況下為 920 微秒到 1,155 毫秒。

最後一個企業綜合工作負載基準測試是我們的 128K 測試,這是一個大塊順序測試,顯示了設備的最高順序傳輸速度。 在此工作負載場景中,CIFS 在沒有緩存的情況下讀取速度為 1.09GB/s,寫入速度為 464MB/s,使用緩存時讀取速度為 1.14GB/s,讀取速度為 484MB/s。 對於 iSCSI,我們看到 1.15GB/s 的讀取速度和 443MB/s 的無緩存以及 1.15GB/s 的讀取速度和 615MB/s 的寫入速度。

群暉 E10M20-T1 128k

結論

Synology 提出了一種通過 Synology E10M10-T20 AIC 將 1GbE 連接和 NVMe 緩存添加到選定數量的 NAS 設備的簡單方法。 該卡非常適合公司的 SSD 產品線,並具有適合兩個 2280 或 22110 M.2 規格的插槽。 這允許用戶用大容量 HDD 加載 NAS,然後使用該卡來提高 I/O 性能。 當然,10GbE 端口通過板載 GbE 端口提高了網絡速度。

為了提高性能,我們再次利用了 Synology DS1819 + - WD Red 14TB 硬盤, 只有這次我們添加了 E10M20-T1 AIC 有兩個 Synology SNV3400-400G 固態硬盤. 在大多數情況下,但不是所有情況下,我們都看到了性能的提高。 讓我們先看看 CIFS 配置的差異,而不是再次列出性能。 在 4K CIFS 吞吐量中,我們看到增加了 3,905 IOPS 讀取和 9,489 IOPS 寫入。 在 4K 平均延遲中,我們看到讀取延遲下降了 1,434 毫秒,寫入延遲下降了 153 毫秒。 在 4K 最大延遲中,我們看到讀取時間減少了 4,137 毫秒,寫入時間減少了 3,315 毫秒。 4K 標準偏差讀取下降了 220.7 毫秒,寫入下降了 286 毫秒。 在 100% 8K 中,我們看到讀取減少了 934 IOPS,寫入增加了 673 IOPS。 大塊順序讀取速度提高了 50MB/s,寫入速度提高了 20MB/s。

借助 iSCSI 性能,我們看到 4K 吞吐量的亮點增加了 17,124 IOPS 讀取和 20,937 IOPS 寫入。 在 4K 平均延遲中,我們看到讀取下降了 75.2 毫秒,寫入下降了 158.6 毫秒。 在 4K 最大延遲中,我們看到讀取增加了 10,900 毫秒,寫入減少了 15,960 毫秒。 4K 標準偏差再次出現延遲峰值,讀取時間上升 127 毫秒,寫入時間下降 266 毫秒。 在 100% 8K 中,我們看到讀取 IOPS 增加了 1,200,寫入 IOPS 增加了 2,977。 大塊順序鋸讀取穩定在 1.15GB/s,有或沒有緩存,寫入增加 172MB/s。

Synology E10M20-T1 AIC 是添加 10GbE 連接和 SSD 緩存以選擇 Synology NAS 型號的簡便方法。 雖然它並沒有全面提高所有性能,但它確實在我們的幾個基準測試中看到了一些顯著的提升。

亞馬遜上的 Synology E10M20-T1 AIC

參與 StorageReview

電子通訊 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | Facebook | RSS訂閱