MegaRAID 9600 シリーズは、SATA、SAS、および NVMe ドライブをサポートする第 9600 世代のストレージ アダプタで、ストレージ サーバーに可能な限り最高のパフォーマンスとデータ可用性を提供するように設計されています。前世代と比較して、2 シリーズは帯域幅が 4 倍、IOP が 25 倍以上、書き込み遅延が 60 倍削減され、リビルド時のパフォーマンスが XNUMX 倍向上しています。
MegaRAID 9600 シリーズは、SATA、SAS、および NVMe ドライブをサポートする第 9600 世代のストレージ アダプタで、ストレージ サーバーに可能な限り最高のパフォーマンスとデータ可用性を提供するように設計されています。前世代と比較して、2 シリーズは帯域幅が 4 倍、IOP が 25 倍以上、書き込み遅延が 60 倍削減され、リビルド時のパフォーマンスが 9600 倍向上しています。いつものように、9670 ファミリのカードには多くの構成が含まれています。このレビューでは、16 個の内部ポートをサポートする Broadcom MegaRAID 16W-XNUMXi を取り上げます。
MegaRAID 9670W-16i は、SAS4116W RAID-on-Chip (RoC) をベースにしており、全体的なパフォーマンス向上の重要な要素となります。ユーザーは、x240 PCIe Gen 32 インターフェイスを使用して、コントローラーあたり最大 16 台の SAS/SATA デバイスまたは 4.0 台の NVMe デバイスを接続できます。
9600 シリーズは、ハードウェア セキュア ブートと SPDM 構成証明のサポート、バランス保護、RAID 0、1、5、6、10、50、60 および JBOD のパフォーマンスも備えています。 CacheVault フラッシュ キャッシュ保護は、より強力な保護が必要な場合のオプションです。
NVMe にハードウェア RAID を使用する理由
ハードウェア RAID は、今日の IT 管理者のひげが白髪になる前から、回復力のあるストレージを提供するための頼りになるオプションです。しかし、ストレージ、特に NVMe SSD が高速になるにつれて、RAID カードは時代に追いつくのに苦労しています。そのため、Broadcom が MegaRAID 9670W-16i のレビューを提案したとき、私たちは少し疑念を抱きました。実際のところ、RAID カードにはパフォーマンスのコストがかかるため、私たちは長年にわたって RAID カードを避けてきました。とはいえ、ハードウェア RAID が提供する価値は否定できません。
VMware ESXi などのソフトウェア RAID オプションを提供しない環境では、お客様は簡単にストレージを集約したり、RAID でストレージを保護したりすることができません。 vSAN はクラスタ レベルで簡単に実装できますが、エッジのスタンドアロン ESXi ノードには使用できません。ここで、顧客は、より大規模なデータストアやある程度のデータ復元力を得るために、複数の SSD を RAID にまとめる利点を望むかもしれません。
個々のサーバーに記憶域スペースを提供する Windows でも、RAID5/6 などの特定のソフトウェア RAID タイプは大きな影響を受けます。これまで、ハードウェア RAID は、SAS デバイスと SATA デバイスのパフォーマンスのギャップを埋めるための効果的なソリューションでしたが、MegaRAID 9670W は、NVMe デバイスのパフォーマンスのギャップを変えることを目指しています。
Broadcom MegaRAID 9670W-16i テストベッド
このレビューのために、私たちは Micron、Supermicro、Broadcom と協力してテスト ベッドを組み立てました。サーバーは、AMD Milan 1114 CPU と 10GB DDR1 を搭載した Supermicro AS-7643S-WN128RT 4U システムです。そのシステム内には 9670W-16i があり、ツイン 8 ベイ NVMe JBOD にケーブル接続されています。それぞれの内部には、8 TB の容量にフォーマットされた Micron 7450 SSD が 6.4 個あります。
MegaRAID 9670W-16i アダプターを介してドライブのパフォーマンスを測定するために、ベンチマークは次の構成に分割されました。最初のものには、RAID の外部 (ただし HBA を介して)、RAID10、次に RAID5 構成の各ドライブを測定する JBOD 構成が含まれていました。これらの構成は、フラッシュの事前調整、調整対象のテストの実行、および次の事前調整とワークロードの組み合わせに移行するためのスクリプト プロセスを経て実行されました。このプロセスには合計で約 16 時間かかりました。
- 次の順序での合計テスト実行時間は約 16 時間です。
- 順次プリコンディショニング (~2:15)
- 16x JBOD、2x 8DR10、2x 8DR5 での連続テスト (約 2 時間)
- ランダムなプレコンディショニング – 2 部 (~4:30)
- 16x JBOD、2x 8DR10、2x 8DR5 でのランダム最適テスト (約 3 時間)
- 1x 16DR10、1x 16DR5 でのランダム再構築テスト (~2:30)
- 1x 16DR5 の最適化および再構築のためのランダム書き込みレイテンシ (~1:40)
パフォーマンス メトリックの最初のセクションでは、JBOD、RAID10、および RAID5 モードでのカードの帯域幅に焦点を当てます。 MegaRAID 9670W-16i は x16 PCIe Gen4 スロット幅を提供しており、そのピーク パフォーマンスは一方向で約 28GB/秒となり、これが Gen4 スロットの最高点となります。比較すると、U.2 Gen4 SSD は x4 接続経由で接続し、約 7GB/s でピークに達する可能性があり、ほとんどのエンタープライズ ドライブの読み取りワークロードがこれでトップに達します。
そうは言っても、MegaRAID 9670W は、接続されているスロットを完全に飽和させます。読み取りパフォーマンスを見ると、JBOD 構成は RAID28.3 で 10GB/秒となり、RAID5 はそのすぐ下の 28GB/秒になります。書き込みパフォーマンスに焦点を移すと、JBOD ベースラインは 26.7GB/s ですが、RAID10 構成では 10.1GB/s、RAID5 では 13.2GB/s でした。同時読み取りおよび書き込みトラフィックを 50:50 に分割した場合、JBOD 構成では 41.6GB/s、RAID10 では 19.6GB/s、RAID5 では 25.8GB/s と測定されました。
ワークロード | JBOD (MB/秒) | RAID 10 – 最適 (MB/秒) | RAID 5 – 最適 (MB/秒) |
---|---|---|---|
最大シーケンシャル読み取り数 | 28,314 | 28,061 | 28,061 |
最大シーケンシャル書き込み数 | 26,673 | 10,137 | 13,218 |
最大 50:50 のシーケンス読み取り:書き込み | 41,607 | 19,639 | 25,833 |
焦点を小ブロックのランダム転送に切り替えると、JBOD のベースライン値である 9670M IOPS と比較して、MegaRAID 7W が読み取りパフォーマンスで非常に優れたパフォーマンスを維持していることがわかります。 RAID グループ内の 3.2 つの SSD に障害が発生した場合、この速度は再構築操作中に約半分 (6.3M IOPS) に低下しました。ランダム書き込みパフォーマンスを見ると、JBOD ベースラインでは、RAID2.2 の 10M、RAID1 の 5M IOPS に対して 10 万 IOPS が測定されました。グループ内の SSD に障害が発生し、RAID カードの再構築が強制された場合でも、これらの数値は大幅に低下しませんでした。この状況では、RAID5 は 1M から 788k IOPS に低下しましたが、RAIDXNUMX は変化しませんでした。
読み取りパフォーマンスと書き込みパフォーマンスが混在する 4K OLTP ワークロードでは、JBOD ベースラインは 7.8 万 IOPS の RAID10 および 5.6 万 IOPS の RAID5 に対して 2.8 万 IOPS を測定しました。再構築中に、RAID10 は 5.6 万 IOPS から 2.4 万 IOPS に低下し、RAID5 は 2.8 万 IOPS から 1.8 万 IOPS に低下しました。
ワークロード | JBOD | RAID 10 – 最適 | RAID 5 – 最適 | RAID 10 – 再構築 | RAID 5 – 再構築 |
---|---|---|---|---|---|
4KB ランダム読み取り (IOP) | 7,017,041 | 7,006,027 | 6,991,181 | 3,312,304 | 3,250,371 |
4KB ランダム書き込み (IOP) | 6,263,549 | 2,167,101 | 1,001,826 | 2,182,173 | 788,085 |
4KB OLTP (IOP) | 7,780,295 | 5,614,088 | 2,765,867 | 2,376,036 | 1,786,743 |
RAID パフォーマンスのもう 5 つの重要な側面は、ドライブに障害が発生した場合の最適な状態と再構築パフォーマンスの間でストレージがどのように適切に動作するかです。パフォーマンスや遅延が大幅に低下した場合、アプリケーションの応答性が問題になる可能性があります。そのために、最適モードと再構築モードでの RAID4 XNUMXK ランダム書き込みレイテンシーに焦点を当てました。全体的にレイテンシはほぼ同様であり、これはまさに運用環境のストレージ システムで見たいものです。
私たちは、再構築操作中の RAID カードのパフォーマンスも含む、時点のパフォーマンス メトリクスを通じて各モードの全体的なパフォーマンスを評価するだけでなく、再構築にかかる合計時間を決定するためのテストも実施しました。ここで RAID10 では、6.4TB SSD を RAID グループから削除して再度追加するのに、RAID60.7 では 10 分かかり、再構築速度は 10.4 分/TB でした。 RAID5 グループの所要時間は 82.3 分、速度は 14.1 分/TB でした。
最終的な考え
正直に言うと、私たちは頭をわずかに傾け、片眉を上げた状態でこのレビューに臨みました。 GPU を中心に設計された新興クラスのソリューション以外では、NVMe SSD 用の RAID カードの提案をしばらく聞いていません。そこで私たちは、ハードウェア RAID は NVMe SSD でも実現できるのか、という基本的な質問をする必要がありました。
答えは明らかに「はい」です。 PCIe Gen4 のパフォーマンスにより、MegaRAID 9670W-16i RAID カードは、さまざまなワークロードにわたって最新の SSD と同等のパフォーマンスを維持できます。はい、PCIe レーンが少なくなると帯域幅などの一部の領域が制限されますが、やはりほとんどの実稼働環境はそのようなレベルにありません。
ピーク帯域幅では、MegaRAID 9670W-16i が読み取りで x16 PCIe Gen4 の制限である 28GB/s に達し、書き込み帯域幅で RAID13 で最大 5GB/s を提供することがわかりました。スループット面では、ランダム 4K 読み取りパフォーマンスは 7M IOPS で最高に達し、書き込みの範囲は RAID1 と RAID2.1 の間で 5 ~ 10M IOPS でした。フラッシュをより大きなボリュームに統合したり、ソフトウェア RAID をサポートしないシステムを回避したりすることを検討している導入環境にとって、MegaRAID 9670W は多くの機能を提供します。
ストレージ アダプターが好きなら、この種の補償をさらに受けることになるでしょう。私たちはすでに、このカードと同じシリコンをベースにしたツイン RAID カード構成を提供する Dell PowerEdge R760 などの最新世代のサーバーを検討しています。 R760 の場合、デルは各カードに 8 つの NVMe SSD を接続し、ここで検証のためにテストしたものよりも堅牢なエンタープライズ ソリューションを提供します。 NVMe SSD を搭載したサーバーのメニューに RAID カードが戻ってきたようで、今後はさらに多くのことが起こるでしょう。
StorageReview と連携する
ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | TikTok | RSSフィード