Die Crucial P2 wurde veröffentlicht, und überprüft von unserem Team, Anfang dieses Jahres. Bei dem Laufwerk handelt es sich um eine Standard-M.2-NVMe-SSD, die für den Einstieg in gängige Anwendungsfälle (z. B. E-Mail und Surfen im Internet) kostengünstig sein und eine gute Leistung bieten soll. Die erste Veröffentlichung gab es mit Kapazitäten von 250 GB und 500 GB, weitere sollen folgen. Jetzt hat Crucial Kapazitäten von 1 TB und 2 TB im P2 veröffentlicht, letztere werden wir uns in diesem Test ansehen.
Die Crucial P2 wurde veröffentlicht, und überprüft von unserem Team, Anfang dieses Jahres. Bei dem Laufwerk handelt es sich um eine Standard-M.2-NVMe-SSD, die für den Einstieg in gängige Anwendungsfälle (z. B. E-Mail und Surfen im Internet) kostengünstig sein und eine gute Leistung bieten soll. Die erste Veröffentlichung gab es mit Kapazitäten von 250 GB und 500 GB, weitere sollen folgen. Jetzt hat Crucial Kapazitäten von 1 TB und 2 TB im P2 veröffentlicht, letztere werden wir uns in diesem Test ansehen.
Wie bereits im vorherigen Testbericht erwähnt, ist der Crucial P2 eine Weiterentwicklung der P1-Reihe des Unternehmens. Das 2-TB-Modell wird mit Verwaltungssoftware zur Leistungsoptimierung, Datensicherheit und Firmware-Updates sowie Acronis True Image für Crucial geliefert. Letzteres ermöglicht es Benutzern, Laufwerke zu klonen und Betriebssysteme, Anwendungen und Einstellungen zu sichern. Der größte Unterschied besteht neben mehr Kapazität in der höheren Leistung (bis zu 2.4 GB/s Lesegeschwindigkeit) und der höheren Ausdauer (bis zu 600 TBW).
Für die Crucial P2 2 TB gilt eine 5-Jahres-Garantie kann heute für 221 $ abgeholt werden.
Crucial P2 NVMe SSD-Testspezifikationen
Schnittstelle | PCIe G3 1×4 / NVMe |
Formfaktor | M.2 2280 |
Kapazitäten | 2TB |
Kennzahlen | Sequentielles Lesen (bis zu) – 2,400 MB/s Sequentielles Schreiben (bis zu) – 1,900 MB/s |
Datenübertragungssoftware | Acronis True Image für Crucial-Klonsoftware |
Erweiterte Funktionen | Dynamische Schreibbeschleunigung Redundantes Array unabhängiger NAND (RAIN) Mehrstufige Datenintegritätsalgorithmen Adaptiver Wärmeschutz Integrierte Immunität gegen Stromausfall Aktive Müllsammlung TRIM-Unterstützung NVMe-Standard-Selbstüberwachungs- und Berichtstechnologie (CLEVER) Fehlerkorrekturcode (ECC) Unterstützung für NVMe Autonomous Power State Transition (APST). |
Lebenserwartung (MTTF) | 1.5 Millionen Stunden |
Ausdauer | 600 insgesamt geschriebene Bytes (TBW) |
Garantie | 5-Jahres-Limitierung des Herstellers |
Entscheidende P2 NVMe SSD-Leistung
Testbed
Die bei diesen Tests eingesetzte Testplattform ist a Dell PowerEdge R740xd Server. Wir messen die SATA-Leistung über eine Dell H730P RAID-Karte in diesem Server, obwohl wir die Karte nur in den HBA-Modus versetzt haben, um die Auswirkungen des RAID-Karten-Cache zu deaktivieren. NVMe wird nativ über eine M.2-zu-PCIe-Adapterkarte getestet. Die verwendete Methodik spiegelt den Arbeitsablauf des Endbenutzers besser wider, indem sie Konsistenz-, Skalierbarkeits- und Flexibilitätstests innerhalb virtualisierter Serverangebote durchführt. Ein großer Fokus liegt auf der Laufwerkslatenz über den gesamten Lastbereich des Laufwerks, nicht nur auf den kleinsten QD1-Ebenen (Queue-Depth 1). Wir tun dies, weil viele der gängigen Verbraucher-Benchmarks die Arbeitslastprofile der Endbenutzer nicht ausreichend erfassen.
Houdini von SideFX
Der Houdini-Test wurde speziell zur Bewertung der Speicherleistung im Zusammenhang mit der CGI-Wiedergabe entwickelt. Der Prüfstand für diese Anwendung ist eine Variante des Kernservertyps Dell PowerEdge R740xd, den wir im Labor verwenden, mit zwei Intel 6130-CPUs und 64 GB DRAM. In diesem Fall haben wir Ubuntu Desktop (ubuntu-16.04.3-desktop-amd64) mit Bare-Metal installiert. Die Ausgabe des Benchmarks wird in Sekunden bis zum Abschluss gemessen, wobei weniger besser ist.
Die Maelstrom-Demo stellt einen Abschnitt der Rendering-Pipeline dar, der die Leistungsfähigkeiten des Speichers hervorhebt, indem er seine Fähigkeit demonstriert, die Auslagerungsdatei effektiv als eine Form von Erweiterungsspeicher zu nutzen. Der Test schreibt die Ergebnisdaten nicht aus und verarbeitet die Punkte nicht, um den Wandzeiteffekt der Latenzauswirkungen auf die zugrunde liegende Speicherkomponente zu isolieren. Der Test selbst besteht aus fünf Phasen, von denen wir drei im Rahmen des Benchmarks durchführen:
- Lädt gepackte Punkte von der Festplatte. Dies ist die Zeit zum Lesen von der Festplatte. Dies ist Single-Threaded, was den Gesamtdurchsatz einschränken kann.
- Entpackt die Punkte in ein einzelnes flaches Array, damit sie verarbeitet werden können. Wenn die Punkte nicht von anderen Punkten abhängig sind, kann der Arbeitssatz so angepasst werden, dass er im Kern bleibt. Dieser Schritt ist multithreaded.
- (Nicht ausführen) Verarbeitet die Punkte.
- Packt sie in Bucket-Blöcke um, die für die Speicherung auf der Festplatte geeignet sind. Dieser Schritt ist multithreaded.
- (Nicht ausgeführt) Schreibt die zusammengefassten Blöcke zurück auf die Festplatte.
Hier sehen wir, dass das Crucial P2 mit 3049.673 Sekunden im unteren Drittel liegt.
SQL Server-Leistung
Jede SQL Server-VM ist mit zwei vDisks konfiguriert: einem 100-GB-Volume für den Start und einem 500-GB-Volume für die Datenbank und Protokolldateien. Aus Sicht der Systemressourcen haben wir jede VM mit 16 vCPUs, 64 GB DRAM konfiguriert und den LSI Logic SAS SCSI-Controller genutzt. Während unsere zuvor getesteten Sysbench-Workloads die Plattform sowohl in Bezug auf Speicher-I/O als auch in Bezug auf die Kapazität ausgelastet haben, wird beim SQL-Test nach der Latenzleistung gesucht.
Dieser Test verwendet SQL Server 2014, das auf Windows Server 2012 R2-Gast-VMs ausgeführt wird, und wird durch Quests Benchmark Factory für Datenbanken belastet. StorageReviews Microsoft SQL Server OLTP-Testprotokoll verwendet den aktuellen Entwurf des Benchmark C (TPC-C) des Transaction Processing Performance Council, einen Online-Transaktionsverarbeitungs-Benchmark, der die Aktivitäten in komplexen Anwendungsumgebungen simuliert.
Der TPC-C-Benchmark kommt der Messung der Leistungsstärken und Engpässe der Speicherinfrastruktur in Datenbankumgebungen näher als synthetische Leistungsbenchmarks. Jede Instanz unserer SQL Server-VM für diese Überprüfung verwendet eine SQL Server-Datenbank mit 333 GB (Maßstab 1,500) und misst die Transaktionsleistung und Latenz unter einer Last von 15,000 virtuellen Benutzern.
SQL Server-Testkonfiguration (pro VM)
- Windows Server 2012 R2
- Speicherbedarf: 600 GB zugewiesen, 500 GB genutzt
- SQL Server 2014
- Datenbankgröße: Maßstab 1,500
-
- Virtuelle Client-Auslastung: 15,000
- RAM-Puffer: 48 GB
- Testdauer: 3 Stunden
-
- 2.5 Stunden Vorkonditionierung
- 30-minütiger Probezeitraum
Die Crucial P2 2 TB hatte eine durchschnittliche Latenz von 60 ms und belegte mit großem Abstand den letzten Platz.
VDBench-Workload-Analyse
Wenn es um das Benchmarking von Speichergeräten geht, sind Anwendungstests am besten und synthetische Tests stehen an zweiter Stelle. Obwohl sie keine perfekte Darstellung der tatsächlichen Arbeitslasten darstellen, helfen synthetische Tests dabei, Speichergeräte mit einem Wiederholbarkeitsfaktor zu vergleichen, der es einfach macht, Konkurrenzlösungen direkt miteinander zu vergleichen. Diese Workloads bieten eine Reihe unterschiedlicher Testprofile, die von „Vier-Ecken“-Tests über allgemeine Tests der Datenbankübertragungsgröße bis hin zu Trace-Erfassungen aus verschiedenen VDI-Umgebungen reichen.
Alle diese Tests nutzen den gemeinsamen vdBench-Workload-Generator mit einer Skript-Engine, um Ergebnisse über einen großen Computing-Testcluster zu automatisieren und zu erfassen. Dadurch können wir dieselben Arbeitslasten auf einer Vielzahl von Speichergeräten wiederholen, einschließlich Flash-Arrays und einzelnen Speichergeräten. Unser Testprozess für diese Benchmarks füllt die gesamte Laufwerksoberfläche mit Daten und partitioniert dann einen Laufwerksabschnitt, der 5 % der Laufwerkskapazität entspricht, um zu simulieren, wie das Laufwerk auf Anwendungsauslastungen reagieren könnte. Dies unterscheidet sich von vollständigen Entropietests, bei denen 100 % des Antriebs genutzt und in einen stabilen Zustand versetzt werden. Infolgedessen spiegeln diese Zahlen höhere Dauerschreibgeschwindigkeiten wider.
Profile:
- 4K Random Read: 100 % Read, 128 Threads, 0-120 % Iorate
- 4K Random Write: 100 % Schreiben, 64 Threads, 0-120 % Iorate
- 64K sequentielles Lesen: 100 % Lesen, 16 Threads, 0-120 % Leserate
- 64K Sequentielles Schreiben: 100 % Schreiben, 8 Threads, 0-120 % Iorate
Vergleichswerte für diesen Testbericht:
- Samsung 970 Pro
- Entscheidend P5
- Seagate FireCuda510
- Sabrent Rocket Gen3
- WD Schwarz
- SK Hynix Gold P31
An erster Stelle steht das zufällige 4K-Lesen. Hier erreichte das Crucial P2 einen Spitzenwert von 59,408 IOPS bei einer Latenz von 1.2 ms und lag damit weit hinter den anderen Laufwerken.
Beim 4K-Zufallsschreiben war die Leistung erneut schlecht, wobei P2 mit einem Spitzenwert von nur 9,057 IOPS und einer Latenz von 10.5 ms das Schlusslicht belegte.
Auch bei der Umstellung auf sequentielles Arbeiten blieb die schlechte Leistung des Crucial P2 erhalten. Bei 64K-Lesevorgängen erreichte das Laufwerk einen Spitzenwert von 15,264 IOPS oder 954 MB/s mit einer Latenz von 1.1 ms.
Bei 64K-Schreibvorgängen blieb der P2 mit nur 2,022 IOPS oder 126 MB/s bei einer Latenz von 6.3 ms auf dem letzten Platz.
Als nächstes haben wir uns unsere VDI-Benchmarks angesehen, die darauf ausgelegt sind, die Laufwerke noch stärker zu belasten. Zu diesen Tests gehören Boot, Erstanmeldung und Montagsanmeldung. Beim Boot-Test setzte die Crucial P2 ihre schlechte Leistung fort und erreichte mit 28,323 IOPS bei einer Latenz von 1.2 ms ihren Höhepunkt, verglichen mit dem Spitzenreiter von 138,475 IOPS, dem Samsung.
Bei der ersten VDI-Anmeldung blieb die Crucial P2 hinten und die Latenz schwankte hin und her. Es erreichte einen Spitzenwert von nur etwa 13 IOPS bei einer Latenz von etwa 2.3 ms, mehr als das Fünffache der Latenz des Spitzenmodells mit ebenfalls über 5 IOPS.
In unserem VDI-Montag-Login schließlich verzeichnete das P2 einen massiven Latenzanstieg, bevor es mit einem Spitzenwert von 3,750 IOPS bei 414 µs den letzten Platz belegte.
Schlussfolgerung
Die Crucial P2 NVMe ist eine SSD im M.2-Formfaktor (unter Nutzung von TLC NAND), die gute Leistung zu einem sehr guten Preis bieten soll. Das Laufwerk ist in Kapazitäten von 250 GB bis 2 TB erhältlich, hier im Test. Die höhere Kapazität bietet eine bessere Leistung und Ausdauer, ist aber dennoch zu einem vernünftigen Preis erhältlich.
Was die Leistung betrifft, schnitt dieses Laufwerk in keinem Test gut ab. Wir haben unseren SQL Server-Latenztest durchgeführt, bei dem das Laufwerk eine durchschnittliche Latenz von 60 ms erreichte. In Houdini schnitt es mit einem Ergebnis von 3,049.7 Sekunden ganz gut ab. In unserem VDBench landete das Laufwerk mit schlechter Leistung und hoher Latenz in allen Tests auf dem letzten Platz. Zu den Spitzenwerten gehören 59 IOPS für 4K-Lesen, 9 IOPS für 4K-Schreiben, 954 MB/s für 64 Lesen und 126 MB/s für 64 Schreiben. Bei unseren VDI-Benchmarks sahen wir Spitzenwerte von 28 IOPS beim Start, 13 IOPS beim ersten Login und 3,750 IOPS beim Montag-Login.
Wenn die Kapazität Ihr Hauptanliegen ist und Sie nur leichte Produktivitätsaufgaben erledigen, wäre die Crucial P2 (2 TB) eine gute Festplatte. Für alle, die eine bessere Leistung benötigen, gibt es viele andere Optionen.
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS Feed