Solidigm P5336 SSDs eröffnen neue Forschungsgrenzen, indem sie die datenintensiven Anforderungen von KI und maschinellen Lernalgorithmen am Edge unterstützen.
In einer Zeit, in der die wissenschaftliche Forschung schnell an die Grenzen unserer technologischen Möglichkeiten vordringt, ist die Bedeutung von Hochleistungsspeichern immer wichtiger geworden. Ausgestattet mit einem leistungsstarken Deep-Sky-Objekterfassungsgerät, einem Satz Solidigm P5336 61.44 TB QLC-SSDs und unserem neuen bevorzugten robusten Dell PowerEdge XR7620-Server erkunden wir den Bedarf an robustem, kostengünstigem Speicher, um die schnell explodierenden Datenanforderungen zu bewältigen der kantenbasierten KI-beschleunigten wissenschaftlichen Forschung.
Edge-Datenerfassung
In den letzten Jahren hat die Wissenschafts- und Datenverarbeitung einen gewaltigen Wandel vollzogen und sich von traditionellen, zentralisierten Computermodellen hin zum dynamischeren Bereich des Edge Computing entwickelt. Dieser Wandel ist nicht nur eine Änderung der Computerpräferenzen, sondern eine Reaktion auf die sich entwickelnden Anforderungen und Komplexitäten der modernen Datenverarbeitungsforschung.
Im Kern bezieht sich Edge Computing auf die Verarbeitung von Daten in der Nähe des Ortes, an dem sie generiert werden, im Gegensatz zur Verwendung eines zentralen Datenverarbeitungslagers. Dieser Wandel wird immer relevanter in Bereichen, in denen die Datenverarbeitung und Entscheidungsfindung in Echtzeit von entscheidender Bedeutung ist. Edge Computing ist in der wissenschaftlichen Forschung überzeugend, insbesondere in Disziplinen, die eine schnelle Datenerfassung und -analyse erfordern.
Die Faktoren, die Edge Computing vorantreiben
Mehrere Faktoren treiben den Trend zum Edge Computing in der wissenschaftlichen Forschung voran. Erstens ist die schiere Datenmenge, die durch moderne wissenschaftliche Experimente generiert wird, atemberaubend. Herkömmliche Datenverarbeitungsmethoden, bei denen riesige Datensätze zur Analyse an einen zentralen Server übertragen werden, werden unpraktisch und zeitaufwändig.
Zweitens ist der Bedarf an Echtzeitanalysen ausgeprägter denn je. In vielen Forschungsszenarien kann die Zeit, die für die Übertragung von Daten zur Verarbeitung benötigt wird, dazu führen, dass diese veraltet sind, sodass eine sofortige Analyse vor Ort unerlässlich ist.
Schließlich haben ausgefeiltere Datenerfassungstechnologien die Entwicklung ebenso ausgefeilter Datenverarbeitungsfunktionen erforderlich gemacht. Edge Computing erfüllt diesen Bedarf, indem es leistungsstarke Rechenkapazitäten näher an Datenquellen bringt und so die Effizienz und Effektivität der wissenschaftlichen Forschung steigert.
Die wissenschaftliche Forschung, auf die wir uns in diesem Artikel im Bereich Edge-Computing konzentrieren, ist besonders daran interessiert, so viele Rohdaten wie möglich von modernen, hochentwickelten Sensoren erfasst zu behalten. Echtzeitüberwachung und -analyse der erfassten Daten mithilfe von Beschleunigern wie dem NVIDIA L4 am Edge liefern Zusammenfassungen. Dennoch gibt es keinen Ersatz dafür, alle Daten für zukünftige, tiefergehende Analysen zu erfassen und aufzubewahren. Hier ist die Ultradichte Solidigm QLC SSDs Komm herein.
Die Einrichtung
Die Astrofotografie, die Praxis der Aufnahme von Bildern von Himmelskörpern und großen Bereichen des Nachthimmels, ist ein Paradebeispiel für einen Bereich, der erheblich vom Edge Computing profitiert. Traditionell ist Astrofotografie eine Geduldsdisziplin, die lange Belichtungszeiten und eine umfangreiche Nachbearbeitung der Bilder erfordert, um aussagekräftige Daten zu extrahieren. In der Vergangenheit haben wir uns angeschaut Beschleunigung des Prozesses mit einem NUC-Cluster. Jetzt ist es an der Zeit, das nächste Level zu erreichen.
Der Edgeserver
Wir haben das Ruggedized verwendet Dell PowerEdge XR7620 als zentrale Serverplattform am Edge. Diese optimierten Server verfügen über kurze Tiefe, Dual-Socket in einem kompakten Formfaktor und bieten auf Beschleunigung ausgerichtete Lösungen. Im Gegensatz zu den typischen Edge-Servern trägt der XR7620-Server der schnellen Weiterentwicklung von KI/ML Rechnung und unterstützt die anspruchsvollsten Arbeitslasten, einschließlich industrieller Automatisierung, Video, Point-of-Sale-Analyse, KI-Inferenz und Edge-Point-Device-Aggregation.
Wichtige Spezifikationen des Dell PowerEdge XR7620
Eine vollständige Liste der Spezifikationen finden Sie in unserem vollständigen Testbericht hier: Dell PowerEdge XR7620.
Merkmal | Technische Daten |
Prozessor | Zwei skalierbare Intel® Xeon® Prozessoren der 4. Generation mit bis zu 32 Kernen pro Prozessor |
Memory | 16 DDR5-DIMM-Steckplätze, unterstützt RDIMM maximal 1 TB, Geschwindigkeiten bis zu 4800 MT/s. Unterstützt nur registrierte ECC DDR5 DIMMs |
Laufwerkseinschübe | Vordere Schächte: Bis zu 4 x 2.5-Zoll-SAS/SATA/NVMe-SSD-Laufwerke, max. 61.44 TB, bis zu 8 x E3.S NVMe-Direktlaufwerke, max. 51.2 TB |
Dieser Dell PowerEdge-Server ist nicht irgendein Stück Technik. Es ist so konstruiert, dass es den härtesten Bedingungen standhält, die die Wildnis zu bieten hat. Denken Sie an Minustemperaturen, heulende Winde und die Isolation, die das Wort „abgelegen“ als Untertreibung erscheinen lassen. Aber trotz aller Widrigkeiten erwies es sich als leistungsfähig und unnachgiebig und trieb die Forschung mit der Leistung seiner hochmodernen Prozessoren und einer enormen Kapazität zur Datenanalyse voran.
Mit einem robusten Server entfällt der Druck, den Server sicher und warm zu halten. Es ist nicht nur die Inszenierung; Es ist außerdem wichtig, dass der Server der mühsamen Fahrt von einem sicheren Ort zu einem kalten, isolierten Ort mitten im Nirgendwo standhält.
Das Teleskop
Für diesen Test haben wir einen Ort an den Großen Seen ausgewählt, mitten in einer abgelegenen Wildnis, weit entfernt vom aufdringlichen Glanz der Lichter der Stadt. Das Herzstück unseres Astrofotografie-Rigs ist das Celestron Nexstar 11-Zoll-Teleskop. Mit einer Blende von F/1.9 und einer Brennweite von 540 mm eignet sich dieses Teleskop ideal für die Astrofotografie bei schlechten Lichtverhältnissen und bietet bemerkenswerte Details für die Erforschung des tiefen Himmels. In der tiefen Stille der Wildnis steht dieses Teleskop wie ein Wächter, seine Linse auf den Himmel gerichtet, bereit, das himmlische Schauspiel einzufangen.
Die One-Shot-Kamera
An den Nexstar angeschlossen ist die ZWO ASI6200MC Pro One Shot Farbkamera. Diese Kamera wurde ausschließlich für die Astrofotografie entwickelt und kann hochauflösende, farbintensive Bilder astronomischer Objekte liefern. Die Wahl einer One-Shot-Farbkamera vereinfacht den Bildgebungsprozess und erfasst Vollfarbbilder in einer einzigen Aufnahme, ohne dass zusätzliche Filter erforderlich sind. Diese Funktion ist in der abgelegenen Wildnis von unschätzbarem Wert, wo Einfachheit und Effizienz an erster Stelle stehen.
Normen | Detail |
---|---|
Sensor | SONY IMX455 CMOS |
Größe | Vollformat |
Auflösung | 62 Megapixel 9576×6388 |
Pixel Größe | 3.76μm |
Bayer-Muster | DSGVO |
DDR3-Puffer | 256MB |
Schnittstelle | USB3.0 / USB2.0 |
Die ZWO ASI6200MC Pro ist eine speziell entwickelte Astrofotografiekamera, die mit einem SONY IMX455 CMOS-Sensor ausgestattet ist und eine beeindruckende Auflösung von 62 Megapixeln über einen Vollformatsensor bietet. Es verfügt über eine Pixelgröße von 3.76 μm und ermöglicht detaillierte und umfangreiche Himmelsaufnahmen mit einer maximalen Bildrate von 3.51 Bildern pro Sekunde bei voller Auflösung.
Die Kamera verfügt über ein integriertes Kühlsystem – einen geregelten zweistufigen thermischen elektrischen Kühler –, um die Temperatur des Sensors zu senken und eine optimale Leistung zu gewährleisten, indem eine Temperatur von 30–35 °C unter der Umgebungstemperatur aufrechterhalten wird, wodurch elektronisches Rauschen für präzisere Bilder reduziert wird . Mit Funktionen wie einem Rolling Shutter, einem großen Belichtungsbereich und einem beachtlichen 256 MB DDR3-Puffer ist diese Kamera darauf ausgelegt, sowohl Amateur- als auch professionellen Astronomen Bilder in außergewöhnlicher Qualität zu liefern.
Mit Starlink ist die Aufrechterhaltung einer zuverlässigen Datenverbindung in der abgelegenen Wildnis heute keine so große Herausforderung mehr. Dieser satellitengestützte Internetdienst bietet Hochgeschwindigkeits-Datenkonnektivität, die für die Übertragung von Daten und den Empfang von Echtzeitaktualisierungen unerlässlich ist, allerdings mit erheblichen Bandbreitenbeschränkungen für die Rücksendung großer Datensätze an das Labor.
Der Hochleistungsspeicher
Die Erhaltung jedes Teilbildes in der Astrofotografie ist für Forscher von entscheidender Bedeutung, da dadurch eine Fülle von Informationen freigesetzt wird, die für die Weiterentwicklung astronomischer Kenntnisse unerlässlich sind. Jeder Unterrahmen kann inkrementelle Variationen und Nuancen von Himmelsphänomenen erfassen, was für eine detaillierte Analyse und ein detailliertes Verständnis von entscheidender Bedeutung ist. Diese Vorgehensweise verbessert die Bildqualität durch Rauschunterdrückung und stellt die Datenzuverlässigkeit sicher, indem sie Redundanz für die Überprüfung bietet und bei der Fehlerkorrektur und Kalibrierung hilft.
Normen | Solidigm D5-P5336 7.68 TB |
---|---|
Kapazität | 7.68TB |
Sequentielles Lesen / Schreiben | Bis zu 6.8 GB/s Lesen / 1.8 GB/s Schreiben |
Zufällige 4K-Lese-/16K-Schreib-IOPS | Bis zu 770 IOPS beim Lesen / 17.9 IOPS beim Schreiben |
Laufwerksschreibvorgänge pro Tag (DWPD) | 0.42 DWPD mit 16K R/W |
Garantie | 5 Jahre |
Darüber hinaus verwenden wir das Solidigm D61.44-P5-Laufwerk mit 5336 TB
Normen | Solidigm D5-P5336 61.44 TB |
---|---|
Kapazität | 61.44TB |
Sequentielles Lesen / Schreiben | Bis zu 7 GB/s Lesen / 3 GB/s Schreiben |
Zufällige 4K-Lese-/16K-Schreib-IOPS | Bis zu 1 Mio. IOPS beim Lesen / 42.6 IOPS beim Schreiben |
Laufwerksschreibvorgänge pro Tag (DWPD) | 0.58 DWPD mit 16K R/W |
Garantie | 5 Jahre |
Unser Hauptinteresse besteht darin, über einen umfassenden Datensatz zu verfügen, der die Anwendung fortschrittlicher Rechentechniken wie maschinelles Lernen und KI ermöglicht, um Muster und Erkenntnisse aufzudecken, die bei manuellen Analysen oder herkömmlichen Methoden möglicherweise übersehen werden. Die Beibehaltung dieser Unterrahmen macht die Forschung auch zukunftssicher und ermöglicht die Wiederaufbereitung mit sich weiterentwickelnden Technologien. Darüber hinaus ist es ein historisches Dokument für langfristige Studien und gemeinsame Bemühungen, was es zu einer unschätzbar wertvollen Ressource macht.
Der innovative Ansatz von StorageReview
Wir haben die Grenzen des Edge Computing und seiner Bedeutung erweitert – und das nicht nur für typische Märkte wie Industrie- und Einzelhandelsanwendungsfälle. Wenn wir unsere Ausrüstung an entlegene Orte mitnehmen und alle Phasen der Aufnahme und Zusammenstellung astrofotografischer Bilder dokumentieren, können wir besser verstehen, welche Vorteile KI in vielen verschiedenen Aspekten des Lebens hat. Sie erinnern sich vielleicht an unsere Extreme Edge-Rezension aus dem letzten Jahr, als wir unser Rig in der Wüste aufstellten, um einen Nachthimmel einzufangen, ohne uns Sorgen machen zu müssen, dass künstliches Licht unsere Bilder beeinträchtigt.
Im Bestreben, die Grenzen der Astrofotografie zu erweitern, insbesondere dort, wo es auf hohe Speicherkapazität und Recheneffizienz ankommt, revolutioniert ein neuartiger Ansatz zur Bildentfaltung unsere Fähigkeit, den Kosmos mit beispielloser Klarheit einzufangen. Um dieses Ziel zu erreichen, haben wir eine bahnbrechende CNN-Architektur (Convolutional Neural Network) eingeführt, die die traditionell mit Bildentfaltungsprozessen verbundenen Artefakte erheblich reduziert.
Die zentrale Herausforderung in der Astrofotografie besteht darin, die Verzerrungen zu bekämpfen, die durch atmosphärische Störungen, Montierungs- und Führungsfehler sowie die Einschränkungen der Beobachtungsausrüstung entstehen. Adaptive Optik hat diese Probleme gemildert, aber ihre hohen Kosten und Komplexität lassen viele Observatorien im Stich. Die Bildentfaltung, der Prozess der Schätzung und Umkehrung der Auswirkungen der Punktspreizfunktion (PSF) zur Klärung von Bildern, ist ein wichtiges Werkzeug im Arsenal des Astronomen. Herkömmliche Algorithmen wie Richardson-Lucy und statistische Dekonvolution führen jedoch häufig zu zusätzlichen Artefakten, die die Wiedergabetreue des Bildes beeinträchtigen.
Hier kommt die innovative Lösung ins Spiel, die für die Zusammenarbeit mit Vikramaditya R. Chandra vorgeschlagen wurde: eine maßgeschneiderte CNN-Architektur, die speziell für die Wiederherstellung astronomischer Bilder entwickelt wurde. Diese Architektur schätzt nicht nur die PSF mit bemerkenswerter Genauigkeit, sondern wendet auch einen durch Deep-Learning-Techniken verbesserten Richardson-Lucy-Entfaltungsalgorithmus an, um die Einführung von Artefakten zu minimieren. Unsere Forschung zeigt eine überlegene Leistung gegenüber bestehenden Methoden, indem sie dieses Modell auf von uns aufgenommenen Bildern und aus dem Hubble Legacy Archive trainiert und so einen klaren Weg zu artefaktfreien astronomischen Bildern aufzeigt.
Das Herzstück dieser Architektur ist ein zweiphasiger Ansatz: Zunächst schätzt ein Faltungs-Neuronales Netzwerk die PSF, die dann in einem modifizierten Richardson-Lucy-Algorithmus zur Entfaltung des Bildes verwendet wird. In der zweiten Phase wird ein weiteres tiefes CNN verwendet, das darauf trainiert ist, Restartefakte zu identifizieren und zu beseitigen, um sicherzustellen, dass das Ausgabebild dem ursprünglichen astronomischen Objekt so nahe wie möglich bleibt. Dies wird ohne den Einsatz übermäßiger Vereinfachungstechniken wie der Gaußschen Unschärfe erreicht, die ebenfalls zu unerwünschten Effekten wie „Klingeln“ führen können.
Die Bedeutung dieses Modells geht über seine unmittelbare Anwendung in der Astrofotografie hinaus. Für Edge Computing, wo Verarbeitungsleistung und Speicherkapazität an erster Stelle stehen, versprechen die Effizienz und Effektivität dieser neuartigen CNN-Architektur eine neue Ära der hochauflösenden Bildgebung. Die Fähigkeit, große Mengen optischer Daten am Netzwerkrand zu verarbeiten und zu speichern, eröffnet neue Möglichkeiten für die Forschung und ermöglicht Echtzeitanalysen und Entscheidungsfindung in Beobachtungskampagnen in der gesamten Branche.

Hubble-Legacy-Bilder, künstliche Unschärfe (links) vs. CNN-Verarbeitung (rechts)
Die in unserem Labor durchgeführten Fortschritte bei den Entfaltungstechniken markieren einen entscheidenden Moment in der Bildgebung aller Art. Durch die innovative Nutzung von Deep Learning stehen wir kurz davor, das zusätzliche Potenzial eines digitalen Bildes zu erschließen, was hier durch die Erfassung des Universums mit Klarheit und Präzision demonstriert wird, die bisher nur den höchsten Konfigurationen vorbehalten war. Wir haben dieses Modell schon seit geraumer Zeit in unserem Labor trainiert, also halten Sie Ausschau nach einem baldigen vollständigen Bericht.
Was das für die Astrofotografie bedeutet
Die Weiterentwicklung einer neuartigen Convolutional Neural Network (CNN)-Architektur zur Wiederherstellung astronomischer Bilder gegenüber herkömmlichen Dekonvolutionstechniken markiert eine entscheidende Entwicklung in der Astrofotografie. Im Gegensatz zu herkömmlichen Methoden, die oft zu Artefakten wie Rauschen und Geisterbildern führen, minimiert der CNN-Ansatz diese Probleme und sorgt für klarere und genauere Himmelsbilder.
Diese Technik verbessert die Bildschärfe und ermöglicht eine präzisere Datenextraktion aus astronomischen Beobachtungen. Durch die Nutzung von Deep Learning verbessern wir die Wiedergabetreue der Astrofotografie erheblich und ebnen den Weg für tiefere Einblicke in den Kosmos mit minimalen Kompromissen bei der Bildverarbeitung.
Zwei Inferenz-Anwendungsfälle in der Edge-basierten KI-beschleunigten wissenschaftlichen Forschung
Datenhandhabung und -verarbeitungsmethoden spielen in der wissenschaftlichen Forschung eine zentrale Rolle, insbesondere in Bereichen, die eine umfangreiche Datenerfassung und -analyse erfordern, wie beispielsweise die Astrofotografie. Wir haben uns entschieden, zwei gängige Inferenz-Anwendungsfälle zu untersuchen, bei denen leistungsstarke Solidigm-Speicherlösungen und die fortschrittliche Recheninfrastruktur von Dell genutzt werden, um die riesigen, am Edge generierten Datensätze zu verwalten und zu interpretieren.
Fall 1: Sneaker-Net-Ansatz
Der Sneaker Net-Ansatz ist eine altehrwürdige Methode der Datenübertragung, bei der Daten lokal auf Speichergeräten mit hoher Kapazität erfasst und diese Speichermedien dann physisch zu einem zentralen Rechenzentrum oder einer Verarbeitungsanlage transportiert werden. Diese Methode erinnert an die Anfänge der Computertechnik, als Daten aufgrund fehlender oder langsamer Netzwerkverbindungen manuell verschoben wurden. In der Edge-basierten KI-beschleunigten wissenschaftlichen Forschung kann dieser Ansatz in Szenarien von Vorteil sein, in denen die Echtzeit-Datenübertragung durch Bandbreitenbeschränkungen oder eine unzuverlässige Internetverbindung behindert wird.
Der Hauptvorteil des Sneaker Net-Ansatzes liegt in seiner Einfachheit und Zuverlässigkeit. SSDs mit hoher Kapazität können riesige Datenmengen speichern und stellen so sicher, dass große Datenmengen ohne ständige Internetverbindung sicher transportiert werden können. Diese Methode ist besonders in abgelegenen oder anspruchsvollen Umgebungen von Vorteil, in denen häufig Astrofotografie stattfindet, beispielsweise in abgelegenen Wildnisgebieten, die weit von herkömmlichen Internetdiensten entfernt sind.
Allerdings weist der Sneaker-Net-Ansatz auch erhebliche Einschränkungen auf. Am offensichtlichsten ist die Verzögerung bei der Datenverarbeitung und -analyse, da der physische Transport Zeit in Anspruch nimmt und mögliche Erkenntnisse, die aus den Daten abgeleitet werden könnten, beeinträchtigt wird. Außerdem besteht ein erhöhtes Risiko eines Datenverlusts oder einer Beschädigung während des Transports. Darüber hinaus nutzt diese Methode nicht das Potenzial für Echtzeitanalysen und Entscheidungsfindung, das Edge Computing bieten kann, wodurch möglicherweise zeitnahe Erkenntnisse und Interventionen verloren gehen.
Fall 2: Kanteninferenz
Edge-Inferencing stellt einen moderneren Ansatz für die Datenverarbeitung in der wissenschaftlichen Forschung dar und ist besonders für die Anforderungen von KI-beschleunigten Projekten geeignet. Bei diesem Prozess werden Daten vor Ort erfasst und ein mit NVIDIA L4 ausgestatteter Edge-Server verwendet, um First-Pass-Inferenzen auszuführen. Diese Methode ermöglicht eine sofortige Datenanalyse bei der Generierung und ermöglicht so eine Entscheidungsfindung in Echtzeit und eine schnelle Anpassung der Datenerfassungsstrategien auf der Grundlage vorläufiger Erkenntnisse.
Edge-Server sind für den Betrieb unter den anspruchsvollen Bedingungen konzipiert, die in der Feldforschung häufig anzutreffen sind, und stellen die für KI- und maschinelle Lernalgorithmen erforderliche Rechenleistung direkt an der Datenquelle bereit. Diese Fähigkeit ist von entscheidender Bedeutung für Aufgaben, die eine sofortige Datenanalyse erfordern, beispielsweise die Identifizierung spezifischer astronomischer Phänomene in umfangreichen Datensätzen, die während Astrofotografiesitzungen erfasst wurden.
Die Vorteile der Kanteninferenz sind vielfältig. Es reduziert die Latenz bei der Datenverarbeitung erheblich und ermöglicht sofortige Einblicke und Anpassungen. Diese Echtzeitanalyse kann die Qualität und Relevanz der erfassten Daten verbessern und Forschungsbemühungen effizienter und effektiver machen. Edge-Inferencing reduziert außerdem den Bedarf an Datenübertragung und spart so Bandbreite für wichtige Kommunikationen.
Allerdings bringt die Kanteninferenzierung auch Herausforderungen mit sich. Die anfängliche Einrichtung und Wartung einer Edge-Computing-Infrastruktur kann komplex und kostspielig sein und erhebliche Investitionen in Hardware und Software erfordern. Darüber hinaus ist spezielles Fachwissen erforderlich, um Edge-Computing-Systeme effektiv verwalten und betreiben zu können.
Darüber hinaus reduziert Edge Inferencing zwar den Datenübertragungsbedarf, erfordert aber dennoch eine Methode zur langfristigen Datenspeicherung und weiteren Analyse, was einen hybriden Ansatz erfordert, der lokale Verarbeitung mit zentraler Datenanalyse kombiniert. Dank verbesserter Rechen-, Speicher- und GPU-Technologien werden diese Herausforderungen immer weniger zum Problem.
Sowohl der Sneaker-Net-Ansatz als auch Edge-Inferencing bieten wertvolle Methoden zur Verwaltung der riesigen Datensätze, die in der kantenbasierten, KI-beschleunigten wissenschaftlichen Forschung generiert werden. Die Wahl zwischen diesen Methoden hängt von den spezifischen Anforderungen des Forschungsprojekts ab, einschließlich der Notwendigkeit einer Echtzeitanalyse, der Verfügbarkeit von Rechenressourcen vor Ort und den logistischen Überlegungen des Datentransports. Mit fortschreitender Technologie verspricht das Potenzial für innovative Lösungen für diese Herausforderungen, die Effizienz und Effektivität der wissenschaftlichen Forschung am Rande weiter zu steigern.
Extreme Umweltbedingungen
In unserem sich ständig weiterentwickelnden Engagement, die Grenzen der Technologie zu erweitern und ihre Grenzen zu verstehen, haben wir uns auf eine einzigartige Testreise mit dem Dell PowerEdge XR7620 Server und Solidigm QLC SSDs begeben. Es ist anzumerken, dass das Überschreiten der spezifizierten Betriebsparameter einer Technologie nicht empfohlen wird und zum Erlöschen der Garantie oder, schlimmer noch, zum Geräteausfall führen kann. Aus wissenschaftlicher Neugier und um die Robustheit unserer Ausrüstung wirklich zu erfassen, gingen wir jedoch mit Vorsicht vor.
Unsere Tests für dieses Projekt wurden im strengen Winter durchgeführt, mit Temperaturen von bis zu -15 °C und darunter und einem unerbittlichen Schneesturm. Diese Bedingungen liegen weit über der normalen Betriebsumgebung der meisten elektronischen Geräte, insbesondere hochentwickelter Serverhardware und SSDs, die für datenintensive Aufgaben konzipiert sind. Ziel war es, die Leistung und Zuverlässigkeit des Servers und Speichers angesichts der extremen Kälte und Feuchtigkeit, die bei solchen Wetterbedingungen herrschen, zu bewerten.
Bemerkenswerterweise funktionierten sowohl der Server als auch die SSDs ohne Probleme. Es gab keine Beeinträchtigungen des Betriebs, keine Datenbeschädigung und keine Hardwarestörungen. Diese außergewöhnliche Leistung unter solchen Testbedingungen sagt Bände über die Verarbeitungsqualität und Widerstandsfähigkeit dieser Geräte. Der Dell PowerEdge XR7620 mit seinem robusten Design und die Solidigm-SSDs mit ihrer fortschrittlichen Technologie haben bewiesen, dass sie Umweltbelastungen standhalten können, die weit über die gemütlichen Grenzen eines Rechenzentrums hinausgehen.
Dieser Test demonstriert zwar die Haltbarkeit und Zuverlässigkeit des Geräts, sollte jedoch nicht als Empfehlung für den Betrieb Ihrer Hardware außerhalb der empfohlenen Spezifikationen angesehen werden. Es handelte sich um ein kontrolliertes Experiment, das die Grenzen der Leistungsfähigkeit dieser Geräte erkunden sollte. Unsere Ergebnisse bekräftigen die Bedeutung der Auswahl hochwertiger, langlebiger Hardware für kritische Anwendungen, insbesondere in Edge-Computing-Szenarien, in denen die Bedingungen unvorhersehbar und alles andere als ideal sein können.
Abschließende Gedanken
Seit QLC NAND auf sinnvolle Weise auf den Markt kam, sind wir von Hochleistungs-SSDs für Unternehmen fasziniert. Die meisten Workloads sind nicht so schreibintensiv, wie die Branche glaubt; Dies gilt umso mehr für die Datenerfassung am Rande. Anwendungsfälle für die Erfassung und Inferenz von Edge-Daten stellen ganz andere Herausforderungen dar.
Wie der Anwendungsfall der Astrofotografie, den wir hier dargelegt haben, sind sie im Vergleich zu dem, was im Rechenzentrum zu finden wäre, normalerweise in gewisser Weise begrenzt. Wie bei unseren Forschungs- und Edge-KI-Bemühungen verfügt der Dell-Server nur über vier Schächte. Daher ist es von entscheidender Bedeutung, diese Schächte für die Erfassung unserer Daten zu maximieren. Ähnlich wie bei anderen Edge-Anwendungen, die wir untersucht haben, z autonomes Fahren, ist die Fähigkeit, mehr Daten ohne Unterbrechung zu erfassen, von entscheidender Bedeutung.
Der Abschluss unserer Untersuchung der einzigartigen Anwendungen von Enterprise-SSDs mit hoher Kapazität, insbesondere der QLC-NAND-Technologie, unterstreicht einen entscheidenden Wandel in der Art und Weise, wie wir die Datenerfassung und -verarbeitung am Edge angehen. Die SSDs, die wir in unseren Tests verwendet haben, sind aufgrund ihrer Kapazitäts- und Leistungskennzahlen besonders interessant und ermöglichen neue Forschungsmöglichkeiten, die bisher durch Speicherkapazitäten eingeschränkt waren.
Unsere Reise durch die Feinheiten der Edge-Datenerfassung und Inferenz-Anwendungsfälle, zusammengefasst im Astrofotografie-Projekt, offenbart ein differenziertes Verständnis der Speicheranforderungen über das Rechenzentrum hinaus. Bei Projekten wie diesem hat jedes erfasste Datenbyte, ein Fragment des Kosmos, einen Wert. Aufgrund von Wetter- und Zeitbeschränkungen ist der Luxus ausgedehnter Lageranordnungen und Regale über Regale mit Ausrüstung nicht immer verfügbar.
Dieses Szenario betrifft nicht nur die Astrofotografie, sondern spiegelt sich in verschiedenen Edge-Computing-Anwendungen und Forschungsdisziplinen wider. Hier kommt es auf die schnelle Erfassung und Analyse großer Datenmengen an. Für viele Branchen ist die Unterbrechung der Datenauslagerung ein Luxus, der sich weder leisten noch rechtfertigen lässt. Die SSDs lösen dieses Dilemma mit ihren umfangreichen Speicherkapazitäten. Sie ermöglichen längere Zeiträume der Datenerfassung ohne häufige Unterbrechungen zur Datenauslagerung und stellen so die Kontinuität und Integrität des Forschungsprozesses sicher.
Diese SSDs mit hoher Kapazität erschließen neue Forschungsgrenzen, indem sie die datenintensiven Anforderungen von KI- und maschinellen Lernalgorithmen direkt am Netzwerkrand unterstützen. Diese Fähigkeit ist für die Datenverarbeitung und -inferenz in Echtzeit von entscheidender Bedeutung und ermöglicht sofortige Erkenntnisse und Maßnahmen auf der Grundlage der gesammelten Daten. Ob es darum geht, die Parameter für die Datenerfassung auf der Grundlage vorläufiger Analysen zu verfeinern oder komplexe Algorithmen anzuwenden, um das Himmelsrauschen für astronomische Entdeckungen zu filtern, die Rolle dieser SSDs kann nicht genug betont werden.
Die Solidigm-SSDs sind nicht nur Speicherlösungen, sondern Wegbereiter von Innovationen. Sie stellen einen Fortschritt bei der Bewältigung der einzigartigen Herausforderungen des Edge Computing dar und ermöglichen Forschungsbemühungen, die die Grenzen des Möglichen verschieben. Die Bedeutung robuster, effizienter Speicherlösungen mit hoher Kapazität wird nur zunehmen, wenn wir weiterhin die Weiten des Weltraums und die Feinheiten unserer Welt durch Edge-basierte, KI-beschleunigte wissenschaftliche Forschung erforschen. Diese Technologien unterstützen nicht nur den aktuellen Forschungsbedarf; Sie nehmen die Zukunft vorweg und legen den Grundstein für zukünftige Entdeckungen.
Dieser Bericht wird von Solidigm gesponsert. Alle in diesem Bericht geäußerten Ansichten und Meinungen basieren auf unserer unvoreingenommenen Sicht auf das/die betrachtete(n) Produkt(e).
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed