Startseite Unternehmen So funktioniert es: Lenovo Storage Cloud Tiering

So funktioniert es: Lenovo Storage Cloud Tiering

by Juan Mulford
LenovoStorageCloudTieringThumbnail 1

Automatisiertes Storage-Tiering ist seit Jahren eine unverzichtbare Lösung für Unternehmen, die den Platzbedarf ihres Rechenzentrums effizient verwalten und gleichzeitig die Gesamtbetriebskosten (TCO) senken möchten. Die Strategie ist einfach: Verwenden Sie Auto-Tiering-Algorithmen und -Richtlinien und belassen Sie aktive Daten im Primärspeicher, während Sie inaktive Daten in kostengünstige Speicherkategorien verschieben. In den letzten Jahren hat sich Cloud Tiering zu einer robusten, kostengünstigen Lösung entwickelt, die die Verschiebung inaktiver Daten in kostengünstige Objektspeicher in der Cloud verwaltet. Mit der ThinkSystem DM-Serie ermöglicht Lenovo Unternehmen die Verwaltung von Daten- und Cloud-Alternativen mit einer intelligenten Speicherlösung. Diese Cloud-Strategie adressiert erfolgreich Kapazität, Agilität und Sicherheit in Hybrid-Cloud-Umgebungen, ohne die Verwaltbarkeit, Sicherheit oder Leistung zu beeinträchtigen.

Automatisiertes Storage-Tiering ist seit Jahren eine unverzichtbare Lösung für Unternehmen, die den Platzbedarf ihres Rechenzentrums effizient verwalten und gleichzeitig die Gesamtbetriebskosten (TCO) senken möchten. Die Strategie ist einfach: Verwenden Sie Auto-Tiering-Algorithmen und -Richtlinien und belassen Sie aktive Daten im Primärspeicher, während Sie inaktive Daten in kostengünstige Speicherkategorien verschieben. In den letzten Jahren hat sich Cloud Tiering zu einer robusten, kostengünstigen Lösung entwickelt, die die Verschiebung inaktiver Daten in kostengünstige Objektspeicher in der Cloud verwaltet. Mit der ThinkSystem DM-Serie ermöglicht Lenovo Unternehmen die Verwaltung von Daten- und Cloud-Alternativen mit einer intelligenten Speicherlösung. Diese Cloud-Strategie adressiert erfolgreich Kapazität, Agilität und Sicherheit in Hybrid-Cloud-Umgebungen, ohne die Verwaltbarkeit, Sicherheit oder Leistung zu beeinträchtigen.

Lenovo Storage Cloud Tiering

In diesem Artikel wird erläutert, wie Lenovo ThinkSystem Speicherlösungen und die DM-Serie bietet eine End-to-End-Rechenzentrumsstrategie, vom lokalen Standort bis zur Cloud. Zunächst gehen wir auf einige grundlegende Konzepte zu Datenspeicherung, Cloud-Tiering und neuen Herausforderungen bei der Speicherverwaltung ein. Wir werfen einen Blick auf das Datenmanagement-Ökosystem von Lenovo und wie sich das Unternehmen mit der DM-Serie auf dem Speichermarkt abhebt. Außerdem werfen wir einen genauen Blick auf die ONTAP-Software und die Storage-Tiering-Richtlinien von FabricPool. Und schließlich zeigen wir in unserem Labor die Einrichtung und Validierung der Cloud-Tiering-Lösung von Lenovo.

In einem herkömmlichen Rechenzentrumsmodell beginnt ein Unternehmen mit seinem Wachstum damit, kritische Daten und Dateien vor Ort zu sammeln. Allerdings veralten diese Daten mit der Zeit und es wird nur noch selten darauf zugegriffen, wodurch dem primären und sekundären Speicher wertvolle Leistung und Kapazität entzogen wird, was sich auf kritische Arbeitslasten auswirkt. Die Archivierung dieser Daten war in der Vergangenheit eine praktische Lösung für Unternehmen; Allerdings sind die Daten dadurch nicht sofort verfügbar, falls sie plötzlich benötigt werden.

Dieses Problem hat bei IT-Organisationen das Bewusstsein geweckt, Speicherebenen mit unterschiedlichen Kapazitäts-, Kosten- und Leistungsmerkmalen in Betracht zu ziehen. Sie müssen auch die Anforderungen des Datenwachstums in mehreren und Cloud-Umgebungen erkennen und darauf vorbereitet sein. Cloud Tiering ist die Antwort und muss in modernen Speicherarchitekturen berücksichtigt werden. Andernfalls wird ein wachsender Datenfußabdruck die Investition des Unternehmens in Hochleistungs-Primärspeicher in seinem Rechenzentrum überfordern.

Die Cloud als Speicherebene

Sobald fortschrittlichere Technologien zugänglich werden, können bestehende Speicherebenen nach Bedarf umgestaltet und weitere hinzugefügt werden, um die mehrstufige Speicherarchitektur weiter zu diversifizieren. Die Cloud hat IT-Organisationen neue Möglichkeiten eröffnet und Speicherlösungen von öffentlichen Cloud-Anbietern als zusätzliche (untere) Ebene ermöglicht. Bei guter Planung und Umsetzung ist die Cloud eine hervorragende und kostengünstigere Lösung als eine niedrigere On-Prem-Stufe.

In primären Speicherebenen, die Flash für extrem hohe Leistung nutzen, könnten etwa 50 % der kalten Daten der Cloud zugewiesen werden. Snapshot-Kopien und unstrukturierte Daten gehören häufig zu dieser Kategorie, einschließlich geschäftskritischer Apps. In sekundären Schichten können die im Speicher befindlichen kalten Daten bis zu 90 % aus Sicherungskopien bestehen. All diese wertvollen, aber nur gelegentlich abgerufenen Daten könnten auch in die Cloud verschoben werden. Zu den beliebten Cloud-Anbietern und -Diensten, die zur Tierung inaktiver Daten bereit sind, gehören Azure Blob Storage, AWS S3 und Google Cloud Storage.

Wie beim automatisierten Storage-Tiering vor Ort können wir Richtlinien und Regeln erstellen, um die Daten für die Cloud zu verwalten. Die Bedingungen ermöglichen es uns, Dateien direkt von On-Premise in die Public Cloud zu übertragen. Richtlinien werden auf verschiedene Arten angewendet. Beispielsweise können Daten basierend auf der Dateierweiterung, anhand von im Dateinamen enthaltenen Mustern oder anhand der Häufigkeit, mit der innerhalb eines bestimmten Zeitraums auf die Datei zugegriffen wird, verschoben werden. Diese letzte Option ist wahrscheinlich das beste Szenario, bei dem Speicherdateien und -blöcken Temperaturwerte zugewiesen werden, wodurch neu geschriebene Daten als „heiß“ und inaktive Daten als „kalt“ gekennzeichnet werden. Durch die Implementierung einer Reihe von Storage-Tiering-Richtlinien können kalte Daten schnell in die Cloud verschoben werden, indem Regeln bei Bedarf oder nach Zeitplan ausgeführt werden.

Neue Herausforderungen bei der Speicherverwaltung

Die größten Herausforderungen, die heute auf dem Markt im Zusammenhang mit der Hybrid-Cloud-Datenverwaltung zu beobachten sind, bestehen in der Menge und Vielfalt, der Datengeschwindigkeit und der Datenintegrität.

Die Datenmengen wachsen nahezu exponentiell. IT-Organisationen müssen nicht nur das Datenwachstum in den Griff bekommen, sondern auch das Datenwachstum und die Datenverwaltung über mehrere Umgebungen hinweg. Die Menge und Vielfalt der generierten Daten ist weiterhin überwältigend. Ohne die Möglichkeit, diese Daten in einer Hybrid-Cloud-Lösung zu speichern, zu kategorisieren und zu verarbeiten, entgehen Unternehmen wichtige Erkenntnisse über ihre Kunden und ihr Unternehmen. Darüber hinaus wird prognostiziert, dass das Datenvolumen bis 10 um das Zehnfache (ca. 2025 ZB) ansteigen wird, angetrieben durch IoT und Edge-Technologie. Wenn Daten das wertvollste Gut sind, müssen sie mit Sorgfalt behandelt werden und in der Lage sein, Erkenntnisse für gezielte Entscheidungen zu liefern und gleichzeitig einen Blick in die Zukunft zu ermöglichen. Darüber hinaus ist es für die Kaufentscheidungen der Kunden von entscheidender Bedeutung, effizientere Wege zu finden, diese Daten zu verarbeiten, um sie in einen Wert umzuwandeln.

Auch IT-Bedrohungen nehmen zu – und die Sicherheit der Infrastruktur ist ein ständiger Kampf. Eine gute Sicherheitsstrategie besteht darin, eine solide Grundlage zu schaffen, die darauf basiert, genau zu wissen, wann, wo und wie Daten gespeichert werden. Eine solche Strategie hilft Unternehmen, die steigenden Kosten im Zusammenhang mit Datenschutzverletzungen sowie neuer Malware, Katastrophen und Vorschriften zu vermeiden, die erhebliche Risiken für den Betrieb darstellen. Datensicherheit ist für Unternehmen von absoluter Bedeutung, sei es der Schutz vor Datenverlust oder die Gewährleistung der Datenintegrität. Hier deckt Lenovo alle Optionen ab und stellt sicher, dass die Daten seiner Kunden stets geschützt sind.

Lenovo ThinkSystem-Speicherlösungen

Es ist ebenfalls eine Herausforderung, neue Entwicklungen zu antizipieren und über die beste Speicher- und Cloud-Strategie auf dem Laufenden zu bleiben. Allerdings hat die Branche bereits enorme Investitionen in Forschungsökosysteme und -plattformen getätigt, die Mehrwert und Chancen für das Unternehmen bieten. Lenovo geht den nächsten strategischen Schritt für die Speicherbranche und hat seine Lösung auf die wichtigsten Herausforderungen im Datenmanagement zugeschnitten. Dieser kluge Schachzug von Lenovo zielt darauf ab, seinen Kunden die ultimative Lösung zu bieten und bietet eine einzigartige Mischung aus Produkten und Dienstleistungen, damit Unternehmen die Hybrid Cloud optimal nutzen können.

Lenovo ist eines der einzigartigen Technologieunternehmen auf dem Markt, das über die Lenovo Data Center Group (DCG) eine End-to-End-Rechenzentrumslösung anbietet. Darüber hinaus bietet Lenovo mit seinem Intelligent Device Group (IDG)-Ökosystem End-to-End-Sicherheit und Softwaremanagement. Mit diesen Angeboten und der ThinkSystem DM-Serie von Lenovo können Unternehmen ihre Infrastruktur verbessern und jede in ihren Umgebungen ausgeführte Arbeitslast bewältigen.

Die ThinkSystem DM-Serie ist Lenovos Flaggschiff-Speicherlösung, die eine vielseitige Datenverwaltungssuite für strukturierte und unstrukturierte Daten bietet. Es reicht vom Einstiegsbereich bis zum oberen Mittelklassebereich und kann datenreiche Funktionen wie integrierte Datenreduzierung, Datenschutz und Datensicherheit bieten. Jede der DM-Serien kann integrierte Hybrid-Cloud-Funktionen für Lösungen öffentlicher Cloud-Anbieter bereitstellen. Gleichzeitig baut Lenovo seine End-to-End-NVMe-Angebote mit aus kürzlich veröffentlichte DM7100F-Serieund plant, das Angebot an End-to-End-NVMe noch in diesem Jahr auf mehr Einstiegs-Workloads für Kunden auszuweiten, um eine infrastrukturweite Enterprise-NVMe-Fabric zu schaffen.

FabricPools

Die DM Series Data Management Suite vereinheitlicht die Datenverwaltung über Flash, Festplatte und Cloud hinweg, um Speicherumgebungen zu vereinfachen. Diese umfassende Software ist einfach zu bedienen und äußerst flexibel, auf effiziente Speicherung ausgelegt und verfügt über robuste Datenverwaltungsfunktionen sowie eine nahtlose Cloud-Integration. Insgesamt zielt die DM-Serie darauf ab, die Bereitstellung und Verwaltung von Daten zu vereinfachen und Unternehmensanwendungen voranzutreiben. dh es ist zukunftsfähig für Dateninfrastrukturen.

Neben der integrierten Datenverwaltungsfunktion steht die FabricPool Cloud Tiering-Technologie zur Verfügung. Es ermöglicht das automatisierte Tiering von Daten auf kostengünstige S3-Objektspeicherebenen, die sich entweder vor Ort oder in der öffentlichen Cloud befinden. Im Gegensatz zu manuellen Tiering-Lösungen automatisiert FabricPool das Tiering von Daten, um die Speicherkosten zu senken. Aktive Daten bleiben auf Hochleistungslaufwerken und inaktive Daten werden auf Objektspeicher abgestuft, während die Funktionalität und Dateneffizienz der DM-Serie erhalten bleibt.

FabricPool unterstützt eine Vielzahl öffentlicher Cloud-Anbieter und deren Speicherdienste. Dazu gehören Amazon S3, Alibaba Cloud Object Storage Service, Microsoft Azure Blob Storage, Google Cloud Storage, IBM Cloud Object Storage und private Clouds. Kunden profitieren außerdem davon, dass die integrierten Funktionen zur Datenreduzierung beim Verschieben von Daten in die und aus der Cloud erhalten bleiben. Dies spart Transportkosten, wenn Daten aus der Cloud zurückverlagert werden müssen. Darüber hinaus schützt die integrierte Datenverschlüsselung beide Daten beim Umzug in die Cloud und setzt sie in der Cloud fort. Dadurch wird sichergestellt, dass es während des gesamten Cloud-Tiering-Prozesses keine Schwachstellen gibt.

FabricPool-Richtlinien

FabricPool hat zwei Hauptanwendungsfälle: Kapazität auf dem Primärspeicher zurückgewinnen oder den Platzbedarf des Sekundärspeichers verringern. Unser Fokus in diesem Artikel liegt auf der Möglichkeit, Kapazität auf dem Primärspeicher zurückzugewinnen. Es gibt drei verschiedene und einzigartige Richtlinien für das primäre Storage-Cloud-Tiering: Auto-Tiering, nur Snapshots und All-Tiering.

Die Aufbewahrung selten aufgerufener Daten im Zusammenhang mit Produktivitätssoftware, abgeschlossenen Projekten und alten Datensätzen im Primärspeicher ist eine ineffiziente Nutzung von Hochleistungs-Flash-Speicher. Das Tiering dieser Daten in einem Objektspeicher ist eine einfache Möglichkeit, vorhandene Flash-Kapazität zurückzugewinnen und die Menge der erforderlichen Kapazität in Zukunft zu reduzieren. Die Auto-Tiering-Richtlinie verschiebt alle Cold-Blöcke im Volume auf die Cloud-Ebene. Beim Lesen durch zufällige Lesevorgänge werden kalte Datenblöcke auf der Cloud-Ebene zu heißen Datenblöcken und werden auf die lokale Ebene übertragen. Wenn kalte Datenblöcke auf der Cloud-Schicht durch sequentielle Lesevorgänge gelesen werden, wie sie beispielsweise bei Index- und Antiviren-Scans auftreten, bleiben sie kalt und werden nicht in die lokale Schicht geschrieben.

Snapshot-Kopien können häufig mehr als 10 % einer typischen Speicherumgebung beanspruchen. Obwohl diese Point-in-Time-Kopien für den Datenschutz und die Notfallwiederherstellung unerlässlich sind, werden sie selten verwendet und stellen eine ineffiziente Nutzung von Hochleistungs-Flash dar. Die Snapshot-Only-Tiering-Richtlinie für FabricPool ist eine einfache Möglichkeit, Speicherplatz auf Flash-Speicher zurückzugewinnen. Während unserer Tests wurde Snapshot-Only als Richtlinie zum Testen von Cloud-Tiering-Vorgängen verwendet. Cold Snapshot-Blöcke im Volume, die nicht mit dem aktiven Dateisystem geteilt werden, werden in die Cloud-Ebene verschoben. Beim Lesen werden kalte Datenblöcke auf der Cloud-Ebene zu heißen Datenblöcken und werden auf die lokale Ebene übertragen.

Eine der häufigsten Anwendungen von FabricPool ist die Verlagerung ganzer Datenmengen in Clouds. Abgeschlossene Projekte, Legacy-Berichte oder historische Aufzeichnungen sind ideale Kandidaten für die Bereitstellung einer kostengünstigen Objektspeicherung. Das Verschieben ganzer Volumes erfolgt durch Festlegen der All-Tiering-Richtlinie für ein Volume. Diese Richtlinie wird hauptsächlich für sekundäre Daten und Datenschutz-Volumes verwendet. Dennoch kann es auch zum Tiering aller Daten in Lese-/Schreib-Volumes verwendet werden.

Daten in Volumes, die die All-Tiering-Richtlinie verwenden, werden sofort als kalt gekennzeichnet und so schnell wie möglich in die Cloud übertragen. Es muss nicht darauf gewartet werden, dass eine Mindestanzahl von Tagen vergeht, bevor die Daten kalt und abgestuft gespeichert werden. Kalte Datenblöcke auf der Cloud-Schicht bleiben beim Lesen kalt und werden nicht in die lokale Schicht zurückgeschrieben.

Eine vierte Tiering-Richtlinienoption ist ebenfalls bei Lenovo verfügbar und trägt den treffenden Namen „Keine“ Tiering-Richtlinie. Bei dieser Richtlinie werden keine Daten gestuft, sodass alles im Flash gehalten werden kann. Ein gutes Beispiel für die Verwendung sind Snapshots in DevOps-Umgebungen, in denen häufig die vorherigen Point-in-Time-Kopien verwendet werden.

Lenovo Storage Cloud Tiering-Konfiguration

Um die Fähigkeiten und einige der Funktionen der Lenovo-Speicherlösung für die Cloud zu testen, haben wir in unserem Labor ein DM7000F-Modell eingerichtet.

Zuerst haben wir mit Azure Blob Storage, unserer Cloud-Lösung für diesen Test, einen Speichercontainer erstellt. Auch hier ist es gut, die große Auswahl an Optionen von Lenovo zu beachten, darunter Alibaba Cloud, Amazon S3, Google Cloud, IBM Cloud und andere. Ziel des Tests war es, Microsoft Azure Blob Storage für die Cloud als Cloud-Tier für FabricPool zu verwenden. Nachdem wir die Einrichtung des Cloud-Speichers abgeschlossen hatten, war es an der Zeit, sich bei der GUI-Schnittstelle des DM7000 anzumelden.

Sobald Sie angemeldet sind, wird die Standard-Dashboard-Seite angezeigt. Das Dashboard zeigt den Zustand, die Kapazität, die Leistung und die Netzwerkinformationen des betreffenden Arrays an.

Anschließend haben wir zwei Volumes (eines pro Controller) und zwei VMs (eines für jedes Volume) erstellt. Der Plan bestand darin, diese VMs laufen zu lassen und sie dann eine Weile im Leerlauf zu lassen. Das Bild unten zeigt die verwendeten Volumes: host_lun_1 und host_lun_2.

Beim Bearbeiten oder Erstellen des Volumes können wir die gewünschte Tiering-Richtlinie auswählen. Hier haben wir nur Snapshot ausgewählt. Wenn Sie diese Tiering-Richtlinie auswählen, werden unsere Daten (die nach jedem Snapshot als kalt angesehen werden) in den Azure Blob Storage verschoben, der in einem Hintergrundintervall erstellt wird. Das Intervall läuft zu seiner eigenen Zeit und sagt voraus, wann die Arbeitslast am wenigsten beeinträchtigt wird.

Auf der Seite „Stufen“ können wir unsere Cloud-Stufe aus den öffentlichen Clouds hinzufügen. Hier haben wir die Azure Blob Storage-Ressource angehängt und mit den beiden lokalen Speicherebenen verbunden. Unter dem Bild unten sehen Sie zwei an Azure angehängte Ressourcen.

Die Konfiguration ist einfach; Indem wir auf „Cloud-Tier hinzufügen“ klicken und unsere gewünschte Cloud (in diesem Szenario Azure) auswählen, können wir sofort die Cloud-Tier einrichten.

Schließlich wollten wir in unserem Azure Storage-Konto-Dashboard sowohl die in Azure eingehenden Daten (Eingang) als auch die ausgehenden Daten (Ausgang) anzeigen. Die täglich angezeigten kleinen Spitzenwerte sind neue Momentaufnahmen der Daten, die an Azure übertragen werden. Andererseits zeigen die Ausgangsspitzen ausgehende Daten und veranschaulichen eine Snapshot-Wiederherstellung von einem Volume zum Zurücksetzen.

Abschließende Überlegungen

Im Allgemeinen ist die Cloud und die Verwaltung der Daten ein weitreichendes, sich entwickelndes Thema in Unternehmen. Lenovo möchte Lösungen bereitstellen, die Kunden auf sich ändernde Anforderungen vorbereiten, sei es im Rechenzentrum oder über Hybrid-Cloud-Umgebungen. Wir bei StorageReview sind ziemlich beeindruckt von Lenovos Ansatz bei seinen Speicher-Arrays. Durch diese Evaluierung haben wir erfahren, wie das Tiering von Daten in die Cloud mit dem Storage Manager für die DM-Serie funktioniert und wie wertvolle Flash-Kapazität zurückgewonnen oder in die Cloud ausgeweitet wird. Wichtig ist, dass das DM7000F-Speichersystem diese Flexibilität bietet, ohne dass Änderungen an der Infrastruktur erforderlich sind. Darüber hinaus ist die Funktionalität einfach zu implementieren.

Mit der Unterstützung von DCG und IDG sehen wir Lenovo in einer starken Position auf dem Datenspeichermarkt. Ihre Speicherlösungen ermöglichen es Kunden, das zu kaufen, was sie heute benötigen, und gleichzeitig die Cloud zu nutzen, um den Datenwachstumsanforderungen der Zukunft gerecht zu werden. Das Endergebnis ist, dass das Cloud-Tiering von Lenovo die Kosten senkt und Unternehmen die Flexibilität ermöglicht, die sie sich wünschen, wenn sie über eine Investition in Speicher nachdenken.

Speicher-Arrays der Lenovo ThinkSystem DM-Serie

Dieser Bericht wird von Lenovo gesponsert. Alle in diesem Bericht geäußerten Ansichten und Meinungen basieren auf unserer unvoreingenommenen Sicht auf das/die betrachtete(n) Produkt(e).