SPONSORED-POST Dossier kompakt in Kooperation mit Cyberlink

Storage-Systeme im Datacenter und Quality of Service

Uhr
von Marc Chauvin, CTO, Cyberlink

Beim Aufbau einer Infrastruktur, die für den Einsatz von Software-defined Datacenter (SDDC) angedacht ist, spielt der Storage eine wichtige Rolle. Dabei gibt es verschiedene Optionen, darunter die Wahl, den Storage direkt in den Server Nodes zu verbauen oder separat als eigenständiges System.

Marc Chauvin, CTO, Cyberlink. (Source: ©eliane rutishauser / cyberlink)
Marc Chauvin, CTO, Cyberlink. (Source: ©eliane rutishauser / cyberlink)

Wird der Storage direkt in den Server Nodes verbaut, spricht man von Hyper Converged Infrastructure (HCI). Dabei enthält jeder Server neben RAM und CPU auch noch eine Anzahl Festplatten oder Flash Drives. Dieser Speicher wird dann mit Software unter allen Compute Nodes geteilt und formt somit ein flexibles, elastisches Storage-System. Fügt man neue Nodes einem Cluster hinzu, wird die gesamte Speicherkapazität grösser. Die Frage ist natürlich, wie viel Speicher jede einzelne Node aufnehmen kann und muss, damit ein sinnvoller Mix aus CPU, RAM und Storage entsteht. So ist die Hardware-Konfiguration der Nodes essenziell, um erfolgreich eine HCI-Umgebung zu betreiben. Wächst der Bedarf an Storage plötzlich stark, kann es sein, dass die CPUs und Memory nicht genügend ausgelastet sind und somit die Lösung wirtschaftlich gesehen nicht mehr optimal funktioniert. Viel Spielraum bei Änderungen der Hardware-Konfiguration gibt es meistens nicht.

HCI-Lösungen bringen vor allem Vorteile, wenn eine neue Umgebung aufgebaut wird, die zuerst klein ist und dann wächst. Damit können Anfangsinvestitionen für grosse, externe Storage-Systeme vermieden werden. Ab einer gewissen Grösse kann ein dediziertes Storage-System attraktiver sein, wenn die hohen Investitionen durch höheren Einnahmen bereits gerechtfertigt sind und der Storage sowie die Server Nodes unabhängig voneinander wachsen können. Hat man eine HCI-Infrastruktur und führt später einen dedizierten Storage ein, können beide System gut koexistieren und etwa als verschiedene Storage Tiers vermarktet werden.

Es empfielt sich der Einsatz von Quality of Service

Unabhängig davon, ob HCI oder dediziert, ein performantes Storage-System sollte Quality of Service (QoS) bieten. Mit QoS können Service Level Agreements (SLAs) eingehalten werden. Dabei werden Storage-Richtlinien für die Kunden eingerichtet, die in der Regel die minimal garantierte sowie die maximale Performance in Input/Output Operations per Second (IOPS) abbilden. Diese Richtlinien existieren nicht nur auf Papier, sondern sind auch technisch implementiert. Viele Storage-Systeme werden heute dem Kunden ohne QoS zur Verfügung gestellt. Dieser Storage und dessen Performance ist unter vielen Kunden und Workloads geteilt. Die Leistung, die der Kunde bekommt, ist nicht vorhersehbar. Braucht ein bestimmter Kunde plötzlich sehr viel Storage-Performance, kann (und wird!) das System an seinen Grenzen kommen und andere Kunden erhalten währenddessen wesentlich weniger Ressourcen für ihre Workloads. Hier spricht man von «Noisy Neigbours» (laute Nachbarn). Geteilte Storage-Systeme ohne QoS sind in der Regel günstiger und ergeben durchaus Sinn für bestimmte Arten von Workloads wie etwa Back-ups und Testsysteme. Bei kritischen Work­loads empfiehlt sich aber auf jeden Fall der Einsatz eines Storages mit QoS.

QoS ist nicht nur in den üblich genutzten Storage-Systemen zu finden – mit üblich ist Storage gemeint, der in Form von virtuellen Festplatten als Block-Storage genutzt wird. Auch neue Formen von Storage, die in der Cloud und in der Welt der Cloud-Native-Applikationen schon längst ihren Platz eingenommen haben, können über QoS verfügen und durch SLAs festgehalten werden, etwa Object Storage (auch bekannt als Object-Based oder S3 Storage). Diese Art von Storage wird über das Netzwerk via HTTPS beschrieben und gelesen. Hier spricht man nicht mehr von IOPS, sondern von der Bandbreite, die dem Kunde zugesichert wird, sowie der maximalen Zeit, die bis zum Versenden des ersten Bytes beim Abholen eines Objekts verstreichen darf.

Fazit

Die Auswahl der richtigen Plattform für Storage-Systeme (HCI oder dediziert) ist vor allem für den Betreiber der Plattform eine Herausforderung, damit die Wirtschaftlichkeit der Plattform gewährleistet werden kann. QoS ist hingegen ein Merkmal, das dem Kunden (Nutzer der Plattform) einen entscheidenden Vorteil bringt; es sollte bei der Auswahl eines Partners für Public- oder Private-Virtual-Cloud-Dienstleistungen unbedingt berücksichtigt werden.

---------

Wichtig ist, die Quality-of-Service-­Policy regelmässig zu überprüfen

Quality of Service für Datacenter stellt die Verfügbarkeit und die Performance von ­Applikationen sicher. Was Kunden bei der Beschaffung von Storage-Systemen beachten müssen und wie eine gute Quality-of-Service-­Policy aussehen sollte, erklärt Marc Chauvin, CTO von Cyberlink, im Interview. Interview: Coen Kaat

Was macht Quality of Service (QoS) für Datacenter zu einem so wichtigen Thema?

Marc Chauvin: Die Verfügbarkeit und die Performance von Applikationen sind kritisch für den Erfolg von so mancher Firma. Diese dürfen in keinem Fall dem Zufall überlassen und müssen laufend überprüft und sichergestellt werden, sowohl im eigenen Datacenter wie auch in der Cloud. Im ersten Fall besteht das Risiko, dass ein Storage-System bei der Beschaffung zwar korrekt dimensioniert, aber mittel- bis langfristig den wachsenden Anforderungen nicht mehr gerecht wird. Die Performance sinkt und führt zu Engpässen, die reaktiv behoben werden müssen. Im Cloud-Bereich – vor allem in manchen Virtual Private Clouds – kauft der Kunde vielfach die Katze im Sack. Genaue Leistungsspezifikationen sucht man oft vergeblich, geschweige denn Service Level Agreements, die diese Leistung garantieren. Der Einsatz von QoS stellt sicher, dass alle Applikationen zu jedem Zeitpunkt die notwendige Performance erhalten.

Worauf muss bei QoS geachtet werden?

QoS setzt voraus, dass die benötigte Leistung bekannt ist. Darum ist es notwendig, ein Inventar aller kritischen Applikationen und deren Mindestanforderungen zu erstellen, um sinnvolle QoS-Policies definieren und einkaufen zu können. Dazu gibt es Best-Prac­tice-Angaben oder, noch besser, man führt eigene Messungen durch. Genauso wichtig ist es, diese QoS-Policies regelmässig zu überprüfen und gegebenenfalls den neuen Gegebenheiten anzupassen.

Welche weiteren Faktoren bestimmen die Wirtschaftlichkeit von Storage-Systemen?

Da gibt es viele Kriterien. Am Schluss geht es aber immer darum, den Einkaufspreis pro GB und Monat so niedrig wie möglich zu halten, ohne auf die notwendige Performance zu verzichten. Neben den Kosten für Hardware, Wartung, Platz und Strom wird etwa auch die Effizienz betrachtet. Darunter fallen Kapazitätsverluste, die durch Datenredundanz erzwungen werden, zum Beispiel RAID oder Erasure Coding, wie auch Kapazitätsgewinne, die unter anderem durch Komprimierung und Deduplizierung von gespeicherten Daten erzielt werden. Zudem spielt auch die Skalierbarkeit eines Systems eine wichtige Rolle. Im Idealfall kann ein System nahezu endlos und in kleinen Schritten erweitert werden, sowohl mit Kapazität wie auch mit Performance.

Wie werden QoS-Richtlinien technisch implementiert?

Eine technische Implementierung der QoS-Richtlinien bedeutet, dass das betroffene Storage-System mit Leistungsparametern, etwa Minimum, Maximum und Burst IOPS, konfiguriert und diese einem bestimmten Workload oder Kunden zugewiesen werden. Diese Parameter können auf unterschiedlichen Ebenen wirken, zum Beispiel für eine virtuelle Festplatte, eine virtuelle Maschine oder einen ganzen Volume, auf dem mehrere Workloads gleichzeitig arbeiten.

Wie hilft Cyberlink, was dies betrifft, Partnern und ­Endkunden?

Unsere Partner und Kunden erhalten eine zugesicherte, flexible und transparente Leistung, was einen wichtigen Beitrag zu deren Erfolg darstellt. Zudem begleitet Cyberlink seine Kunden bei Bedarf bei den Be­rechnungs- und Entscheidungspro­zessen.

Webcode
DPF8_143512