10 Jahre "IT-Markt"

Die Evolution des Speichersystems

Uhr
von Beat Müller Manager Systems Engineering bei Nutanix Schweiz

Die Performance eines Rechenzentrums wird durch die Speicherarchitektur bestimmt. Deren Entwicklung verläuft rasant: von Scale-out über Converged bis zu Hyperconverged Infrastructure - und darüber hinaus.

Beat Müller Manager Systems Engineering bei Nutanix Schweiz. (Source: zVg)
Beat Müller Manager Systems Engineering bei Nutanix Schweiz. (Source: zVg)

Man findet zwar heute immer noch klassische Speicherarchitekturen (DAS, SAN, NAS), meistens aber nur noch an lokalen Standorten. Network-attached Storage (NAS) reichte schon vor Jahren für Virtualisierungsumgebungen nicht mehr aus.

Die Architektur einer hyperkonvergenten Software­infrastruktur folgt einem "Web-Scale"-Ansatz: Es kommen Knoten mit sehr hoher Rechenleistung (Server) zum Einsatz. Auf diesen arbeiten Standard-Hypervisoren. Die Hardware besteht aus Prozessoren, Arbeitsspeicher und lokalen Speicherkomponenten – etwa NVMe Flash-basierte SSDs und/oder SATA-Festplatten. Auf jedem Knoten laufen virtuelle Maschinen, ganz so wie bei einem üblichen Hostsystem für VMs. Zudem ist noch eine Controller-VM pro Knoten im Einsatz, die alle relevanten Funktionen bereitstellt.

 

Nahe an der Applikation

Die Zwischenschicht bildet das Distributed Storage Fabric (DSF) und ist verantwortlich, dass alle lokalen Storage-Komponenten, alle Knoten sozusagen, in Form eines einheitlichen Pools bereitgestellt werden. Man kann sich die DSF auch als eine Art virtuelles Speichergerät vorstellen, das die lokalen Festplatten aller Knoten für die Ablage der Daten aus den verschiedenen Applikationen anbietet. Die Applikationen in einem Cluster schreiben die Daten in die DSF, als ob es sich um einen normalen gemeinsamen Speicher handeln würde.

Das DSF erfüllt eine wichtige Aufgabe: Es legt die Daten immer möglichst "nahe" an der betreffenden virtuellen Maschine beziehungsweise Applikation ab. Das wird durch die möglichst lokale Speicherung erledigt: Läuft die Applikation auf dem Knoten A, werden üblicherweise auch die zugehörigen Daten auf dem Knoten A gespeichert. So wird eine möglichst hohe Zugriffsgeschwindigkeit auf die Daten erzielt, ohne dass dazu hohe Aufwände bei den Storage- und Netzwerkkomponenten anfallen. Ergänzt wird dieses Prinzip der Datenlokalität mit redundanter Datenhaltung.

Die Infrastruktur auf Basis der HCI-Software skaliert aufgrund dieses Konzepts linear von einer Konfiguration mit nur drei Knoten bis hin zu beliebig grossen Knotenzahlen. Das bringt grosse Vorteile, denn der Verbund kann durch das Hinzufügen weiterer Knoten in wenigen Schritten weiter anwachsen. Das System managt sich vollautomatisch über APIs.

 

Vereinheitlichung von Compute und Speicher

Heute beginnt nun die Konsolidierung der Speichersysteme auf hyperkonvergenten Plattformen. Die verschiedenen Speichertechnologien wie File-, Block-, Objekt- und Sekundärspeicher werden auf einer intelligenten, ausfallsicheren und skalierbaren Plattform vereint und über eine einfache und einheitliche Managementoberfläche administriert. Dies reduziert sowohl den Hardware- wie auch den Management-Footprint und verkleinert die Komplexität des gesamten Rechenzentrums. Der Betrieb ist heute bereits vollumfänglich von Software gesteuert, dies ermöglicht eine rasche Integration von zukünftig neuen Speichermedien.

Die Vereinheitlichung von Compute und Speicher in einem System erlaubt es, durch laufende Erweiterung der Intelligenz die Bewirtschaftung der Ressourcen dem System zu überlassen und erleichtert die Entscheidungen des Datenmanagements.

Die Verknüpfung der verschiedenen Clouds zur Multi-Cloud wird auch im Speicherbereich anzutreffen sein. Die Systeme werden dynamisch miteinander verknüpft und bieten somit eine hohe Flexibilität in puncto Funktion und Verfügbarkeit. Daten werden intelligent verteilt, synchronisiert, archiviert und hochverfügbar vorgehalten. Somit wird eine Vereinheitlichung der Speicherdienste über verschiedenste Clouds hinweg erreicht.

Webcode
DPF8_189633