Hyper-Converged Infrastructure

Mit HCI-Lösungen effizient zur Private Cloud

Uhr
von Daniel Jossen, Professor für IT Service Management, FHNW

Hyper-Converged-Infrastructure-Lösungen (HCI) haben in den letzten Jahren schrittweise den Schweizer Datacenter-Markt ­revolutioniert. Sie vereinen Compute- und Storage-Ressourcen in einer hochverfügbaren und skalierten Datacenter-Plattform, die besonders für den Aufbau von Private-Cloud-Infrastrukturen viele Vorteile besitzt.

Daniel Jossen, Professor für IT Service Management, FHNW. (Source: ©Sam Buchli All Rights Reserved)
Daniel Jossen, Professor für IT Service Management, FHNW. (Source: ©Sam Buchli All Rights Reserved)

Cloud Computing ist ein zentrales Thema in allen Schweizer Unternehmen. Sie beziehen bereits heute ihre komplette IT oder einzelne Applikationen aus der Cloud. Dabei haben die Unternehmen die Wahl, entweder eine eigene Private Cloud aufzubauen oder ihre Applikationen als IaaS-, PaaS- oder SaaS-Lösung von einem Public-Cloud-Anbieter zu beziehen. Jedoch ist die Wahl des geeigneten Betriebsmodells nicht immer ganz einfach. Meine Erfahrung zeigt, dass abhängig von den Compliance-Anforderungen der jeweiligen Branche und der Architektur des umzusetzenden Use Cases nicht alle Applikationen für den Betrieb in einer Public Cloud geeignet sind. Für diese Use Cases bieten HCI-Lösungen eine spannende Alternative, um effizient eine firmeninterne Private Cloud aufzubauen und zu betreiben.

 

Was sind Hyper-Converged-Infrastructure-Lösungen?

Hyper-Converged-Infrastructure-Lösungen (HCI) kombinieren Compute- und Storage-Ressourcen zu einem skalierbaren Cluster, das über ein zentrales Graphical User Interface (GUI) bereitgestellt und betrieben werden kann. Eine HCI-Lösung besteht in der Regel aus mindestens drei Nodes (Servern), die zu einem skalierbaren Cluster zusammengefasst werden. Als Serverhardware können alle handelsüblichen x86-basierten Systeme eingesetzt werden, die vom jeweiligen Hersteller zertifiziert wurden. Auf jedem Node wird anschliessend ein modularer Software­stack installiert, der in der Regel aus einem Hypervisor, einem Distributed File System (DFS), Network-Virtualisierung sowie einem Management-GUI besteht. Das Distributed Filesystem ist das Herzstück jeder HCI-Lösung und stellt sicher, dass alle Daten persistent anhand eines zuvor definierten Replication-Faktors (zum Beispiel RF=2 oder RF=3) auf den Nodes im Cluster gespeichert werden. Fällt eine Disk oder ein kompletter Node aus, so können die Daten anhand der gespeicherten Replikate wiederhergestellt und die betroffenen Systeme (VMs, Docker Container und VDI-Desktops) auf einem anderen Node neu gestartet werden. Zusätzlich stellt das Distributed Filesystem Enterprise-Storage-Funktionen wie Compression, Deduplication, Sync- und Async-Replication zwischen zwei Clustern bereit, mit deren Hilfe die vorhandene Storagekapazität optimiert und die Daten hochverfügbar gespeichert werden können.

Die eingebauten Networkvirtualisierungsfunktionen ermöglichen es, dass neue Workloads rasch bereitgestellt werden können. Durch den Einsatz von VXLAN wird es zum Beispiel möglich VMs über zwei Datacenter hinweg im gleichen Subnetz zu betreiben. Ein weiterer Trend ist, dass in den HCI-Lösungsstack immer mehr Security-Funktionen wie Micro-Segmentierung, Statefull Firewalling und Network-Auditing-Funktionen eingebaut werden. Diese Funktionen ermöglichen es, dass einzelne Workloads im Cluster verschoben werden können und die diesem Work­load zugewiesenen Security Policies automatisiert nachgeführt werden. Durch das Hinzufügen von weiteren Nodes kann der Cluster jederzeit ausgebaut werden. Jeder Node fügt Compute- und Storage-Ressourcen dem Cluster hinzu, die anschliessend für den Betrieb von Workloads genutzt werden. Kritiker monieren zwar, dass dies ein grosser Nachteil sei, da Compute- und Storage-Ressourcen immer gleichzeitig ausgebaut werden müssen. In der Praxis zeigt sich aber, dass die meisten Kunden Workloads mit einem linearen Wachstum der Compute- und Storage-Ressourcen besitzen und dieser Nachteil nicht mehr länger besteht.

Zusätzlich bieten die meisten HCI-Lösungen heute umfangreiche Netzwerkvirtualisierungsfunktionen an, die die Bereitstellung von Systemen stark vereinfachen. Über ein zentrales GUI können neue Workloads wie virtuelle Server (VMs), Docker-Container oder VDI-Desktops per Knopfdruck provisioniert und anhand von Templates in die bestehende Datacenter-Infrastruktur eingebunden werden. Im Vergleich zu klassischen Datacenter-Infrastrukturen, die aus Serverhardware, einem Storage Area Network (SAN) sowie einem zentralen Storage-System bestehen, entfällt ein grosser Teil der Komplexität für die automatisierte Bereitstellung von Workloads. Ein weiterer Vorteil von HCI-Lösungen sind die umfangreichen Monitoring- und Reporting-Funktionen. Diese Funktionen ermöglichen es, dass ein Betriebsteam die komplette Datacenter-Infrastruktur betreiben kann. Besonders für den Betrieb von grossen Datacenter-Infrastrukturen lassen sich dadurch die internen Prozesse und Betriebsstrukturen optimieren, was in tieferen TCO-Kosten im Vergleich zu klassischen Datacenter-Infrastrukturen resultiert.

 

 

Fazit

Die HCI-Architektur hat sich in den letzten Jahren erfolgreich auf dem Markt etabliert. Besonders für den Aufbau einer Private-Cloud-Datacenter-Infrastruktur bieten HCI-Lösungen viele Vorteile. Verschiedene Anbieter wie zum Beispiel Nutanix, HP, Cisco und Dell/EMC, bieten auf HCI basierende Datacenter-Lösungen an, die mittlerweile für das Hosting fast aller Workloads eingesetzt werden können. Dazu gehört zum Beispiel der Betrieb von Mission-Critical-Applikationen, SAP-Hana-Instanzen sowie Oracle- und Microsoft-SQL-Datenbanken. HCI-Lösungen entwickeln sich immer mehr Richtung Private Clouds weiter. Durch die Integration von umfangreichen Automation- und Orchestration-Frameworks in die Lösungen wird es möglich, in Zukunft IaaS- und PaaS-Cloud-Services im eigenen Datacenter standardisiert aufzubauen und zu betreiben, die vergleichbar mit den Public-Cloud-Services aus AWS und Azure sind.

Webcode
DPF8_143595