HPE Discover

HPE fokussiert auf Edge Computing und Composable Fabric

Uhr

HPE hat Hierarchiestufen abgebaut, um agiler auf die Anforderungen der Märkte reagieren zu können. CEO Antonio Neri will den Cash Flow in zwei Jahren verdoppeln. Wie das gehen soll, zeigte das US-Unternehmen an der HPE Discover in Madrid.

HPE-CEO Antonio Neri an der Discover in Madrid. (Source: HPE)
HPE-CEO Antonio Neri an der Discover in Madrid. (Source: HPE)

Infrastruktur-Komponenten, also Server, Speicher und Netze, sind die Kraftwerke der IT. Ohne sie stünden alle Räder still, Apps kröchen quälend langsam über den Bildschirm, Analysen dauerten Stunden statt Minuten. Benutzer am Frontend registrieren die hochperformanten, leistungsstarken Arbeitspferde im Backend in der Regel erst dann, wenn es Ausfälle oder Flaschenhälse zu beklagen gibt.

Infrastruktur-IT arbeitet im Verborgenen, aber ist wahnsinnig wichtig und nicht gerade preiswert. Eine der grossen Traditionsfirmen der Branche, Hewlett Packard Enterprise, hat sich neu organisiert und präsentierte in Madrid ihr aktuelles Lösungsportfolio. "Wir haben HPE neu aufgestellt, viele bürokratische Hierarchie-Ebenen entfernt, um schneller auf den Markt reagieren zu können", beschrieb CEO Antonio Neri die letzten fünf Jahre, in denen sein Unternehmen turbulentes Fahrwasser durchschiffen musste. "Wir haben unseren Job gemacht. Jetzt sind wir die Firma, die wir sein wollen", so sein Fazit. Neri hat sich vorgenommen, den Cash Flow – ein Indiz für den Unternehmenserfolg – in zwei Jahren zu verdoppeln.

Gartner-Trend: von Cloud zu Edge

Die neue HPE, das heisst vor allem ein sogenanntes "Composable Infrastructure Fabric" und "Edge Computing". In der laufenden Dekade drehe sich alles um die Megatrends Cloud und Mobility. In der nächsten seien Edge Computing, das Internet der Dinge und cyber-physikalische Systeme eine riesige Geschäftschance, analysierte Neri. Das bestätigen auch die Analysten von Gartner. 2022 würden 75 Prozent aller Business-Daten nicht mehr in zentralen Rechenzentren oder in der Cloud, sondern vor Ort generiert und analysiert werden (vgl. Gartner: Top 10 Strategic Technology Trends for 2018: Cloud to Edge). Die Daten müssten dort verarbeitet werden, wo sie anfallen, um Probleme mit Latenzzeiten, zu engen Bandbreiten und hohen Transportkosten zu vermeiden, folgert Gartner daraus. Am digitalen Arbeitsplatz, in Hospitälern, der Hotelerie, an Produktionsstrassen und Logistikleitsystemen.

Diesen Markttrend adressiert HPE mit seinen drei Edgeline-Appliances, die OT (Verarbeitung und Analyse) und IT (Rechenpower) miteinander verheiraten. Die kleinste Appliance, die HPE EL 300, ist mit Intel Core i5-Prozessoren ausgestattet und kann auf bis zu 32 Gigabyte Hauptspeicher und 3 Terabyte SSD-Speicher aufgerüstet werden. Das System sei widerstandsfähig gegen so gut wie alles, betont man bei HPE. Erschütterungen, Vibrationen, Staub und eine hohe Luftfeuchtigkeit machen ihm nichts aus. Die EL 300 soll selbst bei Temperaturen von -30 bis +70 Grad Celsius noch einwandfrei arbeiten. All das prädestiniere die EL 300 für den Einsatz als "Embedded System" zum Beispiel in Produktionsmaschinen oder in der Infrastruktur von Gebäuden, so HPE.

Service-Ingenieure der Geschäftseinheit "Field Application Engineering Services" helfen Kunden dabei, die drei Systeme EL 300, EL 1000 und EL 4000 möglichst effizient und zweckentsprechend einzusetzen. Die leistungsstärkere EL 1000 enthält mit 16 Kernen ausgestattete Intel Xeon-Prozessoren, 128 Gigabyte RAM und 16 Terabyte SSD-Speicher, die EL 4000 ist für sehr hohe Arbeitslasten ausgelegt und geht bis auf 64 Prozessorkerne, 512 Gigabyte und 48 Terabyte SSD hoch.

Das Embedded-System HPE "Edgeline EL 300" soll besonders widerstandsfähig sein. (Source: Michael Kurzidim)

Was ist ein Composable Fabric?

Nach der hyperkonvergenten Infrastruktur, die Computing, Speicher und Netze aufeinander abgestimmt managt, ist das "Composable Fabric" HPEs nächstes, ganz grosses Ding. HPE-Verkaufschef Phil Davis versteht darunter "software-definierte, fluide Resourcenpools", die über der gesamten Hardware-Infrastruktur operieren, also über Racks, Blade-Server und Storage-Maschinen.

Eine zentrale Komponente von HPEs Composable-Vision ist die Software-Managementlösung Infosight. Die Redaktion hatte Gelegenheit, sich in den "Living Labs" auf der HPE Discover von der Leistungsfähigkeit der Lösung zu überzeugen. Infosight beobachtet und analysiert für die Performanz wichtige KPIs wie CPU-Auslastung, Storage-Auslastung und Latenzzeiten in Millisekunden – wahlweise für Rechenzentren, Datenpools und Cluster bis auf einzelne Anwender und Applikationen herab. Gleichzeitig prognostiziert Infosight mithilfe von künstlicher Intelligenz (KI) künftige Lastverläufe und beseitigt Engpässe, bevor sie aufgetreten sind. Laut HPE-Offiziellen lassen sich damit etwa 75 Prozent aller Probleme und Flaschenhälse bereits im Vorfeld elegant umgehen. Im HPE-Jargon heissen die Prognosen und die daran geknüpften Vorschläge "Cross-stack Recommendations".

"Die klassischen heuristischen Methoden scheitern meist sehr schnell dabei, Speicher smarter zu machen", sagte HPEs KI-Chef Pankaj Goyal zur Redaktion. Mit der kalifornischen Nimble hat HPE Anfang 2017 einen Hersteller intelligenter Flash-Speicherlösungen akquiriert und adaptiert die Nimble-KI jetzt Schritt für Schritt auf eigene Systeme wie ProLiant- oder Apollo-Server. Im Fokus stehe die Vermeidung von Fehlfunktionen und Engpässen (predictive Maintenance), aber auch eine verbesserte Cybersicherheit, so Goyal.

"Unsere Kunden suchen eine Edge-Cloud-Architektur, und genau das ist unser Composable Fabric", betonte Neri. Der CEO zeichnete auf der HPE Discover ein sehr favorables Bild seiner HPE. Ariba und die Edge-Computing-Sparte wüchsen zweistellig, das Geschäft mit hyperkonvergenter Infrastruktur habe sich mehr als verdoppelt, High-Performance-Computing (HPC) habe um 30 Prozent zugelegt. "Entgegen aller Erwartungen haben wir alle Prognosen übertroffen", bekräftigte Neri. Ob sich das gute Bild weiter aufhellt oder wieder eintrübt wird sich in ein paar Tagen zeigen, wenn HPE seine aktuellen Geschäftszahlen präsentiert.

2030 ist Alzheimer besiegt

Im High Performance Computing will HPE unter anderem gemeinsam mit dem Start-up Jungla neue Massstäbe setzen. Fachgebiete wie individuelle Genomanalysen und die Präzisionsmedizin profitieren stark von schnellen Rechnern. Professor Joachim Schultze vom Forschungszentrum für neurodegenerative Erkrankungen hat im Grossraum Bonn 30'000 Menschen 30 Jahre lang begleitet. Schultze sucht nach Therapien für degenerative Krankheiten wie Alzheimer, aber "wir können die Versprechen der personalisierten Medizin nicht erfüllen, wenn wir nicht schnell genug rechnen können", betont der Mediziner.

Die medizinische Diagnose Stand heute erachtet etwa 3500 menschliche Gene als krankheitsrelevant. Jedes Gen wiederum kommt in tausenden von Varianten vor, die Krankheitsverläufe beeinflussen können. Pro Gen kommt dadurch ein Datenvolumen von 40 Terabyte zusammen. Das allein gibt eine Vorstellung davon, mit welchen Datenmengen die Forscher hantieren. Trotzdem, so schätzt Schultze optimistisch, könnten degenerative Krankheiten wie Alzheimer, gegen die heute noch kein Kraut gewachsen sei, im Jahr 2030 wohl erfolgreich therapiert werden. Dabei helfen werden superschnelle Rechnerarchitekturen wie Quantencomputer und optische Systeme, an denen Branchengrössen wie Google, HPE, Fujitsu und Lenovo zurzeit forschen.

Webcode
DPF8_118286