Aus dem Archiv

Flash, Disk und Tape – das steckt dahinter

Uhr
von Martin Casaulta, Country Chief Technologist Hewlett Packard Enterprise, Schweiz

Speichertechnologien sind gefragter denn je: Bis 2027 wird ein weltweites Datenvolumen von mehr als 250 Zettabytes ­(Milliarden an Terabytes) erwartet. Deswegen braucht es immer mehr Speicherkapazität. Wie nutzen wir technologische Möglichkeiten, um diesen Entwicklungen erfolgreich zu begegnen?

Eine kleine persönliche Anekdote zum Einstieg: Man schrieb das Jahr 1984. Zu dieser Zeit absolvierte ich mein Universitätsstudium und erwarb meinen allerersten Computer – einen Olivetti PC M240 mit Intel 8086 CPU, 640 KB RAM, 2 × 5¼-Zoll-Floppy à 360 KB Speicherkapazität und MS DOS als Betriebssystem. Damals war diese Technologie das Beste vom Besten. Heute ist es kaum vorstellbar, wie das überhaupt funktioniert hat. Ich konnte also bis 720 KB an Daten im PC ablegen, ungefähr 500 Textseiten. Heute wäre dies nicht annähernd genug, um ein einziges hochauflösendes Foto (3–5 MB) zu speichern. Vier Jahre später habe ich massiv in ein Upgrade investiert: Ich kaufte mir eine Festplatte mit unglaublichen 20 MB Speicherkapazität. Im Vergleich zu den Floppy-Laufwerken war das eine 40-fach höhere Speicherkapazität. Heute besitzt mein Notebook ein NVMe-Laufwerk mit 2 TB Speicherkapazität, was eine 100 000-fache Erhöhung innert 40 Jahren darstellt; pro Jahr mehr als ein 2500-faches Wachstum.

Diese Erzählung illustriert exemplarisch das exponentielle Datenwachstum, das ungebrochen stattfindet. In absehbarer Zeit ist in dieser Hinsicht keine Abflachung zu erwarten. Im Gegenteil: eine weitere Beschleunigung dieser Entwicklung steht vor der Tür. Die unterschiedlichen Speichermedien Flash, Disk und Tape weisen einen direkten Bezug dazu auf. Dieses Datenwachstum ist nicht einfach generisch entstanden, sondern ist inhärenter Bestandteil der sogenannten vierten Industriellen Revolu­tion. Dabei dreht sich alles um digital verfügbare Daten, welche die Wertschöpfung des Unternehmens optimieren und neue Geschäftspotenziale nutzbar machen. Tag für Tag werden mehr Daten generiert. In unserer hypervernetzten Welt wird, was wir vor einem Jahrzehnt noch als Science-Fiction angesehen hatten, plötzlich Realität. Und das überall: in einer Produktionshalle, in einem Gebäude, auf einem Campus oder in einer Stadt, in unseren Wohnungen, in Kaffeemaschinen, in unseren Laufschuhen und in unseren Autos. Diese Veränderungen sind aufregende Möglichkeiten, die Art und Weise zu verbessern, wie wir leben und arbeiten.

Zugriffsmuster bestimmen Speichermedium

Daten unterliegen einem eigenen Lebenszyklus. Sie werden erstellt, gespeichert, gelesen, verändert, geteilt, gesichert, eventuell wiederhergestellt, gegebenenfalls archiviert und schliesslich vielleicht gelöscht. Über den gesamten Lebenszyklus existieren unterschiedliche Anforderungen an die Geschwindigkeit, mit der Daten geschrieben und verarbeitet werden müssen, wie auch an den Datenzugriff und die Absicherung gegen Datenverlust. Typische Kennwerte sind Durchsatz (I/O pro Sekunde), Bandbreite (MB/s oder GB/s), maximale Skalierung (TB, PB, EB, ZB und so weiter), Haltbarkeit und Langlebigkeit der Medien sowie minimale Aufbewahrung der Daten. Hinzu kommt die Kostenbetrachtung für die Datenhaltung, die im optimalen Verhältnis zu den geforderten Kennwerten sowie dem aktuellen Zugriffsmuster stehen sollte.

 

 

Das Zugriffsmuster ist massgeblich relevant, welche Speichertechnologie eingesetzt wird. Es lässt sich im erweiterten Sinn gleichstellen mit der damit verbundenen Anwendung. Beispielsweise ist der Speicherbereich für meine lokale Microsoft-Outlook-Cache-Datei durch den kontinuierlichen Abgleich mit dem Microsoft-Exchange-Server ständig aktiv. Der Speicher für die Sicherung meiner persönlichen Dateiablage kommt nur einmal pro Tag zum Einsatz. Eventuelle Wiederherstellungen einzelner Dateien sind davon ausgenommen. Auf die von mir in einem separaten Speicherbereich archivierten Verzeichnisse und Dateien wird hingegen nur ganz selten zugegriffen.

Die verschiedenen Speichertechnologien Flash, Disk und Tape

Ein Aspekt fürs Verständnis der unterschiedlichen Speichertechnologien wie Flash, Disk und Tape fehlt noch: der zeitlich bedingte technologische Fortschritt. Das Tape (Band/Bandlaufwerk) gibt es bereits seit den 1950er-Jahren. Es speichert Daten auf Magnetbändern. Die allererste Festplatte wurde 1956 erfunden. Sie wies gerade mal 5 MB Kapazität auf, war im Durchmesser über 60 cm gross und über eine Tonne schwer. Im Jahr 1980 kam die erste 5¼-Disk (Festplatte) auf den Markt. Flash-Speicher wurden ab 1980 entwickelt. 1985 wurde die erste SSD (Solid State Disk) erstmals in einen Server eingebaut. Allerdings war diese Technologie damals so teuer, dass sie nur für einen sehr kleinen Markt interessant war. Heute wird vielfach NVMe (Non-Volatile Memory Express) Flash-Speicher eingesetzt, der über ein äusserst schnelles Übertragungsprotokoll verfügt. Dies – offensichtlich – zu einem tragbaren Preispunkt.

Was ist nun genau der feine Unterschied zwischen Flash, Disk und Tape? Mit fein ist nicht klein gemeint. Die Speichermedien unterscheiden sich zu stark in puncto Geschwindigkeit, Kapazität, Langlebigkeit sowie auch im Preis. Der feine Unterschied ist hier im Sinne von genau oder ausgesucht gemeint, und es gibt dazu einiges zu beachten. Nebst der Eigenschaft, Daten dauerhaft speichern zu können, ist eines allen Technologien gemeinsam: Für alle gibt es heute (noch) passende Einsatzzwecke.

Tape – unverzichtbar effizient, wirtschaftlich, sicher und umweltfreundlich

Beginnen wir mit der Tape-Technologie. Tape ist für das Sichern und Archivieren von Daten unverzichtbar. Daran wird sich so schnell nichts ändern. Denn Tapes sind nicht nur hocheffizient, wirtschaftlich und umweltfreundlich. Sie sind auch als Bollwerk gegen Cyberangriffe unverzichtbar. Es spricht zwar nichts gegen die Disk-Technologie, um Daten zu sichern und zu archivieren. Aber das Tape bleibt nach wie vor die Nummer eins für diesen Anwendungsbereich. Die bestens bekannte 3-2-1-Back-up-Regel (3 Datenkopien, 2 Medien und 1 externes Back-up) unterstützt diese Tatsache. Das Tape ist faktisch die einzige Technologie, mit der wir Back-up-Medien auslagern können.

Flash und Disk – Vor- und Nachteile

Flash und Disk werden grundsätzlich als Primary Storage (Primärspeicher) eingesetzt, in Form von Block-, Datei- und Objektspeicher. Typische Einsatzbereiche sind geschäftsrelevante Applikationen wie etwa ERP, CRM oder E-Mail, Datenbanken, Dateiablagen und webbasierende Anwendungen. Aufgrund der technischen Konzeption – Flash basiert auf nichtflüchtigen, elektronischen Speicherbausteinen, wohingegen Disks auf magnetischen, rotierenden Datenträgern aufbauen – sind unterschiedliche Vor- und Nachteile auszumachen: Flash zeichnet sich punkto Leistung durch kürzeste Zugriffszeiten aus, was ein Maximum an Durchsatz und Bandbreite bei nichtsequenziellem Datenzugriff bedeutet; bei sequenziellem I/O ist Flash nur wenig schneller als Disk. Letztere zeichnen sich im Preis pro Speicherkapazität aus: Flash ist derzeit immer noch viermal teurer als Disk. Wo also hohe Kapazitäten gefordert, Zugriffe meist sequenziell oder Datendurchsatz und Bandbreite weniger wichtig sind, ist die Disk-Technologie nach wie vor eine gute Wahl.

Bei der Flash- und Disk-Technologie könnte in Zukunft eine auf der Strecke bleiben. Die Flash-Technologie ist wohl leicht im Vorteil. Sie überzeugt durch höhere Geschwindigkeiten und Packungsdichte, massiv tieferen Antwortzeiten, stark reduzierte Anfälligkeit für physische Defekte sowie durch eine minimale Energieaufnahme. Die Disk-Technologie hingegen hat schon einige Generationen an Optimierung durchlaufen und den Zenit endgültig erreicht. Bei der Flash-Technologie sehen wir weiterhin technische Fortschritte. Flash ist nicht gleich Flash: Mit NVMe-basierenden Flash-Speichern werden die technischen Möglichkeiten von NAND-basierenden SSDs durchs Medium und Protokoll einerseits signifikant gesteigert. Andererseits wird momentan die Übertragung zwischen Rechner und eigenständigen Speichersystemen mittels NVMe-oF (NVMe over Fabric) optimiert, was mit einem weiteren grossen Geschwindigkeitsvorteil einhergeht.

Künstliche Intelligenz als Hilfe für die ungelösten IT-Rätsel

Seit Ende 2022 steht die Welt Kopf. Mit der Veröffentlichung von ChatGPT erobert KI die Welt im Nu. Das gilt vor allem für sogenannte "Generative KI", mit welcher "Produkte" generiert werden können. Dies umfasst nicht nur Texte, Gedichte, Zusammenfassungen und Präsentationen, sondern auch komplexe Bilder, Videos, Musik und vieles mehr. Solche KI-Modelle sind nicht nur für "Nerds" gedacht, sondern richten sich an die breite Öffentlichkeit.

Für viele Benutzer nicht offensichtlich, existiert keine KI ohne immens grosse Mengen an Daten. Diese Daten werden für das Training eben dieser KI-Modelle benötigt und auch regelmässig mit neuen Daten einem Finetuning unterzogen. Im Fall von ChatGPT sind das zirka 300 Milliarden Wörter. Hierbei handelt es sich um eine gängige Datensatzgrösse für das Training eines grossen Sprachmodells mit bis zu mehreren Hundert Milliarden Parametern. Dazu kommen die Daten der generierten Produkte selbst, die (zumindest teilweise) für das Training oder Finetuning hinzugezogen werden. Ein Katalysator für ein noch schneller anwachsendes, weltweites Datenvolumen. Ich frage mich manchmal, ob unsere Welt irgendwann aus ihren Nähten platzen wird. Und Sie?

Webcode
DPF8_198993