Intels Antwort auf Itanium und Co.

Intels Rechenbolide in Zürich vorgestellt

Uhr | Updated

Chiphersteller Intel hat in Zürich seine neuen Top-Prozessoren der Familie Xeon E7 v2 vorgestellt. Intels Technikspezialist Bruno Riva zeigte die Zielmärkte auf, die Intel mit den Chips erreichen möchte und welche Vorteile die Prozesoren bieten. Rückendeckung erhielt er dabei vom Cern-Ingenieur Andrzej Novak.

Intel hat diese Woche in Zürich die jüngste Generation seiner Server-Chips vorgestellt und erklärt, welche Zielmärkte der Chiphersteller adressieren möchte. Intels Enterprise Technology Specialist für die Schweiz Bruno Riva fasste die wichtigsten Eigenschaften der neuen Xeon-E7-v2-Familie in Zahlen zusammen: Die neuen Xeons bieten gegenüber der Vorgängergeneration die doppelte Rechenleistung. Neu können die Prozessoren dreimal mehr Speicher adressieren, also bis zu 6 Terabyte. Je nach Konfiguration könnten in einem Mehr-Sockel-System auch bis zu 12 Terabyte mit Daten be- und entladen werden. Damit das auch rasch von statten geht, vervierfachten Intels Ingenieure den I/O-Durchsatz.

Der Big-Data-Chip

Zwar können Intels neue Super-Chips zwar wie gehabt in jedem Server eingesetzt werden, allerdings nimmt der Chiphersteller besonders zwei Märkte ins Visier. Ein Markt ist das Geschäft mit der Datenanalytik. Im Bereich des In-Memory-Computing sollen sich die Eigenschaften der Chips mit ihrer grossen Speicheradressierung bezahlt machen.

Mit den neuen Chips lancierte Intel auch eine passende Architektur für Mehr-Sockel-Systeme. Diese sollen den De-Facto-Standard der 2-Sockel-Systeme ablösen. Mit dem Mehrsockel-Ansatz könnten sich OEM-Hersteller und letztlich auch Kunden Systeme mit speziellen Compute Nodes für die Koordination der einzelnen Chips untereinander sparen. Dadurch könnten leistungsfähige Systeme günstiger werden.

Intel verspricht sich davon eine grössere Kundenbasis für Analytik-Systeme mit Intels Xeons. Der Markt für In-Memory-Computing soll in den kommenden vier Jahren um das sechsfache anwachsen. Besonders der Markt für sogenannte Predictive Analytics findet Riva spannend. Dieser könne mit den neuen Chips ideal angesprochen werden.

Intel RISCiert Kampf der Architekturen

Intels Xeon-Chips basieren auf der x86-Struktur und arbeiten nach dem Prinzip Complex Instruction Set Computing, CISC genannt. Pro Takt werden hierbei komplexe Befehle verarbeitet. Beim Reduced Instruction Set Computing (RISC) werden hingegen einfache Befehle verarbeitet. Sie können hoch getaktet werden und treiben oft Hochleistungssysteme für hochverfügbare Anwendungen an.

Intel baut dies Chips für HP, die sogenannten Itanium-Reihe. Daneben entwickeln und bauen IBM und Oracle mit den Power-Systemen, respektive Sparcs, eigene RISC-Chips an. Künftig sollen diese Chips aus den Systemen der Kunden verschwinden und durch x86-Systeme ersetzt werden. Dafür arbeitete Intel an der Zuverlässigkeit seiner neuen Prozessoren.

Die aktuellen Xeons bieten laut Intel eine Zuverlässigkeit von 99,999 Prozent, erklärte Riva während der Präsentation. Auf Nachfrage betonte er, dass die neuen Chips für hochverfügbare Anwendungen sehr gut geeignet wären und im Vergleich zur RISC-Konkurrenz 80 Prozent weniger Energie verbrauchen würden. Ausserdem könnten sie durch ihre Offenheit als x86-System die quasi proprietären Produkte von Systemanbietern wie IBM oder Oracle ablösen, erklärte Riva. Ob es funktioniert, wird die Zukunft zeigen.

Cern Openlab attestiert hohe Leistungen

Was die Xeons jetzt schon können präsentierte Andrzej Nowak, vom Open Lab des Kernforschungszentrums Cern. Das Cern verlangt für seine Experimente nach leistungsfähiger Technik. Alleine das Computing-Netzwerk des Teilbereichs Large-Hadron-Collider setzt derzeit über 400'000 Rechenkerne verteilt über ein globales Netzwerk ein. Im Open-Lab untersuchen die Physiker und Ingenieure deshalb neue Hard- und Software. In einem der Benchmark-Tests, dem HEPSPEC06 zeigte ein untersuchtes 4-Sockel-System die 2,5-fache Rechenleistung im Vergleich zu einem 2-Sockel-System. Für den Test wurde eine sogenannte Multithreated Particles Simulation mit rund zwei Millionen Zeilen C++-Code.

Fazit der Tests: Die neuen Chips bringen deutlich mehr Leistung. Interessant war Nowaks Ausblick: Siener Meinung nach wird nämlich künftig nicht mehr die Hardware-Optimierung im Vordergrund stehen. Stattdessen müsste die Software leistungsfähiger programmiert werden, mit der die gewaltigen Datenmengen verarbeitet werden müssen. So müsste Software künftig stärker für Multi-Core-Systeme und die Vektorisierung ausgelegt werden. Ein Problem seien auch ältere Programme die sich nur eingeschränkt skalieren liessen. Das Problem an der IT sei jedoch, dass heute noch keiner wisse, wie die IT in vielen Jahren aussehen wird. Vielleicht wird es dann auch keine Xeon-Chips mehr brauchen.

Webcode
LLnH4Bp2