Tec Forum Baden 2024

Wie KI Datacenter verändert und wer den Glasfaserausbau bremst

Uhr
von Maximilian Schenner und tme

Das Tec Forum Baden am 12. März 2024 hat aufgezeigt, wie vielseitig der Begriff "Infrastruktur" im ICT-Kontext einsetzbar ist - vom Internetkabel über OT bis hin zum Rechenzentrum. Inhalt des Anlasses waren unter anderem die Fragen, warum der Glasfaserausbau nicht vorangeht und was der KI-Boom mit der Architektur von Rechenzentren macht.

Christian Schläpfer von Swiss Fibre Net. (Source: Netzmedien)
Christian Schläpfer von Swiss Fibre Net. (Source: Netzmedien)

"Infrastruktur" kann vielfältig verstanden werden. Was im ICT-Kontext alles unter diesen Begriff fällt, wurde am Tec Forum Baden deutlich, das am 12. März 2024 im Trafo Baden über die Bühne ging. Der erste Themenblock des Tages trug den Titel "Breitbandnetze im Wandel". Besonderer Fokus lag zunächst am Glasfaserausbau. Für Christian Schläpfer, der zuerst am Wort war, ist klar, wer zumindest einen Teil der Verantwortung dafür trägt, dass dieser in der Schweiz eher schleppend vorangeht. Aber der Reihe nach.

Rund die Hälfte der Breitbandanschlüsse in der Schweiz seien inzwischen FTTH-Anschlüsse (Fiber to the Home) , sagte Schläpfer, Leiter Produktentwicklung und stellvertretender Geschäftsführer von Swiss Fibre Net. Wiederum etwa die Hälfte davon sei "beleuchtet", also in Verwendung, der Rest bleibe dunkel. Das belegen auch Zahlen der OECD: Demnach waren Ende 2022 rund 27 Prozent aller Breitbandanschlüsse in der Schweiz Glasfaseranschlüsse. Damit liegt die Schweiz im europäischen Mittelfeld, was den Glasfaserausbau angeht.

Später sprach Schläpfer über den Stand des Glasfaserausbaus in Europa. Die Schweiz habe ihre Ausbaurate in den letzten Jahren von 44 auf 46 Prozent erhöht, wovon wie eingangs erwähnt rund die Hälfte in Betrieb ist (FTTH/B). Was den Ausbau betrifft, liege man europaweit im hinteren Mittelfeld, knapp hinter Nationen wie Ungarn, Nordmazedonien, Serbien und der Türkei. Das Schlusslicht bildet Griechenland; Belgien, Deutschland, Österreich und Grossbritannien kommen ebenfalls schlecht weg. Weit vorne liegen laut der OECD hingegen Spanien, Island und Schweden. In Sachen Take-up-Rate liege die Schweiz auf Rang 17, sagte Schläpfer.

Monopolstellung bremst den Glasfaserausbau

Einen grossen Teil des Glasfasernetzes bietet in der Schweiz die Swisscom an, wie Schläpfer ausführte. ISPs können Glasfaser-Internet über die Netze der Swisscom anbieten. Wollen sie dies jedoch über alternative Netze machen, sei das ein komplizierter Prozess, weshalb vor über einem Jahrzehnt die Plattform Alex ins Leben gerufen wurde. Die Plattform sollte Schweizer ISPs "diskriminierungsfreien Zugang" zu Glasfasernetzen verschiedener Stadtwerke gewähren. Swiss Fiber Net betreibt Alex mittlerweile zusammen mit dem EWZ und den IWB, wie Schläpfer erklärte. 

Die Anzahl neuer Netzbauprojekte sei aktuell im Abnehmen begriffen, sagte Schläpfer weiter. Viele Projekte seien bereits fertig oder stünden kurz vor dem Abschluss, relativ wenige Gemeinden würden mit neuen Initiativen starten. Vielerorts gebe es noch HFC-Netze (Hybrid Fiber Coax), eine Mischform aus Glasfaser- und herkömmlichen Kupferkoaxialkabeln. Vielen dieser Netze drohe jedoch der Überbau - das bedeutet, dass parallel zu bestehenden Leitungen ein weiterer Anschluss gebaut wird. Die Swisscom betreibe dies gerade aggressiv und bedrohe viele HFC-Netze in ihrem Dasein. Diese würden in den nächsten 5-15 Jahren in der Bedeutungslosigkeit versinken, so die Prognose des Experten.

Schläpfer nannte als Beispiel für das Vorgehen des Telkos das Projekt "Prioris", ein Glasfaserprojekt, an dem sich über 20 Luzerner Gemeinden beteiligt hatten. Die Swisscom habe sich das "Filetstück herausgekrallt", also die kommerziell interessantesten Gebiete, und dort ihre Leitungen gebaut. Die Projektverantwortlichen hatten dies bereits damals kritisiert. Das Projekt sei daraufhin zusammengebrochen. "Die Swisscom kann ganze Projekte bremsen und zerstören, und macht das auch", fand Schläpfer harte Worte für den Telko. Er sprach zudem von "Territorialverhalten", bei dem Swisscom seine Marktmacht ausnutze. Zugleich gebe es am Markt nahezu keine Regulierung und die Swisscom habe freie Hand, die Preise zu bestimmen - und baue sich somit ein Monopol auf.

Grund für den Stopp von Prioris sollte schlussendlich übrigens nicht der Knatsch mit Swisscom sein, sondern ein neuer Gesellschafter der österreichischen Partnerfirma, wie Sie hier nachlesen können.

Schläpfer nahm jedoch auch die ISPs in die Pflicht. Diese würden entlang der Kostenlinie einkaufen und zu stark opportunistisch handeln. "Sie kaufen lieber bei der Swisscom ein, wenn es dort um 5 Franken günstiger ist als woanders", sagte Schläpfer - und das, obwohl Swisscom ja eigentlich ein Konkurrent sei.

Zwischen und nach den Vorträgen gab es genügend Gelegenheit zum Austausch. (Source: Netzmedien)

Zwischen und nach den Vorträgen gab es genügend Gelegenheit zum Austausch. (Source: Netzmedien)

Mehr Glasfaserprojekt Projekte für kleine Gemeinden

Fabian Künzi, CEO von Netpartner und zweiter Sprecher des Anlasses, bemängelte, dass kleinere Gemeinden beim Glasfaserausbau oft auf der Strecke blieben. Swisscom plane etwa, bis 2030 drei Viertel der Schweiz mit Glasfaseranschlüssen zu versorgen. "Drei Viertel der Haushalte sind aber nicht drei Viertel der Gemeinden", betonte Künzi. Der geplante Ausbau betreffe jedoch vor allem mittlere und grössere Gemeinden. Rund 600 Schweizer Gemeinden seien zum Beispiel noch gar nicht erschlossen. Künzi forderte mehr lokale Glasfaserprojekte, mehr Unternehmergeist und mehr Mut. 

In einem weiteren Punkt sprach Künzi die Finanzierung solcher Projekte an. "Glasfasernetze sind Generationenprojekte", sagte er - aber sie seien rentabel. Hier sei ein langfristiger Anlagehorizont nötig, dazu brauche es faire Konditionen und Sicherheit bei der Finanzierung. Kleine Gemeinden würden für Betreiber natürlich gewisse Herausforderungen mit sich bringen, führte der Redner aus, vor allem die vergleichsweise hohen Kosten für den Ausbau in Relation zur Anzahl der Haushalte. Künzi wünsche sich neue Lösungsansätze und Preismodelle, um dieser Herausforderungen Herr zu werden.

Auch der Netpartner-Inhaber kritisierte schliesslich den Überbau vieler Netze. "Wir bauen ja auch nicht zwei Wasserleitungen", sagte Künzi, und nahm in diesem Punkt ebenfalls den grössten heimischen Telko in die Kritik. Die Swisscom baue oft neue Projekte, anstatt bestehende zu nutzen, und entwerte damit faktisch als Bundesunternehmen Gemeindeinvestitionen. "Ineffizienter können wir unsere Steuerfranken nicht ausgeben", kommentierte Künzi. Der Ausbau von Parallelnetzen müsse gestoppt werden, und im Streitfall brauche es eine unabhängige Schlichtungsstelle, so seine Forderung. Unter anderem dafür sei im Sommer 2023 der Verband Netzallianz gegründet worden, der sich ausserdem für kleine und mittlere Netzbetreiber und einen fairen Infrastrukturwettbewerb einsetzt.

Zwei grosse Probleme in der OT-Security

Das Vortrag von Reto Amsler von Alsec trug den Titel "OT-Infrastrukturen – Wieviel Sicherheit ist genug?". Das Unternehmen hat sich auf die Sicherheit von Energie- und Industrieunternehmen spezialisiert. Amsler strich zunächst die Wichtigkeit der Operational Technology (OT) hervor. OT steuert, überwacht und regelt physische Prozesse, erklärte Amsler. Als Beispiel nannte er das Online-System der SBB. "Stellen Sie sich vor, was alles schiefgehen kann, wenn das nicht funktioniert." Für OT gelten laut dem Experten also hohe Anforderungen an Verfügbarkeit und Integrität. Sie befänden sich oft im Freien - "nicht in einem gekühlten Rack" und seien daher for äusseren Einflüssen wie Hitze, Kälte oder elektromagnetischen Störungen ausgesetzt. 

Ein zentrales Problemfeld von OT-Sicherheit sei heute das sogenannte Purdue-Modell, eine Referenzarchitektur dafür, wie man industrielle Systeme architektonisch schützt. Im Wesentlichen basiert das Modell auf Cybersegmentierung, operationelle Technologie sollte sich möglichst weit weg vom Internet befinden, um vor Gefahren aus dem Cyberspace geschützt zu sein. Aus Amslers Sicht sei das Modell jedoch angezählt. Es stamme aus den 90er-Jahren, als es noch ganz andere Businessprozesse gab. Im Bereich des Stroms hätten sich diese zum Beispiel seitdem massiv geändert, etwa aufgrund erneuerbarer Energien, E-Mobility sowie dem Stromhandel an der Börse.

Das zweite wesentliche Problem der OT-Security sei ein personelles. Amsler zeigte auf der Leinwand das Bild eines 74-jährigen Elektroinstallateurs. Dieser sei der Know-how-Träger der Scada-Applikationen seines ehemaligen Arbeitgebers und fungiere heute immer noch als Third Level Support in diesem Bereich, da sonst fast niemand die Expertise besitze. Für OT-Security gebe es aktuell auch keinen Lehrgang. "Die jungen Leute wollen in die Cyberdefense, in den Cyberspace - aber wer will zu seinem lokalen Energieunternehmen?" Alsec arbeite auf diesem Gebiet immerhin mit der HSLU zusammen, um junge Menschen für OT-Sicherheit zu begeistern.

(Source: Netzmedien)

Das Tec Forum fand im Trafo Baden statt. (Source: Netzmedien)

"Nichtstun ist keine Option"

Wie viele Angriffe es auf OT-Infrastrukturen gebe, ist laut Amsler schwierig in Zahlen zu fassen, zumal es sich oft um indirekte Angriffe handle, bei denen das eigentliche Ziel nicht zu erkennen sei. Er strich jedoch die Zahl 13 hervor: So viele Angriffe gebe es pro Sekunde auf weltweite kritische Infrastrukturen. Man könne sich schützen, beruhigte Amsler. Dafür müsse man aber zuerst verstehen, was man schütze, also gutes Asset Management betreiben. Man müsse erkennen, dass neue Services das ganze System beeinflussen können. Beim Implementieren neuer Technologien sei darauf zu achten, das ganze Konzept sicher beizubehalten. Schliesslich verwies Amsler auf den Titel seines Referats "Wieviel Sicherheit ist genug?". Dies müssten Unternehmen immerhin nicht mehr alleine entscheiden, sagte der Experte. Er bezog sich damit auf gesetzliche Anforderungen wie den IKT-Minimalstandard des Bundes, der 2025 noch um den Sektor Gas ergänzt werde. Dazu kämen Branchenstandards sowie das Datenschutz- und andere Gesetze. Sicherheit sei Chefsache, ein Prozess und eine Frage der Unternehmenskultur, sagte Amsler, und schloss mit den Worten: "Nichtstun ist keine Option."

KI als Problem und Lösung für die Nachhaltigkeit

Nach einer Kaffee- und Networkingpause standen Rechenzentren im Mittelpunkt der Vorträge. Primo Amrein, Cloud Lead bei Microsoft Schweiz, widmete sich in seinem Vortrag den Auswirkungen des KI-Booms auf Hyperscale-Datacenter. Besondere Aufmerksamkeit sollte er dem Thema Nachhaltigkeit schenken. Microsoft selbst steckte sich in diesem Belangen hohe Ziele, wie aus Amreins Referat hervorging: Der Konzern sei schon längere Zeit CO2-neutral, bis 2030 wolle man CO2-negativ unterwegs sein und bis 2050 alle bisherigen eigenen Emissionen kompensieren. Rechenzentren würden auf diesem Wege eine wichtige Rolle spielen, sagte der Cloud Lead.

Jetzt komme aber der Hype um die künstliche Intelligenz, die sehr ressourcenintensiv ist. Das berge die Gefahr, dass die selbst erklärten Ziele nicht mehr funktionieren, sagte Amrein. KI könne im Nachhaltigkeitsbereich aber nicht nur Teil des Problems, sondern auch Teil der Lösung sein. Amrein erwähnte KI-basierte Nachhaltigkeitslösungen für Rechenzentren aus dem Hause Microsoft wie den Microsoft Sustainability Manager, das Emissions Impact Dashboard, mit dem Unternehmen ihren ökologischen Fussabdruck errechnen können, sowie Azure Carbon Optimization, um eben diesen zu reduzieren. Zudem arbeite Microsoft zusammen mit der UBS an "Carbon Aware Computing".

Primo Amrein, Cloud Lead Microsoft Schweiz (Source: Netzmedien)

Primo Amrein, Cloud Lead Microsoft Schweiz. (Source: Netzmedien)

Nachhaltigkeitsüberlegungen für Rechenzentren

In seinen Hyperscale-Rechenzentren verwende das Unternehmen teilweise Flüssigchipkühlung anstelle von Luftkühlung, berichtete Amrein. Dabei würde den Servern mit einer Flüssigkeit "selbstverständlich nicht mit Wasser" - sehr direkt an der Quelle Wärme entzogen. Diese Wärme werde wiederum nicht an die Luft abgegeben, sondern bleibe in einem geschlossenen Kreislauf und werde etwa als Fernwärme an umliegende Gemeinden geleitet. Durch diese Art der Kühlung falle auch ein grosser Teil des Server-Overheads weg und die Server könnten enger aneinandergereiht werden, sagte Amrein, wodurch die Rechenzentren besser gefüllt werden könnten.

Andere Überlegungen auf dem Gebiet der Nachhaltigkeit seien Renewables Storage, also das temporäre Speichern von Energie in Batterien, sowie das Rezyklieren von IT-Komponenten vor Ort. Bis 2030 wolle Microsoft von Dieselgeneratoren wegkommen. Auch Wasserstoff sei eine Idee, sagte Amrein.

Zurück zum Thema KI. Amrein liess es sich nicht nehmen, über eine neue Entwicklung seines Unternehmens auf diesem Gebiet zu sprechen: Die Azure AI Infrastructure. KI stelle grosse Herausforderungen in puncto Geschwindigkeit und Leistung, sagte der Cloud Lead. Microsoft habe deshalb eigene Netzwerkleitungen entwickelt. In Sachen Leistung ermögliche Azure Boost, Server-Virtualisierungsprozesse auszulagern, was die CPU entlaste und mehr Leistung bringe.

Stichwort Leistung: Im Bereich der Chipforschung arbeite Microsoft mit Nvidia und AMD zusammen, entwickle aber auch eigene Chips wie Azure Maia. Dieser sei speziell auf Large Language Models (LLM) wie GPT ausgelegt und bestehe aus über 100 Milliarden Transistoren. Rund um den Prototypen habe Microsoft ein eigenes Rack gebaut, bestehend aus Tausenden Maia-Chips, mit den hauseigenen Leitungen verkabelt und mit Liquid Cooling gekühlt. "Wir stehen erst am Anfang der Forschung", sagte Amrein zum Abschluss, um das Wort sogleich an Niek van der Pas zu übergeben.

KI gestaltet Rechenzentren neu

Van der Pas ist seines Zeichens Lead Data Centre Expert bei Legrand Data Center Solutions. Er erinnerte sich am Anfang zurück an einen Vortrag von ihm vor fünf Jahren, in dem er über den Impact des Internet of Things auf Edge Computing gesprochen hatte. Als Beispiel hatten ihm damals selbstfahrende Autos gedient. Ein kleiner Exkurs: Auf dem Gebiet des autonomen Fahrens gibt es verschiedene Levels, von 0 bis 5. Wir würden uns heute vor allem auf dem zweiten Level bewegen, erklärte van der Pas. Das Auto müsse dafür erkennen, was passiert - das passiere mithilfe von KI. Diese finde wiederum auf dem Computer im Auto statt, etwa jenem des Tesla-Modells Y. Über eine 4G-Antenne könne sich das Auto zwar mit einem Rechenzentrum verbinden, doch die Entscheidungen müssten lokal, also am Edge, getroffen werden. 

Wie Microsoft tüftle auch Tesla an seiner eigenen Hardware. Der Konzern wolle etwa die Leistung von 72 GPU-Racks, die für das KI-Training nötig wären, in 4 Racks, sogenannte Dojo-Clients, stecken. "Wenn wir diese Technologien verwenden wollen, brauchen wir Veränderung in den Rechenzentren", sagte van der Pas. Er nahm auch Bezug auf den Vortrag seines Kollegen von Microsoft und sagte, nicht alle Datacenters seien heute bereit für Flüssigkühlung und müssten entsprechend umgebaut werden. Es gehe jedoch nicht darum, die heutige IT wegzuwerfen, sondern zu adaptieren und sie richtig einzusetzen.

Niek van der Pas von Legrand Datacenter (Source: Netzmedien)

Niek van der Pas von Legrand Data Center. (Source: Netzmedien)

Um dem Namen der Veranstaltung gerecht zu werden, gab es am Tec Forum zwischen und nach den Vorträgen die Möglichkeit, sich auszutauschen und sich an verschiedenen Ständen über neue Lösungen und Technologien zu informieren.

Übrigens: Der Schweizer Markt für Rechenzentren entwickelt sich weiter und konsolidiert sich. Grosse Player wie Interxion oder Safe Host haben den Besitzer gewechselt und betreiben ihre Rechenzentren jetzt unter anderen Namen. Wie sich der Markt generell entwickelt, lesen Sie hier. 

Webcode
gQxXmXdV