Ob und wann sich gemäss Netapp eine lokale KI-Infrastruktur lohnt
Die digitale Souveränität zwingt IT-Verantwortliche zum Umdenken. Auch bei der Nutzung von KI will man die Abhängigkeit von ausländischen Grosskonzernen reduzieren. Wann sich eine lokale KI-Infrastruktur lohnt und was es beim Aufbau zu beachten gilt, sagt Daniel Bachofner, Country Manager bei Netapp Schweiz.
In welchen Szenarien ist der Betrieb von KI-Anwendungen On-Premises oder in lokalen Rechenzentren sinnvoller als die Nutzung grosser internationaler Anbieter?
Daniel Bachofner: On-Premises beziehungsweise lokale Rechenzentren sind die bessere Wahl, wenn regulatorische Anforderungen, Datenschutz oder Datensouveränität es verlangen, etwa in der Finanz- oder Pharmabranche. Auch latenzintensive KI-Workloads oder Szenarien mit grossen Datenbewegungen sprechen für eine lokale Infrastruktur. In der Schweiz wollen viele Unternehmen die klare Kontrolle darüber, wo ihre Daten liegen und wer darauf zugreift.
Ist es realistisch und sinnvoll, KI-Anwendungen für Unternehmenslösungen komplett lokal zu betreiben?
Vollständig lokal ist technisch möglich, aber selten optimal. Die Realität ist hybrid: Kritische Daten bleiben lokal, weniger sensible Workloads nutzen die Skalierbarkeit der Cloud – nicht nur bei KI, sondern bei allen datenbasierten Anwendungen. Entscheidend ist eine Infrastruktur, die Wahlfreiheit und Datenmobilität ermöglicht – so viel Kontrolle wie nötig, so viel Flexibilität wie möglich.
Was ist essenziell beim Aufbau einer lokalen KI-Infrastruktur?
Grundlage ist eine leistungsfähige Storage-Plattform mit unabhängiger Skalierung von Kapazität und Performance. Ebenso wichtig für eine intelligente Dateninfrastruktur ist ein globaler Metadatenkatalog, der Daten auffindbar und für KI-Pipelines nutzbar macht. Cyberresilienz muss direkt im Datenfundament verankert sein und darf nicht erst nachträglich aufgesetzt werden.
Nach welchen Kriterien sollte man zwischen Standard-KI-Modellen und massgeschneiderten Lösungen entscheiden, um den ROI zu maximieren?
Der Use Case steht an erster Stelle: Was soll KI leisten, welche Daten werden benötigt, wo dürfen sie liegen? Standardmodelle liefern schnelle Ergebnisse bei generischen Anwendungsfällen. Massgeschneiderte Lösungen dagegen lohnen sich, wenn proprietäre Daten einen echten Wettbewerbsvorteil schaffen – vorausgesetzt, die Datenbasis ist sauber und zugänglich
Welche Chancen ergeben sich dadurch für Reseller und Systemintegratoren?
Die wachsende Nachfrage nach KI-Infrastruktur eröffnet grosses Potenzial. Reseller und Integratoren können sich als Architekten hybrider KI-Umgebungen positionieren: Gefragt sind Beratung bei Lösungsdesign, Aufbau der Datenbasis und Begleitung über den ganzen Projektzyklus hinweg. Wer Kompetenz von der Infrastruktur bis zur Datenstrategie aufbaut, wird für andere zum strategischen Partner.
Welche Entwicklungen in KI-Infrastruktur oder Datenstrategie sollten IT-Partner im Blick behalten?
Drei Entwicklungen sind dafür zentral: erstens der Wandel von KI-Pilotprojekten zu unternehmensweiten Deployments mit höheren Anforderungen an Datenqualität; zweitens die Integration von Sicherheit direkt in die Dateninfrastruktur; und drittens agentenbasierte KI, die eine strukturierte Datenbasis voraussetzt. Wer diese Entwicklungen verfolgt, schafft für Kunden nachhaltigen Mehrwert.
Die Antworten der weiteren Teilnehmenden des Podiums:
- Massimo Fumagalli, VAR Group: "Entscheidend sind klare Governance, Compliance und Schulung, um KI sicher und wirksam einzusetzen."
- Daniel Henneke, HPE: "Häufig ist eine Hybrid- oder Edge-First-Lösung vorteilhafter."
- Steffen Märkl, Cloudera: "Private AI ist keine Frage des Standorts allein, sondern eine Architekturentscheidung."
- Romano Roth, Zühlke: "Reine Ideologie in die eine oder andere Richtung ist selten wirtschaftlich."
- Christoph Schnidrig, AWS: "Lokale Hardware veraltet schneller, als der ROI erreicht wird."
- Roland Stritt, Fast LTA: "Wer lokal inferiert, entscheidet selbst, wer welche Antworten bekommt."
- Dominik Wotruba, Red Hat: "Komplett lokale KI-Anwendungen sind gut machbar bei Inferenz mit vortrainierten Modellen."
Abonnieren Sie jetzt den Newsletter des "IT-Markt", der Info-Drehscheibe für den Schweizer IT-Channel und verpassen Sie keine News mehr. Der Newsletter liefert Ihnen täglich die relevanten Meldungen für die Entscheider im Schweizer IT-Channel - vom Reseller über den Systemintegrator bis zum Disti.
Jeder hat seine Talente, manche sind ... spezieller als andere
Ontinue ernennt neuen CEO
Also und Dropbox erweitern Partnerschaft auf sechs EMEA-Märkte
Peoplefone lanciert virtuelle Telefonanlage
Temenos verzeichnet Wachstum und ernennt neuen CFO
Update: E-ID-Gegner blitzen vor Bundesgericht ab
Update: Nationalratskommission will mehr Kompetenzen für den Nachrichtendienst
Ingram Micro sucht neuen Schweiz-Chef
OpenAI lanciert präziseres Bildgenerierungsmodell