Ob und wann sich gemäss Red Hat eine lokale KI-Infrastruktur lohnt
Die digitale Souveränität zwingt IT-Verantwortliche zum Umdenken. Auch bei der Nutzung von KI will man die Abhängigkeit von ausländischen Grosskonzernen reduzieren. Wann sich eine lokale KI-Infrastruktur lohnt und was es beim Aufbau zu beachten gilt, sagt Dominik Wotruba, Head of Solution Architects, Schweiz und Österreich bei Red Hat.
In welchen Szenarien ist der Betrieb von KI-Anwendungen On-Premises oder in lokalen Rechenzentren sinnvoller als die Nutzung grosser internationaler Anbieter?
Dominik Wotruba: Vorteile eines lokalen Betriebs sind die einfachere Einbindung von Legacy-Systemen sowie die Möglichkeit, Anwendungen zu nutzen, die sich nicht einfach oder wirtschaftlich sinnvoll in die Cloud migrieren lassen. Gerade in gewachsenen Unternehmenslandschaften ist das ein wesentlicher Hebel, um KI pragmatisch und mit Business-Impact zu implementieren.
Ist es realistisch und sinnvoll, KI-Anwendungen für Unternehmenslösungen komplett lokal zu betreiben?
Das ist realistisch und in den Fällen strategisch sinnvoll, in denen regulatorische Vorgaben, Datenschutzanforderungen oder technologische Rahmenbedingungen einen Cloud-Ansatz erschweren oder ausschliessen. Komplett lokale KI-Anwendungen sind gut machbar bei Inferenz mit vortrainierten Modellen, die auf klassischen Servern beziehungsweise CPU laufen. Red Hat und Nvidia liefern vorvalidierte, getestete Bausteine, mit denen Kunden ihre KI-Plattform ab Tag 0 stabil in Betrieb nehmen können.
Was ist essenziell beim Aufbau einer lokalen KI-Infrastruktur?
Sie sollte nicht als isolierter Technologie-Stack, sondern als strategische Plattform aufgebaut werden, Model-as-a-Service bereitstellen und KI-Workflows (Agents) unterstützen. Das ermöglicht, KI skalierbar und operativ wirksam einzusetzen. Kritisch ist die technologische Offenheit für zukünftige GPU-Entwicklungen durch eine starke Abstraktionsschicht.
Nach welchen Kriterien sollte man zwischen Standard-KI-Modellen und massgeschneiderten Lösungen entscheiden, um den ROI zu maximieren?
Das wichtigste Kriterium ist der Bedarf der geplanten Anwendung. Allgemein lässt sich sagen: Standardmodelle in frühen Phasen beziehungsweise bei geringen Volumen, Custom-Modelle bei reifen Anwendungen beziehungsweise hohen Volumen. Der höchste ROI entsteht dabei meist, wenn Unternehmen mit offenen Standardmodellen starten und dort individualisieren, wo ein klarer geschäftlicher Mehrwert erzielt wird.
Welche Chancen ergeben sich dadurch für Reseller und Systemintegratoren?
Sie können Kunden bei der Bewertung und Einführung von KI-Plattformen beraten, die technologische Komplexität reduzieren und eine fundierte Vorauswahl liefern. Parallel wächst der Bedarf, Geschäftsprozesse mit KI und Technologien wie Red Hat Ansible effizient zu automatisieren. Hier bieten sich für den Channel attraktive Marktchancen für eigene Beratungs-, Integrations- und Serviceangebote.
Welche Entwicklungen in den Bereichen KI-Infrastruktur oder Datenstrategie sollten IT-Partner jetzt im Blick behalten, um in den nächsten Jahren wettbewerbsfähig zu bleiben?
Sowohl die Hardwarelandschaft – speziell Chips, Architekturen sowie Verfahren zur Auslastung von Beschleunigern – als auch Algorithmen und Optimierungsmechanismen werden sich rasant weiterentwickeln. Ein weiterer zentraler Bereich ist die Datenstrategie. Es wird immer wichtiger, Daten effizient aufzubereiten, zu konvertieren und für KI-Workloads nutzbar zu machen. In all diesen Fällen spielen offene Technologien eine wichtige Rolle als Innovationstreiber, müssen aber natürlich Enterprise-tauglich sein.
Die Antworten der weiteren Teilnehmenden des Podiums:
- Daniel Bachofner, Netapp: "Vollständig lokal ist technisch möglich, aber selten optimal."
- Massimo Fumagalli, VAR Group: "Entscheidend sind klare Governance, Compliance und Schulung, um KI sicher und wirksam einzusetzen."
- Daniel Henneke, HPE: "Häufig ist eine Hybrid- oder Edge-First-Lösung vorteilhafter."
- Steffen Märkl, Cloudera: "Private AI ist keine Frage des Standorts allein, sondern eine Architekturentscheidung."
- Romano Roth, Zühlke: "Reine Ideologie in die eine oder andere Richtung ist selten wirtschaftlich."
- Christoph Schnidrig, AWS: "Lokale Hardware veraltet schneller, als der ROI erreicht wird."
- Roland Stritt, Fast LTA: "Wer lokal inferiert, entscheidet selbst, wer welche Antworten bekommt."
Abonnieren Sie jetzt den Newsletter des "IT-Markt", der Info-Drehscheibe für den Schweizer IT-Channel und verpassen Sie keine News mehr. Der Newsletter liefert Ihnen täglich die relevanten Meldungen für die Entscheider im Schweizer IT-Channel - vom Reseller über den Systemintegrator bis zum Disti.
Peoplefone lanciert virtuelle Telefonanlage
Ingram Micro sucht neuen Schweiz-Chef
Temenos verzeichnet Wachstum und ernennt neuen CFO
OpenAI lanciert präziseres Bildgenerierungsmodell
Update: E-ID-Gegner blitzen vor Bundesgericht ab
Jeder hat seine Talente, manche sind ... spezieller als andere
Ontinue ernennt neuen CEO
Die neue Printausgabe des "IT-Markt" ist da
Update: Nationalratskommission will mehr Kompetenzen für den Nachrichtendienst