Ob und wann sich gemäss Fast LTA eine lokale KI-Infrastruktur lohnt
Die digitale Souveränität zwingt IT-Verantwortliche zum Umdenken. Auch bei der Nutzung von KI will man die Abhängigkeit von ausländischen Grosskonzernen reduzieren. Wann sich eine lokale KI-Infrastruktur lohnt und was es beim Aufbau zu beachten gilt, sagt Roland Stritt, Chief Revenue Officer bei Fast LTA, München.
In welchen Szenarien ist der Betrieb von KI-Anwendungen On-Premises oder in lokalen Rechenzentren sinnvoller als die Nutzung grosser internationaler Anbieter?
Roland Stritt: Immer dann, wenn Datensouveränität nicht verhandelbar ist: Gesundheitswesen, Finanzbranche, Behörden, Industrie mit sensiblen Fertigungsdaten. Wer Unternehmensdaten in ein externes KI-Modell schickt, gibt faktisch die Kontrolle ab – für viele regulierte Branchen ist das schlicht keine Option. Dazu kommen Verfügbarkeit und Latenz: Ein lokales System läuft unabhängig vom Hyperscaler und von dessen Preispolitik.
Ist es realistisch und sinnvoll, KI-Anwendungen für Unternehmenslösungen komplett lokal zu betreiben?
Realistischer, als viele denken. Moderne KI-Appliances sind in Stunden einsatzbereit und decken die typischen Unternehmensanwendungsfälle – RAG, interne Wissensbasen, Dokumentenanalyse – zuverlässig ab. Der entscheidende Unterschied zur Cloud liegt nicht in der Modellqualität, sondern in der Kontrolle: Wer lokal inferiert, kann interne Rechtestrukturen direkt durchsetzen und entscheidet selbst, wer welche Antworten bekommt.
Was ist essenziell beim Aufbau einer lokalen KI-Infrastruktur?
Drei Dinge sind unverzichtbar: ausreichend GPU-Ressourcen für das gewählte Modell, eine saubere und strukturierte Datenbasis sowie konsequentes Rechtemanagement. Wer KI auf eigene Daten loslässt, ohne Zugriffsrechte sauber abzubilden, schafft ein internes Datenleck. Die Qualität der Antworten hängt direkt von der Datenqualität ab – Garbage in, garbage out gilt auch für Unternehmens-KI.
Nach welchen Kriterien sollte man zwischen Standard-KI-Modellen und massgeschneiderten Lösungen entscheiden, um den ROI zu maximieren?
Für die meisten Unternehmensanwendungen sind vortrainierte Standardmodelle der richtige Ausgangspunkt – kosteneffizienter und schnell einsatzbereit. Kundenspezifische Modelle lohnen sich dort, wo spezifisches Domänenwissen oder regulatorische Anforderungen vorliegen, die generische Modelle nicht abdecken. Der ROI entscheidet sich oft nicht beim Modell selbst, sondern bei der Anbindungsqualität: Wie gut ist das System an relevante Datenquellen angebunden, wie präzise ist das Retrieval?
Welche Chancen ergeben sich dadurch für Reseller und Systemintegratoren?
Erhebliche. Off-Cloud-KI ist ein wachsendes Segment mit hohem Beratungsbedarf – genau das Terrain, auf dem Reseller und Systemintegratoren echten Mehrwert schaffen. Wer heute Kompetenz im Aufbau lokaler KI-Infrastrukturen aufbaut, positioniert sich für langfristige Kundenbindung weit über den Hardware-Deal hinaus. Margen und Recurring Revenue sind deutlich attraktiver als im klassischen Backup-Geschäft.
Welche Entwicklungen in den Bereichen KI-Infrastruktur oder Datenstrategie sollten IT-Partner jetzt im Blick behalten, um in den nächsten Jahren wettbewerbsfähig zu bleiben?
Den EU AI Act und seine Implikationen für datenverarbeitende KI-Systeme, die wachsende Nachfrage nach digitaler Souveränität im DACH-Raum und den Trend zu hybriden Datenstrategien, bei denen Cloud und On-Premises klar definierte Rollen haben. Wer heute erklären kann, wie KI compliant und lokal betrieben wird, ist morgen erster Ansprechpartner, wenn Kunden ihre Cloud-KI-Kosten kritisch hinterfragen – und das werden viele tun.
Die Antworten der weiteren Teilnehmenden des Podiums:
- Daniel Bachofner, Netapp: "Vollständig lokal ist technisch möglich, aber selten optimal."
- Massimo Fumagalli, VAR Group: "Entscheidend sind klare Governance, Compliance und Schulung, um KI sicher und wirksam einzusetzen."
- Daniel Henneke, HPE: "Häufig ist eine Hybrid- oder Edge-First-Lösung vorteilhafter."
- Steffen Märkl, Cloudera: "Private AI ist keine Frage des Standorts allein, sondern eine Architekturentscheidung."
- Romano Roth, Zühlke: "Reine Ideologie in die eine oder andere Richtung ist selten wirtschaftlich."
- Christoph Schnidrig, AWS: "Lokale Hardware veraltet schneller, als der ROI erreicht wird."
- Dominik Wotruba, Red Hat: "Komplett lokale KI-Anwendungen sind gut machbar bei Inferenz mit vortrainierten Modellen."
Abonnieren Sie jetzt den Newsletter des "IT-Markt", der Info-Drehscheibe für den Schweizer IT-Channel und verpassen Sie keine News mehr. Der Newsletter liefert Ihnen täglich die relevanten Meldungen für die Entscheider im Schweizer IT-Channel - vom Reseller über den Systemintegrator bis zum Disti.
Jeder hat seine Talente, manche sind ... spezieller als andere
Update: E-ID-Gegner blitzen vor Bundesgericht ab
Update: Nationalratskommission will mehr Kompetenzen für den Nachrichtendienst
OpenAI lanciert präziseres Bildgenerierungsmodell
Peoplefone lanciert virtuelle Telefonanlage
Temenos verzeichnet Wachstum und ernennt neuen CFO
Also und Dropbox erweitern Partnerschaft auf sechs EMEA-Märkte
Ontinue ernennt neuen CEO
Ingram Micro sucht neuen Schweiz-Chef