Christoph Schnidrig im Podium

Ob und wann sich gemäss AWS eine lokale KI-Infrastruktur lohnt

Uhr
von Coen Kaat

Die digitale Souveränität zwingt IT-Verantwortliche zum Umdenken. Auch bei der Nutzung von KI will man die Abhängigkeit von ausländischen Grosskonzernen reduzieren. Wann sich eine lokale KI-Infrastruktur lohnt und was es beim Aufbau zu beachten gilt, sagt Christoph Schnidrig, Head of Technology bei AWS.

Christoph Schnidrig, Head of Technology, AWS. (Source: zVg)
Christoph Schnidrig, Head of Technology, AWS. (Source: zVg)

In welchen Szenarien ist der Betrieb von KI-Anwendungen On-Premises oder in lokalen Rechenzentren sinnvoller als die Nutzung grosser internationaler Anbieter?

Christoph Schnidrig: Lokaler Betrieb ist dort sinnvoll, wo Millisekunden entscheiden, etwa bei der Echtzeit-Qualitätskontrolle in der Fertigung. AWS Outposts ermöglicht ein lokales Deployment der Server. Mit der Region in der Schweiz erfüllen wir regulatorische Anforderungen direkt in der Cloud.

Ist es realistisch und sinnvoll, KI-Anwendungen für Unter­nehmenslösungen komplett lokal zu betreiben?

Für die meisten Unternehmen ist das weder realistisch noch wirtschaftlich. Lokale Hardware veraltet schneller, als der ROI erreicht wird. Cloud-Plattformen liefern sofort einsatzbereite, ­sichere KI-Services ohne Infrastrukturaufwand.

Was ist essenziell beim Aufbau einer lokalen KI-Infrastruktur?

Drei Aspekte sind entscheidend: Erstens braucht es eine Datenstrategie, die eine Cloud-Anbindung für Analytics und Inferenz ermöglicht. Zweitens muss die GPU-Kapazität effizient genutzt werden: Serverless- und tokenbasierte Modelle helfen, Kosten zu optimieren. Drittens braucht es konsistente Security- und Governance-Kontrollen über Cloud und On-Premises hinweg. KI erhöht zudem die Bedrohungslage, aber die Cloud hilft beispielsweise mit Post-Quantum-Verschlüsselung.

Nach welchen Kriterien sollte man zwischen Standard-KI-Modellen und massgeschneiderten Lösungen entscheiden, um den ROI zu maximieren?

Fertige KI-Lösungen für die Produktivität und Softwareentwicklung liefern sofort einen Mehrwert. Für massgeschneiderte Anwendungen bieten Plattformen wie Amazon Bedrock schnellen Zugang zu über 100 Modellen, inklusive Werkzeugen für Agentic AI, mit denen Unternehmen autonome KI-Agenten entwickeln können. Wichtig: Kundendaten werden dabei explizit nicht zum Training der Modelle verwendet.

Welche Chancen ergeben sich dadurch für Reseller und Systemintegratoren? 

AWS-Partner erzielen typischerweise das Siebenfache ihrer AWS-Kosten durch Dienstleistungen. Die Chancen: Beratung, Implementierung und Managed KI-Services. Partner mit regulatorischem Know-how und technischer Tiefe sind besonders gefragt.

Welche Entwicklungen in den Bereichen KI-Infrastruktur oder Datenstrategie sollten IT-Partner jetzt im Blick behalten, um in den nächsten Jahren wettbewerbsfähig zu bleiben?

Ich sehe drei Trends: Erstens Agentic AI, also autonome KI-Agenten, die eigenständig Aufgaben erledigen. Für Entwickler und IT-Fachleute heisst das: Wer heute KI-Automatisierung in seinen Alltag integriert, baut entscheidendes Know-how auf. Zweitens spezialisierte KI-Chips wie AWS Trainium, die die Trainingskosten senken. Drittens wird die Datenstrategie wichtiger als die Modellwahl. Wer die richtigen Daten-Pipelines aufbaut, gewinnt.

 

Die Antworten der weiteren Teilnehmenden des Podiums:

 

Abonnieren Sie jetzt den Newsletter des "IT-Markt", der Info-Drehscheibe für den Schweizer IT-Channel und verpassen Sie keine News mehr. Der Newsletter liefert Ihnen täglich die relevanten Meldungen für die Entscheider im Schweizer IT-Channel - vom Reseller über den Systemintegrator bis zum Disti.

 

 

Webcode
5RiwsTFM