Ob und wann sich gemäss AWS eine lokale KI-Infrastruktur lohnt
Die digitale Souveränität zwingt IT-Verantwortliche zum Umdenken. Auch bei der Nutzung von KI will man die Abhängigkeit von ausländischen Grosskonzernen reduzieren. Wann sich eine lokale KI-Infrastruktur lohnt und was es beim Aufbau zu beachten gilt, sagt Christoph Schnidrig, Head of Technology bei AWS.
In welchen Szenarien ist der Betrieb von KI-Anwendungen On-Premises oder in lokalen Rechenzentren sinnvoller als die Nutzung grosser internationaler Anbieter?
Christoph Schnidrig: Lokaler Betrieb ist dort sinnvoll, wo Millisekunden entscheiden, etwa bei der Echtzeit-Qualitätskontrolle in der Fertigung. AWS Outposts ermöglicht ein lokales Deployment der Server. Mit der Region in der Schweiz erfüllen wir regulatorische Anforderungen direkt in der Cloud.
Ist es realistisch und sinnvoll, KI-Anwendungen für Unternehmenslösungen komplett lokal zu betreiben?
Für die meisten Unternehmen ist das weder realistisch noch wirtschaftlich. Lokale Hardware veraltet schneller, als der ROI erreicht wird. Cloud-Plattformen liefern sofort einsatzbereite, sichere KI-Services ohne Infrastrukturaufwand.
Was ist essenziell beim Aufbau einer lokalen KI-Infrastruktur?
Drei Aspekte sind entscheidend: Erstens braucht es eine Datenstrategie, die eine Cloud-Anbindung für Analytics und Inferenz ermöglicht. Zweitens muss die GPU-Kapazität effizient genutzt werden: Serverless- und tokenbasierte Modelle helfen, Kosten zu optimieren. Drittens braucht es konsistente Security- und Governance-Kontrollen über Cloud und On-Premises hinweg. KI erhöht zudem die Bedrohungslage, aber die Cloud hilft beispielsweise mit Post-Quantum-Verschlüsselung.
Nach welchen Kriterien sollte man zwischen Standard-KI-Modellen und massgeschneiderten Lösungen entscheiden, um den ROI zu maximieren?
Fertige KI-Lösungen für die Produktivität und Softwareentwicklung liefern sofort einen Mehrwert. Für massgeschneiderte Anwendungen bieten Plattformen wie Amazon Bedrock schnellen Zugang zu über 100 Modellen, inklusive Werkzeugen für Agentic AI, mit denen Unternehmen autonome KI-Agenten entwickeln können. Wichtig: Kundendaten werden dabei explizit nicht zum Training der Modelle verwendet.
Welche Chancen ergeben sich dadurch für Reseller und Systemintegratoren?
AWS-Partner erzielen typischerweise das Siebenfache ihrer AWS-Kosten durch Dienstleistungen. Die Chancen: Beratung, Implementierung und Managed KI-Services. Partner mit regulatorischem Know-how und technischer Tiefe sind besonders gefragt.
Welche Entwicklungen in den Bereichen KI-Infrastruktur oder Datenstrategie sollten IT-Partner jetzt im Blick behalten, um in den nächsten Jahren wettbewerbsfähig zu bleiben?
Ich sehe drei Trends: Erstens Agentic AI, also autonome KI-Agenten, die eigenständig Aufgaben erledigen. Für Entwickler und IT-Fachleute heisst das: Wer heute KI-Automatisierung in seinen Alltag integriert, baut entscheidendes Know-how auf. Zweitens spezialisierte KI-Chips wie AWS Trainium, die die Trainingskosten senken. Drittens wird die Datenstrategie wichtiger als die Modellwahl. Wer die richtigen Daten-Pipelines aufbaut, gewinnt.
Die Antworten der weiteren Teilnehmenden des Podiums:
- Daniel Bachofner, Netapp: "Vollständig lokal ist technisch möglich, aber selten optimal."
- Massimo Fumagalli, VAR Group: "Entscheidend sind klare Governance, Compliance und Schulung, um KI sicher und wirksam einzusetzen."
- Daniel Henneke, HPE: "Häufig ist eine Hybrid- oder Edge-First-Lösung vorteilhafter."
- Steffen Märkl, Cloudera: "Private AI ist keine Frage des Standorts allein, sondern eine Architekturentscheidung."
- Romano Roth, Zühlke: "Reine Ideologie in die eine oder andere Richtung ist selten wirtschaftlich."
- Roland Stritt, Fast LTA: "Wer lokal inferiert, entscheidet selbst, wer welche Antworten bekommt."
- Dominik Wotruba, Red Hat: "Komplett lokale KI-Anwendungen sind gut machbar bei Inferenz mit vortrainierten Modellen."
Abonnieren Sie jetzt den Newsletter des "IT-Markt", der Info-Drehscheibe für den Schweizer IT-Channel und verpassen Sie keine News mehr. Der Newsletter liefert Ihnen täglich die relevanten Meldungen für die Entscheider im Schweizer IT-Channel - vom Reseller über den Systemintegrator bis zum Disti.
Ingram Micro sucht neuen Schweiz-Chef
OpenAI lanciert präziseres Bildgenerierungsmodell
Temenos verzeichnet Wachstum und ernennt neuen CFO
Update: Nationalratskommission will mehr Kompetenzen für den Nachrichtendienst
Ontinue ernennt neuen CEO
Peoplefone lanciert virtuelle Telefonanlage
Also und Dropbox erweitern Partnerschaft auf sechs EMEA-Märkte
Jeder hat seine Talente, manche sind ... spezieller als andere
Die neue Printausgabe des "IT-Markt" ist da