Einblicke in den AI+X Summit 2025

KI zwischen menschlicher Kontrolle und Vertrauen

Uhr
von Dylan Windhaber und cbi

Am AI+X Summit in Zürich hat die Schweizer KI-Community nicht über Hypes, sondern über konkrete Anwendungen und Herausforderungen diskutiert: von Mensch-KI-Zusammenarbeit über kulturelle und organisatorische Transformation bis hin zu vertrauenswürdiger Daten- und Systemnutzung.

Am 2. Oktober fand der fünfte AI+X Summit in Zürich statt. (Source: Bo Yann / ETH AI Center)
Am 2. Oktober fand der fünfte AI+X Summit in Zürich statt. (Source: Bo Yann / ETH AI Center)

Zum fünften Mal in Folge hat der AI+X Summit in Zürich Oerlikon stattgefunden. Am Donnerstagmorgen versammelten sich zahlreiche Personen der KI-Community. Wer bereits zum Auftakt der Keynotes dabei sein wollte, musste früh aufstehen - denn die Schlange zum Einlass war lang. Trotz der eisigen Kälte kamen zahlreiche Fachleute aus Unternehmen, Start-ups und der Forschung zusammen, um Teil eines der wichtigsten Treffen der KI-Szene in der Deutschschweiz zu sein.

Zürich diskutierte am Summit jedoch nicht über den Hype rund um KI, sondern über konkrete Hausaufgaben wie die Frage, wie wir KI-Systeme bauen, die in Verwaltungen, Unternehmen und humanitären Einsätzen funktionieren - ohne Daten abgleiten zu lassen. Die Schweiz positionierte sich dabei klar als Brückenbauerin zwischen Technik und Governance.

Globale KI-Governance made in Switzerland

Gleich nach dem Auftakt rückte Katharina (Nina) Frey Bossoni, Geschäftsführerin bei Icain an der ETH Zürich sowie Senior Advisor für KI und neue Technologien am EDA, den Kompass gerade: Genf beispielsweise spiele "längst eine zentrale Rolle in der globalen KI-Governance". In der Westschweizer Stadt bündeln sich einige der wichtigsten internationalen Organisationen wie die WIPO (World Intellectual Property Organization) oder Standardisierungsorganisationen wie die ISO (International Organization for Standardization) oder IEC (International Electrotechnical Commission) - ein Fakt, "der in der diffusen Rede von 'es gibt keine Governance' oft vergessen geht". 

Nina Frey Bossoni

Katharina Frey Bossoni sprach über Schatten-KI und die Rolle der Schweiz in Sachen KI. (Source: Bo Yann / ETH AI Center)

Inhaltlich warnte Frey Bossoni vor dem Offensichtlichen, das viele noch verdrängen würden: "Das grosse Risiko ist Schatten-KI." Solange es keine internen Workflows gebe, landen sensible Daten schnell in öffentlichen Tools, sagte sie. Frey Bossonis strategische Forderung: Wahlfreiheit und digitale Souveränität - "Wollen wir uns nur auf US- oder chinesische Produkte verlassen?" Ihr Bild für die Zukunft: "Eine Art Mozilla-Variante oder Chat-Welt-Variante, die Länder, Organisationen und Institutionen frei wählen - und direkt an ihre Daten koppeln können."

Darüber hinaus betonte Frey Bossoni die Rolle der Schweiz: Auch wenn das Land klein sei, habe es eine starke Ausgangsposition, um international mitzuwirken und Standards für vertrauenswürdige KI zu setzen. Dabei gehe es nicht nur darum, "wie wir KI in unserem Alltag nutzen können, sondern wie sie konkret in Unternehmen und Verwaltungen angewendet wird."

Mehr Intelligenz führt zu mehr Leiden

Der zweite Keynote-Tonus kam aus der Theorie - und landete trotzdem mitten im Alltag. Aapo Hyvärinen, Professor für Informatik an der Universität Helsinki, nutzt KI als Modell für den menschlichen Geist und definiert mentales Leiden als Frustration: "Leiden basiert im Wesentlichen auf Frustration. Ich definiere dies auf zwei Arten: Zum einen, ein Ziel nicht zu erreichen, und zum anderen, die erwartete Belohnung nicht zu erhalten." Ob Computer Bewusstsein haben oder Leiden empfinden können, hält er für nebensächlich: Entscheidender sei die Informationsverarbeitung. Ähnlich wie bei Aufgaben der Computer Vision, bei denen Algorithmen Bilder analysieren, müsse man kein Bewusstsein nachweisen, um die zugrundeliegenden Mechanismen zu verstehen, erklärte Hyvärinen.

Aapo Hyvärinen

Aapo Hyvärinen sprach darüber, was uns KI über menschliches Leiden sagen kann. (Source: Netzmedien)

Hyvärinens Zwischenfazit: "Mehr Intelligenz kann mehr Leiden bedeuten" - etwa, wenn Systeme künftige Frustration antizipieren oder Vergangenes ständig simulieren. Aus der Theorie leitete er pragmatisch ab: Erwartungen bewusst senken, Unkontrollierbarkeit akzeptieren. Laut Hyvärinen sei nun die nächste wichtige Frage, "wie sich diese Theorie konkret in Unternehmen und Verwaltungen anwenden lässt".

Von Daten zu Vertrauen

Die anschliessende Panelrunde brachte die Spannung zwischen Machbarkeit und Verantwortung auf die Bühne. Für Menna El-Assady, Assistenzprofessorin für Informatik an der ETH Zürich, führt der Weg über echte Mensch-KI-Partnerschaft. Dabei gehe es vor allem um die Frage: "Wann soll ein Mensch eingreifen, wann kann KI selbst handeln?" El-Assady erklärte, dass Mensch-KI-Systeme als gemischt-initiatives Ökosystem gedacht werden, in dem situationsabhängig entschieden wird, ob KI oder Mensch eingreift. 

Auch Sina Wulfmeyer, Chief Data Officer bei Unique, betonte die menschliche Dimension: "Wir müssen unterscheiden, was technisch möglich ist - und was Menschen in einer bestimmten Situation tatsächlich tun wollen oder können." Automatisieren lasse sich vieles, doch entscheidend bleibe, dass die Menschen die Kontrolle behalten. Fruzsina Homolka, Chief Data Officer bei der SRG, rückte die kulturelle Dimension in den Vordergrund: "Die grösste Herausforderung ist nicht die Technologie, sondern der organisatorische und kulturelle Wandel." KI müsse in das Unternehmen eingebettet werden, nicht bloss in die IT - genau hier scheiterten viele Transformationen, erklärte sie.

Panelrunde

Die Paneldiskussion am AI+X Summit mit Moderatorin Melanie Gabriel, Sina Wulfmeyer, Chiara Debenedetti, Fruzsina Homolka und Menna El-Assady (v.l.) (Source: Netzmedien)

Auch Chiara Debenedetti, Global Head of Data & Analytics beim Internationalen Komitee vom Roten Kreuz (ICRC), ist der Meinung, dass nicht die Technologie selbst die grösste Hürde darstelle. Wichtiger sei die Frage danach, wie wir Vertrauen schaffen - etwa im Umgang mit Risiken, Propaganda und Fake News. Zugleich betonte Debenedetti die Pflicht der Arbeitgeber, "Mitarbeitende zu schulen und ihnen den Umgang mit den entsprechenden Werkzeugen zu vermitteln".

Abseits der Bühne

Abseits der Referate und Diskussionen bot der Summit Einblicke in aktuelle Projekte und Initiativen. Die Hochschule Luzern (HSLU) stellte den Besucherinnen und Besuchern ihr Applied AI Center vor. Gemäss Cyril Winkler, Master Assistent an der HSLU, sei das Ziel der Hochschule am Summit, zu zeigen, "was wir für Projekte machen und was unsere Forschung leistet." Unter den Projekten befand sich unter anderem eine Simulation des Schweizer Parlaments mit Language Models, bei der man Abstimmungsfragen stellen und die Reaktionen des Parlaments nachvollziehen könne. 

Tim Heinemann, Senior Computational Biologist bei CSEM, betonte die Bedeutung des Austauschs mit der Industrie und den Wert des Summits, um aktuelle Entwicklungen im KI-Bereich zu diskutieren und Partnerschaften zu knüpfen. Zudem sei CSEM Teil dieses Events, um zu sehen, "wo die Needs der Industrie liegen, welche Projekte gerade im wissenschaftlichen Fokus stehen und wie wir uns da ausrichten können".

Ruben Kranendonk von der UZH. (Source: Netzmedien)

Ruben Kranendonk von der UZH. (Source: Netzmedien)

Ruben Kranendonk, Chief Connector von UZH.ai an der Universität Zürich, hob ebenfalls die Bedeutung des Summits für die AI-Community hervor. Gerade weil es viele kleine Initiativen gebe, sei es wichtig, Ressourcen zu bündeln, erklärte er. Solche Events böten zudem die Gelegenheit, Kontakte zu knüpfen, und fungierten als Plattform für den Austausch von Talenten: "Jeder kämpft überall um die besten KI-Expertinnen und -Experten. Wenn man diese Menschen zusammenbringt und vernetzt, schafft man bereits für alle im Ökosystem einen Mehrwert", betonte Kranendonk.

 

Der AI+X Summit war Teil des Zurich AI Festivals. Was sonst noch auf dem Programm stand und steht und was die Veranstalter vom Event erwartet haben, lesen Sie hier. 

Webcode
N36MTiuy