Apertus – ein vollständig offenes, transparentes und mehrsprachiges Sprachmodell
Die EPFL, die ETH Zürich und das Schweizer Supercomputing-Zentrum CSCS haben Apertus veröffentlicht: das erste umfangreiche, offene und mehrsprachige Sprachmodell aus der Schweiz. Damit setzen sie einen Meilenstein für eine transparente und vielfältige generative KI.

Im Juli haben EPFL, ETH Zürich und das CSCS bekannt gegeben, dass sie gemeinsam ein grosses Sprachmodell (Large Language Model, LLM) entwickeln. Nun ist dieses Modell verfügbar. Es dient als Grundlage, auf der Entwickler und Organisationen künftige Anwendungen – wie Chatbots, Übersetzungssysteme oder digitale Lernwerkzeuge – aufbauen können.
Der Name des Modells ist Apertus – lateinisch für offen. Er betont ein wesentliches Merkmal des Modells: Der gesamte Entwicklungsprozess, einschliesslich Architektur, Modellgewichten sowie Trainingsdaten und -methoden, ist frei zugänglich und umfassend dokumentiert.
Für KI-Forschende, Fachpersonen und erfahrene User ist das Modell entweder über die strategische Partnerin Swisscom zugänglich oder sie können es über die Plattform Hugging Face – eine Plattform für KI-Modelle und -Anwendungen – herunterladen und für eigene Projekte einsetzen.
Apertus steht in zwei frei verfügbaren Modellgrössen bereit – mit 8 Milliarden sowie mit 70 Milliarden Parametern. Die kleinere Variante eignet sich besonders für eine individuelle Nutzung. Beide Modelle werden unter einer permissiven, das heisst nutzungsfreundlichen Open-Source-Lizenz veröffentlicht. Diese lässt einen Gebrauch in Bildung und Forschung ebenso zu wie breite gesellschaftliche und wirtschaftliche Anwendungen.
Ein vollständig offenes LLM
Als vollständig offenes Sprachmodell ermöglicht es Apertus Forschenden, Fachpersonen und erfahrenen Usern, dass sie auf dem Modell aufbauen, es an ihre individuellen Bedürfnisse anpassen sowie jeden Teil des Trainingsprozesses transparent nachvollziehen können. Damit unterscheidet sich Apertus deutlich von Modellen, bei denen nur ausgewählte Komponenten zugänglich sind.
"Mit dieser Veröffentlichung möchten wir ein Musterbeispiel dafür geben, wie sich ein vertrauenswürdiges, souveränes und inklusives KI-Modell bauen lässt", sagt Martin Jaggi, Professor für Maschinelles Lernen an der EPFL und Mitglied des Steering Committees der Swiss AI Initiative. Das Modell wird regelmässig vom Entwicklungsteam aktualisiert, dem spezialisierte Engineers sowie zahlreiche Forschende von CSCS, ETH Zürich und EPFL angehören.
Impulsgeber für Innovationen
Mit ihrem offenen Ansatz betreten EPFL, ETH Zürich und CSCS Neuland. "Apertus ist kein klassischer Technologietransfer von der Forschung zum Produkt. Vielmehr verstehen wir das Modell als Impulsgeber für Innovationen und als Mittel zum Ausbau der KI-Expertise in Forschung, Gesellschaft und Wirtschaft", sagt Thomas Schulthess, Direktor des CSCS und Professor an der ETH Zürich. Ihrer Tradition folgend stellen EPFL, ETH Zürich und CSCS Basis-Technologie und Infrastruktur bereit, um Innovationen in der Wirtschaft zu ermöglichen.
Apertus wurde auf 15 Billionen Worteinheiten (engl. Tokens) aus über 1000 Sprachen trainiert – 40 Prozent der Daten sind nicht-englischsprachig . Damit umfasst Apertus zahlreiche Sprachen, die in bisherigen LLMs untervertreten sind, darunter Schweizerdeutsch, Rätoromanisch und viele andere.
"Apertus wurde als Beitrag zum Gemeinwohl entwickelt. Es gehört zu den wenigen vollständig offenen LLMs in dieser Grössenordnung und ist das erste seiner Art, das Mehrsprachigkeit, Transparenz und Compliance als grundlegende Designprinzipien vereint", sagt Imanol Schlag, technischer Leiter des LLM-Projekts und Research Scientist an der ETH Zürich.
"Swisscom ist stolz darauf, zu den ersten zu gehören, die dieses wegweisende Sprachmodell einsetzen – auf unserer souveränen Swiss AI Platform. Als strategische Partnerin der Swiss AI Initiative unterstützen wir den Zugang zu Apertus während der Swiss-AI-Weeks. Damit unterstreichen wir unser Engagement für ein sicheres und verantwortungsvolles KI-Ökosystem, das dem Gemeinwohl dient und die digitale Souveränität der Schweiz stärkt", sagt Daniel Dobos, Research Director bei Swisscom.
Zugänglichkeit von Apertus
Die Einrichtung von Apertus gestaltet sich für Fachpersonen und versierte User unkompliziert. Für den praktischen Einsatz sind jedoch zusätzliche Komponenten wie Server, Cloud-Infrastruktur oder spezifische Benutzeroberflächen erforderlich. Die bevorstehenden Hackathons im Rahmen der Swiss-AI-Weeks bieten erstmals die Gelegenheit, Apertus praktisch auszuprobieren, seine Leistungsfähigkeit zu testen und Feedback für die Weiterentwicklung zukünftiger Versionen zu geben.
Swisscom stellt den Hackathon-Teilnehmenden eine speziell entwickelte Schnittstelle zur Verfügung, die das Arbeiten mit dem Modell erleichtert. Ab sofort haben Geschäftskunden von Swisscom Zugriff auf das Apertus-Modell über die souveräne Swiss AI Platform von Swisscom.
Für Personen ausserhalb der Schweiz wird Apertus ausserdem über die Public AI Inference Utility zugänglich sein – als Teil einer globalen Bewegung für öffentliche KI.
"Derzeit ist Apertus das führende öffentliche KI-Modell: ein Modell, entwickelt von öffentlichen Institutionen im Dienste des Gemeinwohls. Es ist der bislang stärkste Beweis dafür, dass künstliche Intelligenz eine öffentliche Infrastruktur sein kann – wie Autobahnen, Wasserleitungen oder Stromnetze", sagt Joshua Tan, Hauptverantwortlicher der Public AI Inference Utility.
Transparenz und Compliance
Apertus setzt ganz auf Transparenz – um die Reproduzierbarkeit des Trainingsprozesses zu gewährleisten. Neben dem Modell selbst hat das Forschungsteam verschiedene Unterlagen veröffentlicht: eine umfassende Dokumentation, den Quellcode des Trainingsprozesses sowie der verwendeten Datensätze, die Modellgewichte inklusive der Zwischenstände des Trainingsprozesses (sogenannter "Intermediate Checkpoints") – und alles unter einer permissiven, nutzungsfreundlichen Open-Source-Lizenz, die auch kommerzielle Nutzung erlaubt. Die Nutzungsbedingungen sind auf Hugging Face abrufbar.
Die Entwicklung von Apertus erfolgte unter Berücksichtigung der Schweizer Datenschutzgesetze, des Schweizer Urheberrechts und der Transparenzanforderungen der EU-KI-Verordnung (EU AI Act). Ein besonderes Augenmerk wurde auf Datenintegrität und ethische Standards gelegt: Das Trainingskorpus beruht ausschliesslich auf Daten, die öffentlich zugänglich sind. Diese wurden gefiltert, um maschinenlesbare Opt-out-Hinweise von Websites – auch rückwirkend – zu respektieren sowie personenbezogene Daten zu entfernen und andere unerwünschte Inhalte vor Beginn des Trainings auszuschliessen.
Am Anfang einer langen Reise
"Apertus zeigt, dass generative KI sowohl leistungsfähig als auch offen sein kann", sagt Antoine Bosselut, Professor und Leiter des Natural Language Processing Laboratory der EPFL und Co-Leiter der Swiss AI Initiative. "Die Veröffentlichung von Apertus ist kein Endpunkt, sondern der Beginn einer Reise – ein langfristiges Engagement für offene, vertrauenswürdige und souveräne KI-Grundlagen für das weltweite Gemeinwohl. Wir freuen uns darauf zu sehen, wie Entwicklerinnen und Entwickler beim Hackathon der Swiss-AI-Weeks mit dem Modell arbeiten. Ihre Kreativität und ihr Feedback helfen uns dabei, zukünftige Versionen des Modells zu verbessern."
Zukünftige Versionen sollen die Modellfamilie erweitern, die Effizienz steigern und spezifische Anpassungen für Fachbereiche wie Recht, Gesundheit oder Bildung ermöglichen. Sie sollen auch neue Funktionen integrieren und zugleich die hohen Anforderungen an die Transparenz wahren.
Über Apertus und die Swiss AI Initiative
Apertus wurde im Rahmen der Swiss AI Initiative entwickelt, die von der EPFL und der ETH Zürich geleitet wird. Das Modell ist das Ergebnis eines gemeinsamen Efforts von Forschenden, Engineers sowie Studierenden aus der ganzen Schweiz – unterstützt durch die technische Infrastruktur und das Know-how des Schweizerischen Supercomputing-Zentrums CSCS.
Diese gebündelte Expertise aus verschiedenen Institutionen und Disziplinen hat die Entwicklung von Apertus ermöglicht.
Über die Finanzierung und strategische Partnerschaft
Die Entwicklung des Large Language Models sowie die Forschungsarbeiten zu themenspezifischen Basismodellen werden durch eine Investition von über 10 Millionen GPU-Stunden auf dem Supercomputer Alps des Swiss National Supercomputing Centre (CSCS) sowie durch den ETH-Rat finanziert – das strategische Führungs- und Aufsichtsorgan des ETH-Bereichs, zu dem ETH Zürich, EPFL, WSL, PSI, Empa und Eawag gehören. Diese Finanzierung wird ergänzt durch Beiträge strategischer Partner, namentlich der Swisscom.
Bereits Ende 2023 stellte die EPFL übrigens ein Open Source LLM speziell für Medizinfachkräfte vor - mehr dazu lesen Sie hier.

Telko-Rankings: Die Grossen schwächeln, die Kleinen punkten

Microsoft lanciert seine ersten eigenen KI-Modelle

Darum sind Zeilenschaltungen für Git ein Cybersecurity-Problem

Faigle ernennt neuen CSO

Vom schweren Weg zur digitalen Souveränität

TD Synnex und Qlik erschliessen DACH-Markt

Swissquote fördert Cybersecurity-Forschung an der ETH Zürich

BenQ lanciert 4k-Laserprojektor für immersive Ausstellungsräume

Apertus – ein vollständig offenes, transparentes und mehrsprachiges Sprachmodell
