Welches KI-Modell der Welt wurde auf 100.000 Huawei-Chips trainiert – und ist trotzdem kostenlos nutzbar? Die Antwort lautet GLM-5. Während europäische Unternehmen diskutieren, wie stark sie von amerikanischer KI-Hardware abhängig sein wollen, hat das chinesische Unternehmen Zhipu AI am 11. Februar 2026 still und leise ein Signal gesetzt: Frontier-KI soll laut Herstellerangaben auch ohne NVIDIA H100 möglich sein.
Das GLM-5 ist kein reines China-Thema. Es ist ein Weckruf für alle, die sich Gedanken über souveräne KI-Infrastruktur machen – und das sollten europäische Entscheider spätestens seit den US-Exportkontrollen für Hochleistungschips. Dieser Artikel analysiert, was GLM-5 technisch leistet, was die berichtete Huawei-Basis konkret bedeutet und warum das Modell für europäische KI-Strategien relevanter ist, als es auf den ersten Blick scheint.
Was ist GLM-5? Das Wichtigste auf einen Blick
GLM-5 ist das fünfte Großsprachmodell von Zhipu AI – einem Spin-off der Tsinghua-Universität, das 2025 in Z.AI umbenannt wurde und im Januar 2026 an der Hongkonger Börse 558 Millionen US-Dollar einsammelte. Das Unternehmen gehört zu Chinas sogenannten „Sechs KI-Tigern" neben DeepSeek, Moonshot, Baichuan, MiniMax und 01.AI.
Veröffentlicht am 11. Februar 2026, kurz vor dem chinesischen Neujahrsfest, reiht sich GLM-5 mit 744 Milliarden Parametern unter die größten Sprachmodelle der Welt ein. Doch rohe Parameterzahl allein sagt wenig. Entscheidend ist die Architektur dahinter.
Mixture-of-Experts: Groß, aber effizient
GLM-5 nutzt eine spärlich besetzte Mixture-of-Experts-Architektur (MoE) mit 256 Experten-Netzwerken, von denen pro Token jeweils 8 aktiv sind. Das ergibt eine Aktivierungsrate von rund 5,9 Prozent – und damit 44 Milliarden aktive Parameter pro Inferenz statt alle 744 Milliarden gleichzeitig. Das Prinzip: Statt eines monolithischen Netzwerks spezialisieren sich viele kleinere Teilnetzwerke auf unterschiedliche Aufgaben. Das senkt die Rechenkosten pro Anfrage erheblich.
Zudem integriert GLM-5 Multi-head Latent Attention (MLA) und Sparse Attention, was den Speicherbedarf bei der Verarbeitung langer Texte um bis zu 33 Prozent reduziert. Das Kontextfenster umfasst 200.000 Token – ausreichend für umfangreiche Dokumente, Codebasen oder mehrstündige Transkripte.
Das berichtete Detail: Training auf Huawei-Chips – ohne NVIDIA?
Zhipu AI und verschiedene Medienberichte behaupten, GLM-5 sei vollständig auf einem Cluster aus 100.000 Huawei Ascend 910B Chips unter Verwendung des MindSpore-Frameworks trainiert worden – ohne eine einzige amerikanische GPU. Eine formale technische Publikation, die das Training im Detail dokumentiert, steht allerdings noch aus. Einige Beobachter weisen darauf hin, dass Zhipus offizielle Kommunikation vor allem Deployments auf Nicht-NVIDIA-Hardware thematisiert, während die genaue Trainingshardware nicht unabhängig verifiziert wurde.
Sollte die Aussage zutreffen, wäre die strategische Brisanz erheblich: Seit 2022 beschränken die USA den Export von Hochleistungs-KI-Chips nach China. NVIDIA H100 und A100 sind in China faktisch nicht mehr legal beschaffbar. Ein nachgewiesenes Frontier-Scale-Training auf nationaler Hardware wäre ein geopolitisches Signal genauso sehr wie eine technische Leistung – weshalb die ausstehende Verifizierung dieses Claims für die strategische Einordnung wichtig ist.
Welche Chips unterstützt GLM-5 noch?
Unabhängig von der Trainingsfrage hat Zhipu AI GLM-5 auch für weitere nicht-NVIDIA-Chips optimiert: Moore Threads, Cambricon, Kunlun Chip, MetaX, Enflame und Hygon. Durch Kernel-Optimierung und Modell-Quantisierung soll auf diesen Plattformen vertretbarer Durchsatz erreicht werden. Für Inferenz auf NVIDIA-Hardware ist das Modell selbstverständlich ebenfalls verfügbar.
Ein ehrlicher Vorbehalt zur Performance: Die Inferenzgeschwindigkeit auf Huawei-Chips liegt derzeit bei etwa 17 Token pro Sekunde, während NVIDIA H100-Cluster über 25 Token pro Sekunde erreichen. Der Rückstand existiert, ist aber für die meisten Unternehmensanwendungen akzeptabel.
Benchmark-Leistung: Wo GLM-5 steht
GLM-5 gehört nach aktuellem Stand zu den stärksten Open-Source-Modellen weltweit – auch wenn unabhängige, standardisierte Leaderboards für eine abschließende Einordnung noch im Aufbau sind. Auf SWE-bench Verified – dem Standardtest für autonomes Software-Engineering – erreicht GLM-5 77,8 Prozent. Claude Opus 4.5 liegt bei 80,9 Prozent. Das ist ein Abstand von 3,1 Prozentpunkten, was angesichts der alternativen Trainingshardware bemerkenswert nah ist.
Auf dem Humanity's Last Exam – einem der anspruchsvollsten Reasoning-Benchmarks – erreicht GLM-5 50,4 Prozent und liegt damit in mehreren Benchmarks knapp unter oder auf dem Niveau von Spitzenmodellen wie Claude Opus bzw. GPT-5.2. Auf BrowseComp, das agentische Web-Recherche misst, belegt GLM-5 den ersten Platz unter allen Open-Source-Modellen.
Wo die Grenzen liegen
Benchmarks sind keine Garantie für reale Leistung. Eine Stanford-Analyse zeigte, dass chinesische KI-Modelle ihren US-Pendants typischerweise rund sieben Monate hinterherhinken – auch wenn GLM-5 diesen Rückstand erheblich reduziert hat. Praktische Schwächen: Die initiale Time-to-First-Token kann auf öffentlichen APIs über sieben Sekunden betragen, was interaktive Anwendungen verlangsamt. Bei feingranularem CSS-Design und UI-Aufgaben bleibt Claude laut ersten Nutzertests vorn.
Lizenz und Kosten: MIT und deutlich günstiger
GLM-5 ist unter der MIT-Lizenz veröffentlicht – die freizügigste Open-Source-Lizenz überhaupt. Das bedeutet: freie kommerzielle Nutzung, Modifikation, Weitergabe. Die Gewichte sind auf HuggingFace verfügbar.
Beim Preis ist der Abstand erheblich: GLM-5 ist über die API 5 bis 6 Mal günstiger als GPT-5.2 oder Claude Opus 4.6 – laut Zhipu AI bei gleichzeitig rund 95 Prozent der Leistung dieser Modelle. Diese Einschätzung stammt vom Hersteller selbst und ist durch unabhängige Benchmarks bislang nur teilweise bestätigt. Wer hohe Volumen verarbeitet – etwa in der Dokumentenanalyse oder bei Code-Reviews –, kann hier substanziell Kosten senken.
Für den direkten Einstieg: Unter chat.z.ai ist GLM-5 kostenlos ohne Account nutzbar. API-Zugang über OpenRouter und die Zhipu-eigene Plattform.
GLM-5 im Open-Source-Vergleich
GLM-5 ist nicht das einzige ernsthafte Open-Source-Modell auf dem Markt. Ein kurzer Überblick, wo es im Wettbewerb steht:
| Modell | Parameter (gesamt) | Lizenz | Stärken | Besonderheit |
|---|---|---|---|---|
| GLM-5 (Zhipu AI) | 744 Mrd. | MIT | Agentic Tasks, Web-Recherche, Coding | Laut Herstellerangabe ohne NVIDIA trainiert |
| DeepSeek-V3.2 | ~685 Mrd. | MIT | Reasoning, Mathematik | Extrem kosteneffizient, ebenfalls China-Herkunft |
| Qwen3-235B (Alibaba) | 235 Mrd. | Apache 2.0 | Mehrsprachigkeit, DACH-Texte | Stark bei deutschen Inhalten |
| Llama 4 Scout (Meta) | 109 Mrd. (aktiv) | Llama-Lizenz* | Multimodal, US-Ökosystem | Breite Community, viele Integrationen |
*Llama 4 erlaubt kommerzielle Nutzung, enthält aber Nutzungsbeschränkungen ab 700 Mio. monatlichen Nutzern.
GLM-5 führt diese Gruppe aktuell bei agentischen Aufgaben und Web-Recherche an. DeepSeek-V3.2 ist der schärfste Konkurrent im Preis-Leistungs-Bereich. Qwen3 ist die erste Wahl, wenn deutschsprachige oder mehrsprachige Ausgaben Priorität haben. Llama 4 punktet mit dem breiten US-Ökosystem und der Community-Reife.
Was bedeutet das für europäische Unternehmen?
Anwendungsfall 1: Kostengünstige Code-Analyse in großem Maßstab
Ein mittelständisches Softwareunternehmen, das täglich Tausende Pull Requests auf Sicherheitslücken prüfen lässt, zahlt mit GLM-5 über die API einen Bruchteil der Kosten vergleichbarer proprietärer Dienste. Die MIT-Lizenz erlaubt Finetuning auf eigenen Codestilen und interne Auslieferung ohne Lizenzgebühren. Wer DSGVO-Konformität benötigt, muss aber die Datenpfade prüfen – API-Calls gehen an Zhipus Server.
Anwendungsfall 2: Evaluation für eine souveräne On-Premise-KI
Ein europäischer Konzern, der aus Compliance-Gründen keine Cloud-KI einsetzen darf, steht vor der Frage: Welches Frontier-Modell kann ich intern betreiben? GLM-5 ist technisch eine valide Option – open weights, MIT-Lizenz, NVIDIA-kompatibel. Die Mindestanforderung für Selbst-Hosting: acht A100-GPUs mit je 80 GB VRAM. Das ist substantiell, für Unternehmensinfrastruktur aber nicht ungewöhnlich.
⚠️ Risiken & offene Fragen für Compliance-Teams
Wer GLM-5 ernsthaft evaluiert, sollte folgende Punkte intern klären, bevor ein Rollout entschieden wird:
- Herkunft und politische Einbettung: Zhipu AI ist ein chinesisches Unternehmen mit enger Verbindung zur Tsinghua-Universität und staatlich geförderten Investoren. Das ist kein Ausschlusskriterium, aber ein relevanter Kontext für die Risikobewertung – besonders in regulierten Branchen (Finanzen, Gesundheit, Rüstungszulieferer).
- Datenschutz bei API-Nutzung: Wer GLM-5 über die Z.ai-API oder OpenRouter nutzt, sendet Anfragen an Server außerhalb der EU. Das ist für viele Anwendungsfälle DSGVO-relevant. On-Premise-Betrieb mit eigenen Gewichten umgeht dieses Problem, erfordert aber erhebliche Hardware-Investitionen.
- Rechtliche Rahmenbedingungen: Für Unternehmen in regulierten Sektoren kann allein die Herkunft eines Modells zu Compliance-Risiken führen – unabhängig vom technischen Deployment. Juristische Prüfung empfohlen, besonders im Kontext des EU AI Acts.
- Modellstabilität und Support: GLM-5 ist erst seit Februar 2026 öffentlich verfügbar. Es gibt noch keine belastbare Datenbasis zu Langzeitstabilität, API-Ausfallraten oder der Qualität des Enterprise-Supports. Community-getriebener Support (GitHub, Discord) ist kein Ersatz für SLAs.
- Trainingsdetails nicht unabhängig verifiziert: Zhipu AI hat weder die Trainingsdaten noch die Trainingshardware durch eine formale technische Publikation belegt. Für Anwendungen, bei denen Transparenz regulatorisch oder ethisch gefordert wird, ist das ein offener Punkt.
Geopolitik trifft KI-Strategie: Was Europa daraus lernen kann
Die eigentliche Lehre aus GLM-5 ist nicht, dass man es sofort einsetzen muss. Selbst wenn der Huawei-Training-Claim noch der unabhängigen Verifikation harrt, sendet das Modell ein klares Signal: Die Abhängigkeit von amerikanischen Chips ist keine technische Naturgegebenheit – zumindest nicht auf der Deployment-Seite, möglicherweise bald auch nicht mehr beim Training.
Für europäische Entscheider wirft das konkrete Fragen auf: Wie diversifiziert ist unsere eigene KI-Infrastruktur? Was passiert, wenn US-Exportkontrollen eines Tages auch Europa betreffen oder NVIDIA-Preise explodieren? Initiativen wie Europas IPCEI Mikroelektronik oder die Investitionen in europäische KI-Rechenzentren gewinnen durch Chinas Huawei-Demonstration an strategischer Dringlichkeit.
Fazit: Starkes Modell, wichtige Signalwirkung – mit Vorbehalten
GLM-5 gehört zu den derzeit stärksten Open-Source-Großsprachmodellen – verfügbar unter MIT-Lizenz, deutlich günstiger als die westlichen Marktführer und in mehreren Benchmarks knapp unter Spitzenmodellen wie Claude Opus bzw. GPT-5.2. Ob das Training tatsächlich vollständig ohne NVIDIA stattfand, ist bislang nicht formal belegt; die Signalwirkung des Modells für Hardware-Unabhängigkeit bleibt dennoch relevant.
Für europäische Unternehmen ergibt sich folgendes Bild: Als Kostensenkung bei API-basierten High-Volume-Anwendungen ist GLM-5 heute schon prüfenswert – wobei die Leistungsangaben des Herstellers mit eigenen Tests validiert werden sollten. Als On-Premise-Lösung für sensible Daten erfordert es eine sorgfältige Compliance-Prüfung. Als strategisches Signal für die eigene Infrastrukturplanung ist es schlicht nicht ignorierbar.
Empfehlung: Testen Sie GLM-5 kostenlos auf chat.z.ai für unstrukturierte Aufgaben wie Recherche, Textzusammenfassung oder Code-Review. Evaluieren Sie die API-Kosten im Vergleich zu Ihrer aktuellen Lösung. Klären Sie intern die Compliance-Fragen anhand der Risikocheckliste oben. Und diskutieren Sie, was das Modell – unabhängig von noch offenen Verifikationsfragen – für Ihre eigene KI-Infrastrukturstrategie bedeutet.





