Xiaomi MiMo: Das KI-Modell, das OpenRouter-Charts anführt

Xiaomi MiMo: Das KI-Modell, das OpenRouter-Charts anführt

Table of Contents

Dieser Artikel wurde mit Künstlicher Intelligenz erstellt und redaktionell kuratiert.

⚡ In 30 Sekunden

  • Xiaomi MiMo ist eine Familie großer Sprachmodelle (LLMs), die seit April 2025 aktiv weiterentwickelt wird – vom 7B-Reasoning-Modell bis zum Billion-Parameter-Flaggschiff.
  • Das aktuelle Flaggschiff MiMo-V2.5-Pro verfügt laut Xiaomi über 1,02 Billionen Parameter (42 Milliarden aktive Parameter), ein 1-Millionen-Token-Kontextfenster und Agentic-Fähigkeiten auf Frontier-Niveau.
  • Xiaomi hat MiMo-V2.5-Pro Ende April 2026 unter der MIT-Lizenz open-sourcet – inklusive Gewichte für kommerzielle Nutzung.
  • Auf dem unabhängigen Benchmark SWE-bench Pro erreicht MiMo-V2.5-Pro 57,2 % – gegenüber 53,4 % für Claude Opus 4.6 (Quelle: Build Fast With AI, April 2026). Auf Xiaomis eigenem Benchmark ClawEval verbraucht das Modell laut Hersteller 40–60 % weniger Tokens bei vergleichbarer Qualität.
  • Preise über OpenRouter: $1,00/$3,00 pro Million Input-/Output-Tokens (V2.5-Pro); $0,40/$2,00 (V2.5 Basis). Claude Opus 4.6 kostet zum Vergleich $5,00/$25,00.
  • Marktposition: Xiaomis MiMo-Modelle hielten laut Branchenberichten Anfang April 2026 rund 21 % aller OpenRouter-Traffic-Anteile – dreimal mehr als OpenAI mit 7,5 %.
  • DACH-Relevanz: DSGVO-Konformität erfordert wie bei anderen chinesischen Modellen besondere Aufmerksamkeit – Self-Hosting als sichere Alternative.

Wer bei Xiaomi noch immer ausschließlich an Smartphones denkt, wird von der aktuellen KI-Entwicklung kalt erwischt. Das MiMo-Modell von Xiaomi hielt laut Branchenberichten Anfang April 2026 rund 21 % aller OpenRouter-Traffic-Anteile – dreimal mehr als OpenAI. Die MiMo-Modellfamilie ist in kurzer Zeit von einem 7B-Reasoning-Experiment zu einem vollwertigen, multimodalen KI-Ökosystem gewachsen. Dieser Artikel zeigt, was hinter MiMo steckt, welche Modelle aktuell verfügbar sind und was das für Unternehmen im DACH-Raum bedeutet.

Was ist Xiaomi MiMo?

MiMo ist Xiaomis hauseigene Familie großer Sprachmodelle (Large Language Models). Das erste Modell, MiMo-7B, erschien im April 2025. Es wurde mit Multi-Token-Prediction und Reinforcement Learning trainiert, mit besonderem Fokus auf mathematisches Reasoning und Code-Generierung. Xiaomi nutzt MiMo als zentrales KI-Modell in seinem „Human × Car × Home"-Ökosystem – soll also nicht nur als API-Produkt für Dritte, sondern auch tief in Xiaomis Hardware-Welt integriert werden.

Das Entwicklungsteam wird von Luo Fuli geleitet, die zuvor bei DeepSeek am R1- und V-Series-Modell mitgewirkt hat, bevor sie Ende 2025 zu Xiaomi wechselte. Diese Personalie ist bemerkenswert: DeepSeek gilt als einer der technisch fortschrittlichsten KI-Akteure Chinas.

⚠️ Xiaomis KI-Investitionspläne
Xiaomi-CEO Lei Jun kündigte laut Reuters-Berichten vom März 2026 an, in den folgenden drei Jahren mindestens 8,7 Milliarden US-Dollar in Künstliche Intelligenz zu investieren – die Ankündigung erfolgte unmittelbar nach dem Launch von MiMo-V2-Pro.

Die MiMo-Modellfamilie: Von 7B bis zum Trillion-Parameter-Modell

Die MiMo-Familie hat sich seit dem ersten Release rasant entwickelt. Ein Überblick über die wichtigsten Modelle:

MiMo-7B und MiMo-7B-RL-0530

Das Basismodell MiMo-7B-Base wurde auf ca. 25 Billionen Tokens vortrainiert – Webseiten, wissenschaftliche Arbeiten, Bücher und synthetische Reasoning-Daten. Die RL-Variante MiMo-7B-RL-0530 verbesserte im Mai 2025 die AIME-2024-Mathematikbenchmark-Ergebnisse erheblich und zeigte, dass selbst ein relativ kleines Modell durch gezieltes Reinforcement Learning beeindruckende Reasoning-Fähigkeiten entwickeln kann.

MiMo-VL-7B und MiMo-Audio-7B

MiMo-VL-7B ist ein Vision-Language-Modell, das einen Vision-Transformer-Encoder mit dem MiMo-7B-Backbone kombiniert und in vier Trainingsphasen mit 2,4 Billionen Tokens trainiert wurde. MiMo-Audio-7B ist ein Audio-Sprachmodell für Sprachkonvertierung, Stilübertragung und Sprachbearbeitung.

MiMo-V2-Flash: Effizientes Open-Source-Modell

MiMo-V2-Flash wurde im Dezember 2025 als Open-Source-Mixture-of-Experts-Modell mit 309 Milliarden Gesamtparametern und 15 Milliarden aktiven Parametern veröffentlicht. Es wurde auf 27 Billionen Tokens mit FP8-Mixed-Precision trainiert. Mit bis zu 150 Tokens pro Sekunde Inferenzgeschwindigkeit ist es laut Hersteller deutlich schneller als viele vergleichbare Modelle.

MiMo-V2-Pro und MiMo-V2-Omni

Im März 2026 folgte das proprietäre Flaggschiff. MiMo-V2-Pro hat mehr als 1 Billion Gesamtparameter mit 42 Milliarden aktiven Parametern und einem 1-Millionen-Token-Kontextfenster. Bemerkenswert: Bevor Xiaomi das Modell offiziell ankündigte, erschien es unter dem Codenamen „Hunter Alpha" anonym auf OpenRouter, wo es täglich die Nutzungs-Charts anführte und insgesamt über eine Billion Tokens verarbeitete. Die Enthüllung durch MiMo-Divisionsleiterin Luo Fuli am 18. März 2026 ließ Xiaomis Aktienkurs laut Medienberichten um 5,8 % steigen. Parallel erschien MiMo-V2-Omni, das Bilder, Videos, Audio und Text verarbeiten kann – und ebenfalls zuvor als „Healer Alpha" auf OpenRouter aufgetaucht war.

MiMo-V2.5-Pro: Das aktuelle Flaggschiff (April 2026)

MiMo-V2.5-Pro ist ein 1,02-Billionen-Parameter-Mixture-of-Experts-Modell mit 42 Milliarden aktiven Parametern, aufgebaut auf einer Hybrid-Attention-Architektur mit einem 1-Millionen-Token-Kontextfenster. Das Modell wurde auf 27 Billionen Tokens vortrainiert und nutzt laut Xiaomi supervised Fine-Tuning, Reinforcement Learning, Multi-Teacher On-Policy Distillation und progressives Kontext-Scaling.

Laut Xiaomi kann V2.5-Pro komplexe, langfristige Aufgaben mit mehr als tausend Tool-Aufrufen sustained durchführen. Auf dem unabhängig verfügbaren Benchmark SWE-bench Pro erreicht MiMo-V2.5-Pro 57,2 % gegenüber 53,4 % für Claude Opus 4.6. Auf Xiaomis eigenem Benchmark ClawEval – einem internen Agentic-Coding-Benchmark auf Basis von Frameworks wie Claude Code – verwendet V2.5-Pro laut Hersteller 40–60 % weniger Tokens pro Trajectory als Claude Opus 4.6, GPT-5.4 und Gemini 3.1 Pro (letzteres ist eine von Xiaomi verwendete Modellbezeichnung, die vom Hersteller nicht explizit erläutert wurde).

🔴 Benchmark-Vorbehalt
SWE-bench Pro ist ein unabhängiger Benchmark; der dort genannte Wert von 57,2 % wird von Build Fast With AI (April 2026) und MarkTechPost bestätigt. ClawEval hingegen ist Xiaomis eigener interner Benchmark, kein Industriestandard. Token-Effizienz-Vergleiche auf ClawEval können nicht unabhängig repliziert werden und sollten als Herstellerangabe eingestuft werden.

Open Source: Was Xiaomi freigegeben hat

Xiaomi hat die MiMo-V2.5-Modellfamilie unter der MIT-Lizenz open-sourcet und stellt Modellgewichte, Tokenizer und Modellkarten auf Hugging Face für kommerzielle Nutzung, weiteres Training und Fine-Tuning ohne zusätzliche Genehmigung zur Verfügung. Das bedeutet konkret: Unternehmen können MiMo-V2.5-Pro und MiMo-V2.5 (das 310-Milliarden-Parameter-Omnimodal-Modell) herunterladen und auf eigener Infrastruktur betreiben.

Die Modelle unterstützen Deployment über SGLang und vLLM – zwei der verbreitetsten Open-Source-Inferenz-Engines. Das ist relevant für DACH-Unternehmen, die DSGVO-konforme On-Premise-Lösungen suchen: Eine ähnliche Situation wie bei DeepSeek R1, wo Self-Hosting die DSGVO-konforme Alternative zur Cloud-API darstellt.

Zwei Anwendungsszenarien für DACH-Unternehmen

Szenario 1: Agentic Coding für Entwicklungsteams

MiMo-V2.5-Pro richtet sich laut Xiaomi primär an Coding und Software Engineering in agentischen Frameworks. In einer Demo erstellte das Modell über 1.868 Tool-Aufrufe hinweg in 11,5 Stunden einen funktionierenden Desktop-Video-Editor mit 8.192 Codezeilen – vollständig autonom. In einem weiteren Demo-Test baute V2.5-Pro einen vollständigen RISC-V-Compiler (110/110 Koopa-IR-Tests, 103/103 Backend-Tests) in 4,3 Stunden mit 672 Tool-Aufrufen. Für Entwicklungsteams, die KI-Agenten für Repository-Level-Tasks einsetzen wollen, sind das relevante Referenzpunkte – auch wenn Demo-Ergebnisse von Produktionsbedingungen abweichen können.

Vergleichbar ist das Modell mit dem in unserem Artikel zu Qwen3.6-27B beschriebenen Ansatz: Open-Weight-Modelle nähern sich proprietären Frontier-Systemen bei Coding-Tasks.

Szenario 2: Multimodale Unternehmensanwendungen

MiMo-V2.5 (das Basismodell) verarbeitet nativ Bilder, Videos, Audio und Text in einem einzigen Modell. Es läuft mit 100–150 Tokens pro Sekunde und kostet $0,40/$2,00 pro Million Input-/Output-Tokens – damit deutlich günstiger als das Pro-Modell, für viele Produktions-Agent-Pipelines aber ausreichend. Für Unternehmen, die einen einzelnen Modell-Endpunkt für verschiedene Medientypen suchen, reduziert das die Architektur-Komplexität erheblich.

API-Zugang und Preisgestaltung

Modell Input ($/1M Tokens) Output ($/1M Tokens) Tokens/Sekunde Kontextfenster
MiMo-V2.5-Pro $1,00 $3,00 60–80 1 Million
MiMo-V2.5 (Basis) $0,40 $2,00 100–150 1 Million
Claude Opus 4.6 (Vergleich) $5,00 $25,00 200.000
Preise laut OpenRouter (Stand April 2026). USD-Preise; EUR-Äquivalent variiert je nach Wechselkurs. Alle Preise ohne MwSt.

Beide Modelle sind über Xiaomis eigene API-Plattform sowie über OpenRouter verfügbar und nutzen OpenAI-kompatible Endpunkte – ein Wechsel erfordert laut Xiaomi nur eine Anpassung der Base-URL und des Modellnamens. Wie bei Qwen3.6 Plus sind für Unternehmenseinsatz über externe Plattformen Compliance-Checks erforderlich.

DACH-Compliance: Was Unternehmen prüfen müssen

🔴 Compliance-Checkliste für DACH-Unternehmen

  • DSGVO Art. 46 (Drittstaatentransfer): Xiaomis API-Infrastruktur liegt in China. Für personenbezogene Daten oder sensible Unternehmensdaten ist die API-Nutzung ohne geeignete Garantien problematisch. China verfügt über keine EU-Angemessenheitsentscheidung nach Art. 45 DSGVO.
  • Self-Hosting als Alternative: Die MIT-Lizenz erlaubt On-Premise-Betrieb auf eigener EU-Infrastruktur. Das eliminiert den Drittlands-Transfer. Hardwareanforderungen für MiMo-V2.5-Pro sind erheblich (Trillion-Parameter-Modell); MiMo-V2-Flash (309B/15B aktiv) ist die praktikablere Self-Hosting-Option.
  • EU AI Act: MiMo ist ein General-Purpose-AI-Modell (GPAI). Bei Einsatz in Hochrisiko-Anwendungen (HR, Kredit, kritische Infrastruktur) gelten die Dokumentationspflichten des EU AI Acts ab August 2026 vollständig.
  • BetrVG §87: Beim Einsatz in Workflows, die Mitarbeitende betreffen, ist der Betriebsrat mitbestimmungspflichtig.
  • Hinweis: Diese Übersicht dient der Orientierung. Für verbindliche rechtliche Einschätzungen empfehlen wir die Einbindung von Datenschutzbeauftragten und Rechtsberatung.

Einordnung: Was MiMo für den KI-Markt bedeutet

MiMo ist Teil eines größeren Trends, den wir bereits in unserem KW-17-Rückblick beschrieben haben: Chinesische Modelle verarbeiten auf OpenRouter laut Branchenanalysen inzwischen über 45 % aller Tokens – Xiaomis MiMo-Modelle halten dabei mit rund 21 % den größten Einzelanteil (Quelle: DigitalApplied.com / Chatly AI, April 2026).

Was MiMo von DeepSeek oder Qwen unterscheidet, ist die strategische Verankerung in einem Hardware-Ökosystem: Xiaomi baut Smartphones, Smart-Home-Geräte und Elektroautos. MiMo ist nicht nur ein API-Produkt, sondern soll das KI-Gehirn dieser Geräte werden. Das hat Implikationen für Enterprise-Kunden, die langfristig auf ein Modell setzen – Xiaomis Motivation, MiMo weiterzuentwickeln, ist strukturell stärker als bei reinen KI-Labors.

Fazit und Handlungsempfehlung

✅ Handlungsempfehlung

  • Evaluieren: MiMo-V2.5-Pro auf die Shortlist für Coding-Agenten und Long-Context-Aufgaben setzen – SWE-bench-Pro-Score 57,2 % ist durch unabhängige Quellen verifiziert.
  • Open-Source-Option prüfen: Die MIT-Lizenz erlaubt Self-Hosting. Für datensensible Umgebungen ist das die einzig DSGVO-konforme Option.
  • Hardware-Anforderungen klären: Trillion-Parameter-Modelle erfordern erhebliche GPU-Ressourcen. MiMo-V2-Flash (309B/15B aktiv) ist die effizientere Alternative für Teams ohne H100-Cluster.
  • Preisstruktur vergleichen: $1,00/$3,00 per million Tokens (V2.5-Pro) vs. $5,00/$25,00 (Claude Opus 4.6) – ein erheblicher Kostenvorteil, der bei Token-intensiven Workflows relevant ist.
  • Compliance vorab klären: DSGVO-Prüfung und EU-AI-Act-Klassifizierung vor Produktivbetrieb – nicht danach.

Häufige Fragen (FAQ)

Was ist der Unterschied zwischen MiMo-V2-Flash und MiMo-V2.5-Pro?

MiMo-V2-Flash ist ein Open-Source-MoE-Modell mit 309 Milliarden Gesamtparametern und 15 Milliarden aktiven Parametern – konzipiert für schnelle, kosteneffiziente Inferenz. MiMo-V2.5-Pro ist das Flaggschiff mit 1,02 Billionen Gesamtparametern und 42 Milliarden aktiven Parametern, ausgelegt auf komplexe agentische Aufgaben und Long-Context-Reasoning.

Kann ich MiMo-V2.5-Pro lokal betreiben?

Grundsätzlich ja – die MIT-Lizenz erlaubt es. Die Hardwareanforderungen für ein Trillion-Parameter-Modell sind jedoch erheblich. MiMo-V2-Flash mit 15 Milliarden aktiven Parametern ist die realistischere Self-Hosting-Option für die meisten DACH-Unternehmen.

Ist MiMo DSGVO-konform nutzbar?

Die API-Nutzung über Xiaomis Plattform ist für personenbezogene Daten problematisch, da keine EU-Angemessenheitsentscheidung für China vorliegt. Self-Hosting auf EU-Infrastruktur mit den MIT-lizenzierten Gewichten ist die DSGVO-konforme Alternative – analog zu DeepSeek R1. Verbindliche Einschätzung durch Datenschutzbeauftragten erforderlich.

Wie verhält sich MiMo zu anderen chinesischen Open-Source-Modellen wie Qwen oder DeepSeek?

Alle drei richten sich an ähnliche Zielgruppen mit vergleichbaren Stärken bei Coding und Reasoning. MiMo differenziert sich durch die tiefe Hardware-Ökosystem-Integration und die explizite Ausrichtung auf Agentic-Workflows mit langen Horizonten. Auf SWE-bench Pro (57,2 %) liegt MiMo-V2.5-Pro laut verfügbaren Benchmarks aktuell vor den öffentlich dokumentierten Werten von DeepSeek R1 und Qwen3.6-27B in dieser spezifischen Kategorie.

Quellen

📧 Wöchentlich up to date bleiben

Der AI-Fabrik Newsletter liefert DACH-fokussierte Enterprise-KI-News kompakt und eingeordnet – direkt ins Postfach.

→ Jetzt Newsletter abonnieren

Teile es