Dieser Artikel wurde mit Künstlicher Intelligenz erstellt und redaktionell kuratiert.
⚡ In 30 Sekunden
- DeepSeek hat am 27. April 2026 die Cache-Hit-Preise für alle API-Modelle auf ein Zehntel des bisherigen Niveaus gesenkt.
- Das Flaggschiff-Modell DeepSeek-V4-Pro wird bis zum 5. Mai 2026 mit 75 Prozent Rabatt angeboten: Input-Preis 1,74 USD/M Token, Output 3,48 USD/M Token.
- Das günstigere V4-Flash-Modell kostet 0,14 USD/M Input und 0,28 USD/M Output – damit ist es beim Output über 100-fach günstiger als GPT-5.5.
- Mit dem zwischengespeicherten Input-Preis von 0,145 USD/M Token für V4-Pro kostet dasselbe Workload ein Zehntel von GPT-5.5 und etwa ein Viertel von Claude Opus 4.7 (bei dessen Cache-Hit-Preis von 0,50 USD/M).
- DeepSeek V4-Pro hat 1,6 Billionen Gesamtparameter (49 Milliarden aktiv), ein 1-Millionen-Token-Kontextfenster und ist unter MIT-Lizenz verfügbar.
- DSGVO-Hinweis: Die Cloud-API von DeepSeek überträgt Daten nach China. Für DACH-Unternehmen bleibt Self-Hosting die einzige DSGVO-konforme Option.
Am 23. April 2026 veröffentlichte OpenAI GPT-5.5. Einen Tag später antwortete DeepSeek mit V4. Und drei Tage danach senkte das chinesische KI-Labor die API-Preise auf ein Zehntel. Das Timing ist kein Zufall – es ist eine strategische Aussage: Spitzenleistung soll nicht das Privileg von Unternehmen mit üppigen KI-Budgets bleiben.
Für DACH-Unternehmen, die KI-Workloads skalieren wollen, ist das eine der bedeutendsten Preisbewegungen des Jahres. Gleichzeitig bleibt die DSGVO-Situation ungelöst: Die Cloud-API überträgt Daten nach China – und deutsche Datenschutzbehörden haben die App bereits als rechtswidrig eingestuft. Dieser Artikel ordnet beides ein.
Was DeepSeek konkret verändert hat
DeepSeek hat in einer zweiteiligen Preisaktion seit dem Release von V4 am 24. April 2026 zwei Maßnahmen umgesetzt. Erstens: Die Input-Cache-Hit-Preise wurden für alle Modelle der V4-Familie auf ein Zehntel der bisherigen Standardpreise gesenkt. Zweitens: Das leistungsstärkste Modell V4-Pro wird bis zum 5. Mai 2026 mit 75 Prozent Rabatt angeboten.
Der Hintergrund: Cache-Hit-Preise greifen, wenn ein Modell wiederholt auf ähnliche oder identische Eingaben (Prompts, Systemanweisungen, Kontext) zugreift – typisch für agentic Workflows, bei denen ein KI-Agent viele Schritte mit demselben Grundkontext durchläuft. Für Unternehmen, die solche Architekturen betreiben, ist diese Preisdimension oft entscheidender als der Standardpreis pro Token.
Die aktuellen Preise im Überblick
| Modell | Input (Cache Miss) | Input (Cache Hit) | Output |
|---|---|---|---|
| DeepSeek-V4-Pro (Aktionspreis bis 5.5.) | 1,74 USD/M Token | 0,145 USD/M Token | 3,48 USD/M Token |
| DeepSeek-V4-Flash | 0,14 USD/M Token | 0,028 USD/M Token | 0,28 USD/M Token |
| GPT-5.5 (OpenAI) | 5,00 USD/M Token | ~2,50 USD/M Token (automatisch, ~50 % Rabatt) | 30,00 USD/M Token |
| Claude Opus 4.7 (Anthropic) | 5,00 USD/M Token | 0,50 USD/M Token (manuell aktiviert, 90 % Rabatt) | 25,00 USD/M Token |
| Gemini 3.1 Pro (Google) | 2,00 USD/M Token | ~0,20 USD/M Token (Context Caching, 90 % Rabatt) | 12,00 USD/M Token |
Die Zahlen zeigen eine wichtige Differenzierung: Beim Vergleich der Cache-Hit-Preise liegt DeepSeek V4-Pro mit 0,145 USD/M deutlich unter GPT-5.5 (ca. 2,50 USD/M) und auch unter Claude Opus 4.7 (0,50 USD/M bei manuell aktiviertem Caching). Interessant ist, dass Gemini 3.1 Pro mit 0,20 USD/M beim Context Caching in eine ähnliche Preisklasse rückt – allerdings bei deutlich niedrigeren Standardpreisen. Der entscheidende Unterschied: DeepSeek cacht automatisch, Anthropic und Google erfordern explizite Implementierung im Code.
DeepSeek V4: Was das Modell leistet
DeepSeek V4 ist am 24. April 2026 in zwei Varianten erschienen. V4-Pro hat 1,6 Billionen Gesamtparameter bei 49 Milliarden aktiven Parametern pro Token (MoE-Architektur) und ein Kontextfenster von 1 Million Token. V4-Flash ist die günstigere Variante mit 284 Milliarden Gesamtparametern und 13 Milliarden aktiven Parametern.
Beide Modelle sind unter MIT-Lizenz auf Hugging Face verfügbar und unterstützen sowohl die OpenAI ChatCompletions-API als auch das Anthropic-API-Format – was die Integration für Entwicklungsteams vereinfacht, die bereits eine dieser Infrastrukturen nutzen.
Eine technisch relevante Neuerung gegenüber Vorgängermodellen ist „Interleaved Thinking": Bei mehrstufigen Agenten-Workflows, die mehrere Tool-Aufrufe umfassen, behält V4 die vollständige Reasoning-Kette über alle Schritte hinweg bei – statt bei jedem neuen Schritt den internen Kontext zurückzusetzen. Das verbessert die Konsistenz bei komplexen Automatisierungspipelines erheblich.
Benchmarks: Nahaufnahme mit Vorbehalt
⚠️ Einschränkung: Die nachfolgenden Benchmark-Werte stammen teils aus DeepSeeks eigenem Technical Report und wurden nicht vollständig durch unabhängige Dritte verifiziert. Eigene Evaluierungen auf realen Daten bleiben vor Produktionsentscheidungen unerlässlich.
| Benchmark | V4-Pro | GPT-5.5 | Claude Opus 4.7 |
|---|---|---|---|
| SWE-bench Verified (Coding) | 80,6 % | 88,7 % | ~80,9 % (Opus 4.6-Basis) |
| LiveCodeBench | 93,5 % | k.A. | k.A. |
| Codeforces Rating | 3.206 (Rang 23 weltweit) | k.A. | k.A. |
| Terminal-Bench 2.0 | 70,0 % | 82,7 % | k.A. |
| MMLU-Pro (Wissen) | Hinter GPT-5.5 | Führend | Führend |
Das stärkste Argument für V4 ist nicht das Benchmark-Ergebnis, sondern die Preis-Leistungs-Relation: Wenn das Modell bei Unternehmens-relevanten Agenten- und Reasoning-Aufgaben nahe an der Frontier-Performance liegt und dabei etwa ein Sechstel bis ein Siebtel der Standardpreise kostet, zwingt das zu einer grundlegenden Neubewertung der Wirtschaftlichkeit fortschrittlicher KI-Deployments. Wo V4 gegenüber den neuesten proprietären Modellen zurückfällt, ist vor allem bei wissensintensiven Benchmarks sowie beim allgemeinen Textverstehen – hier halten GPT-5.5 und Gemini 3.1 Pro klare Vorsprünge.
Was das für DACH-Unternehmen konkret bedeutet
Anwendungsfall 1: Agentic Coding und Repository-Analyse
Für Entwicklerteams, die KI-gestützte Code-Reviews, automatisierte Debugging-Pipelines oder Repository-Level-Analysen betreiben, ist die Cache-Preis-Senkung besonders relevant. Bei agentic Workflows mit vielen wiederholten Systemanweisungen und konstantem Kontext profitieren diese Setups überproportional von günstigeren Cache-Hits. Ein Team, das bisher 1.000 USD/Monat für ähnliche Workloads auf GPT-5.5 ausgegeben hat, könnte mit V4-Flash auf unter 10 USD kommen – bei erheblichem Qualitätsabstand, aber für viele automatisierte Prüfaufgaben ausreichend.
Anwendungsfall 2: Dokumentenverarbeitung mit langem Kontext
Das 1-Millionen-Token-Kontextfenster von V4-Pro ermöglicht die Verarbeitung umfangreicher Dokumente in einem einzigen Request – Verträge, technische Handbücher, Gesprächsprotokolle. Für Rechts- oder Finanzabteilungen, die heute mit chunked RAG-Architekturen arbeiten, ist das ein relevanter Effizienzgewinn. Der Vorbehalt bleibt: Die DSGVO-Lage erfordert Self-Hosting, sobald personenbezogene Daten im Spiel sind.
Anwendungsfall 3: Kostensenkung bei bestehenden API-Workloads
Unternehmen, die bereits mit einer OpenAI-kompatiblen API arbeiten, können DeepSeek V4 theoretisch mit minimalen Code-Änderungen testen – das Modell unterstützt das ChatCompletions-Format. Für interne Tools, bei denen keine personenbezogenen Daten verarbeitet werden (etwa interne Wissensbasen mit nicht-personenbezogenen Inhalten), könnte die API-Nutzung mit entsprechender rechtlicher Prüfung möglich sein.
DSGVO und Datenschutz: Der kritische DACH-Vorbehalt
🔴 Compliance-Hinweise für DACH-Unternehmen
- DSGVO / Drittlandtransfer (Art. 46): Die Cloud-API von DeepSeek überträgt alle Eingaben, Chatverläufe und Metadaten auf Server in China. China hat keinen EU-Angemessenheitsbeschluss (Art. 45 DSGVO), und DeepSeek hat bislang weder Standard-Vertragsklauseln noch einen EU-ansässigen Vertreter benannt. Die direkte API-Nutzung mit personenbezogenen Daten ist damit nach aktuellem Stand nicht DSGVO-konform.
- Behördliche Maßnahmen: Die Berliner Beauftragte für Datenschutz und Informationsfreiheit hat DeepSeek im Juni 2025 bei Apple und Google als rechtswidrigen Inhalt gemäß Art. 16 DSA gemeldet. Der LfD Niedersachsen empfiehlt ausdrücklich, keine personenbezogenen Daten über DeepSeek zu verarbeiten.
- Self-Hosting als DSGVO-Lösung: Da V4 unter MIT-Lizenz als Open-Source-Modell auf Hugging Face verfügbar ist, kann es auf eigener EU-Infrastruktur betrieben werden. V4-Flash (284B Parameter, 13B aktiv) ist der praktikable Self-Hosting-Kandidat – der Betrieb erfordert erfahrungsgemäß mindestens 4–8× NVIDIA A100 80 GB (oder vergleichbare H100/H200-GPUs) für produktionstaugliche Latenz. V4-Pro (1,6 Billionen Parameter, 49B aktiv) benötigt ein deutlich größeres Cluster und ist für die meisten Unternehmen nur über die API sinnvoll nutzbar.
- EU AI Act: Als General-Purpose-AI-Modell unterliegt DeepSeek V4 den Transparenz- und Dokumentationspflichten des EU AI Acts. Bei Hochrisiko-Einsatz (HR-Entscheidungen, kritische Infrastruktur) gelten erweiterte Anforderungen.
- BetrVG § 87: KI-Einsatz, der Mitarbeiterverhalten auswertet oder automatisierte Entscheidungen vorbereitet, unterliegt der Mitbestimmung. Betriebsrat frühzeitig einbinden.
Die hier genannten Hinweise ersetzen keine individuelle Rechtsberatung. Datenschutzbeauftragter und ggf. Rechtsanwalt sollten vor Produktiveinsatz eingebunden werden.
Der strategische Kontext: Was der Preiskampf bedeutet
DeepSeeks Preisstrategie ist kein isoliertes Ereignis. Seit der Veröffentlichung des R1-Denkmodells im Januar 2025 setzt DeepSeek konsequent auf aggressive Preise, um die Dominanz etablierter Anbieter zu brechen. Die MIT-Lizenz ist dabei ein zentrales strategisches Instrument: Sie ermöglicht es Entwicklern, Modelle vollständig selbst zu hosten und API-Gebühren vollständig zu vermeiden.
Der KI-Inferenzmarkt entwickelt sich strukturell in zwei Wirtschaftsstufen: eine geschlossene Premium-Schicht, in der OpenAI, Anthropic und Google auf marginale Benchmark-Verbesserungen setzen, und eine Open-Source-Schicht mit aggressiven Preisen, angeführt von chinesischen KI-Labors, die die Inferenzmargen nahezu auf null komprimieren.
Ein weiterer geopolitischer Faktor: DeepSeek trainierte V4 teilweise auf Huawei Ascend-Chips und umgeht damit US-Exportbeschränkungen für NVIDIA-Hardware. Das Signal ist klar: US-Exportkontrollen verlangsamen die chinesische KI-Entwicklung, stoppen sie aber nicht. Für westliche Entscheider, die ihre KI-Strategie an geopolitischen Risikoszenarien ausrichten, ist das ein relevanter Datenpunkt.
Was Unternehmen jetzt tun sollten
✅ Handlungsempfehlung für Entscheider
- Kosten-Audit starten: Welche bestehenden KI-Workloads laufen über proprietäre APIs? Welche davon verarbeiten keine personenbezogenen Daten und könnten für einen Preisvergleich in Frage kommen? Dieser Audit ist unabhängig von DeepSeek wertvoll.
- DSGVO-Pfad klären: Für Anwendungsfälle mit personenbezogenen Daten ist Self-Hosting die einzige konforme Option. Evaluieren Sie, ob V4-Flash (mindestens 4–8× A100 80 GB) auf eigener Hardware oder bei einem EU-Cloud-Anbieter betreibbar ist.
- Eigene Benchmarks durchführen: Veröffentlichte Benchmark-Zahlen sind Herstellerangaben. Testen Sie V4 auf Ihren realen Daten und Aufgaben, bevor Sie Produktionsentscheidungen treffen.
- Aktionspreis nicht als Dauerzustand planen: Der 75-Prozent-Rabatt für V4-Pro läuft laut DeepSeek am 5. Mai 2026 aus. Kalkulationen für dauerhafte Einsparungen sollten auf den Standardpreisen basieren.
- Marktentwicklung beobachten: DeepSeek erwartet weitere Preissenkungen, sobald neue Huawei-Ascend-Cluster in Betrieb gehen. OpenAI und Anthropic werden auf den Preisdruck reagieren. Der KI-Preiskampf ist noch nicht am Ende.
FAQ: DeepSeek V4 API-Preise
Wann läuft der Aktionspreis für V4-Pro ab?
Laut DeepSeek gilt der 75-Prozent-Rabatt auf V4-Pro bis zum 5. Mai 2026, 15:59 UTC. Danach gelten die Standardpreise: 1,74 USD/M Input (Cache Miss), 0,145 USD/M Input (Cache Hit), 3,48 USD/M Output.
Was bedeutet „Cache-Hit-Preis auf ein Zehntel"?
Cache-Hit-Preise gelten, wenn das Modell wiederholt auf gleiche oder ähnliche Eingaben trifft – etwa bei Agenten-Workflows mit konstantem System-Prompt oder beim mehrfachen Abrufen desselben langen Dokuments. Für diese Anfragen sinkt der Preis auf ein Zehntel des bisherigen Niveaus. Bei Workloads mit hoher Cache-Trefferrate ist das die relevantere Preisgröße.
Kann ich DeepSeek V4 DSGVO-konform nutzen?
Über die Cloud-API von DeepSeek (Server in China) nicht mit personenbezogenen Daten – nach aktuellem Stand fehlen SCCs, EU-Vertreter und Auftragsverarbeitungsvertrag. Datenschutzkonform möglich ist der Einsatz über Self-Hosting auf EU-Infrastruktur: V4-Flash ist der praktikable Self-Hosting-Kandidat (284B Parameter, ~13B aktiv, ca. 4–8× A100 80 GB erforderlich). Für V4-Pro ist Self-Hosting wegen des enormen Hardware-Bedarfs (1,6 Billionen Parameter) für die meisten Unternehmen nicht wirtschaftlich darstellbar.
Wie verhält sich V4 im Vergleich zu GPT-5.5 und Claude Opus 4.7?
V4-Pro erreicht laut vorliegenden Benchmarks bei Coding und Reasoning-Aufgaben nahe Frontier-Niveau – liegt aber bei wissensintensiven Tests und allgemeinem Sprachverständnis hinter GPT-5.5 und Gemini 3.1 Pro. Der entscheidende Unterschied ist der Preis: V4-Pro kostet mit gecachtem Input (0,145 USD/M) rund ein Dreißigstel von GPT-5.5 (ca. 2,50 USD/M gecacht) und etwa ein Viertel von Claude Opus 4.7 (0,50 USD/M gecacht). Für Anwendungsfälle, bei denen nicht das Maximalniveau, sondern das Preis-Leistungs-Verhältnis entscheidend ist, ist V4-Pro ein ernstzunehmender Kandidat.
Fazit
DeepSeeks Preissenkung auf ein Zehntel ist keine Promotion – sie ist ein strukturelles Signal. Der Abstand zwischen Spitzenmodellen und ihren Preisen schrumpft systematisch. Für DACH-Unternehmen bedeutet das: KI-Workloads, die heute wegen der Kosten nicht skaliert werden, könnten morgen wirtschaftlich vertretbar sein.
Der Haken bleibt unverändert: Die DSGVO-Situation ist ungelöst. Wer DeepSeek produktiv nutzen will, muss Self-Hosting auf EU-Infrastruktur realisieren – und das ist technisch und organisatorisch anspruchsvoll. Wer diesen Weg gehen will, sollte jetzt die Vorarbeit beginnen, nicht warten, bis der nächste Preissprung stattfindet.
Quellen
- DeepSeek API Docs: Models & Pricing (27. April 2026)
- VentureBeat: DeepSeek V4 arrives at 1/6th the cost of Opus 4.7, GPT-5.5 (25. April 2026)
- Fortune: DeepSeek unveils V4 model with rock-bottom prices (24. April 2026)
- TechCrunch: DeepSeek previews new AI model that closes the gap with frontier models (24. April 2026)
- TechBriefly: DeepSeek slashes V4 API prices to one-tenth of previous rates (27. April 2026)
- Anthropic: Claude API Pricing (Stand April 2026)
- Google AI: Gemini API Pricing (Stand April 2026)
- Berliner Datenschutzbeauftragte: DeepSeek als rechtswidriger Inhalt gemeldet (27. Juni 2025)
- LfD Niedersachsen: Empfehlung zum Einsatz von DeepSeek




