Dieser Artikel wurde mit Künstlicher Intelligenz erstellt und redaktionell kuratiert.
⚡ In 30 Sekunden
- 45 Prozent der Erwerbstätigen in Deutschland nutzen laut TÜV-Verband-Studie (Forsa, Oktober 2025, n=587 Erwerbstätige) Künstliche Intelligenz im Job.
- 54 Prozent arbeiten ohne klare Unternehmensregeln für den KI-Einsatz – weder Vorgaben noch Verbot.
- Nur 38 Prozent derjenigen, die beruflich KI einsetzen, haben sich dafür weitergebildet.
- 60 Prozent erwarten, dass KI in fünf Jahren eine große oder sehr große Rolle in ihrer beruflichen Tätigkeit spielt – ein Plus von 7 Prozentpunkten gegenüber dem Vorjahr.
- Ein Drittel hält die eigene Tätigkeit für vollständig oder teilweise durch generative KI ersetzbar.
- DACH-Relevanz: EU AI Act Art. 4 (AI Literacy) gilt seit Februar 2025 – Schulungspflicht für alle Beschäftigten, die mit KI-Systemen arbeiten.
Stellen Sie sich vor, die Hälfte Ihrer Belegschaft setzt täglich ein mächtiges Produktivitätswerkzeug ein – ohne dass Ihr Unternehmen dafür Regeln definiert hat. Genau das beschreibt die aktuelle Lage in deutschen Unternehmen. Eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands zeigt: 45 Prozent der Erwerbstätigen nutzen Künstliche Intelligenz im Job. Gleichzeitig sagen 54 Prozent der Beschäftigten, dass es in ihrem Unternehmen weder konkrete Vorgaben noch ein Verbot für den KI-Einsatz gibt. Dieser Artikel ordnet die Zahlen ein, erklärt die rechtlichen Konsequenzen und zeigt, was Entscheider im DACH-Raum jetzt konkret tun müssen.
Was die TÜV-Studie zeigt: KI als neue Normalität im Arbeitsalltag
Die Forsa-Umfrage wurde vom 20. bis 26. Oktober 2025 unter 1.005 Personen ab 16 Jahren durchgeführt, darunter 587 Erwerbstätige. Die Ergebnisse wurden am 8. April 2026 vom TÜV-Verband veröffentlicht und zeichnen ein klares Bild: Generative KI ist in deutschen Unternehmen angekommen – schneller, als viele Arbeitgeber Strukturen dafür geschaffen haben.
Die meistgenutzten Anwendungen zeigen, wo KI im Alltag konkret hilft. 78 Prozent der KI-nutzenden Erwerbstätigen setzen das Werkzeug ein, um nach Informationen zu suchen. 46 Prozent erstellen oder verbessern damit Texte, 41 Prozent entwickeln neue Ideen. Weniger verbreitet sind komplexere Anwendungen wie Berechnungen (13 Prozent), Code-Erstellung (11 Prozent) oder die Analyse von Datensätzen (10 Prozent).
Besonders bemerkenswert ist die Erwartungshaltung: 60 Prozent der Beschäftigten gehen davon aus, dass KI in fünf Jahren eine große oder sehr große Rolle in ihrer beruflichen Tätigkeit spielen wird. Im Vorjahr lag dieser Wert noch bei 53 Prozent – ein Anstieg von sieben Prozentpunkten innerhalb eines Jahres. Die Technologie wird nicht mehr als Zukunftsthema wahrgenommen, sondern als eine bereits laufende Transformation.
Das zentrale Governance-Problem: Regeln fehlen flächendeckend
Die auffälligste Lücke, die die Studie offenbart, liegt nicht in der Nutzung, sondern in der Steuerung. Nur 32 Prozent der abhängig Beschäftigten geben an, dass ihr Arbeitgeber konkrete Vorgaben für den Einsatz von KI gemacht hat. Ein explizites Verbot ist mit lediglich 5 Prozent die absolute Ausnahme. Gut die Hälfte der Beschäftigten sagt, dass es weder Regeln noch ein Verbot gibt.
Wo klare Regeln fehlen, bleibt häufig auch die Qualifizierung auf der Strecke. Nur 38 Prozent derjenigen, die beruflich KI einsetzen, haben sich dafür weitergebildet. Die restlichen 62 Prozent nutzen die Technologie ohne systematische Vorbereitung. Das hat konkrete Auswirkungen auf die Ergebnisqualität: 88 Prozent der KI-Nutzenden geben an, dass die Qualität der Resultate stark davon abhängt, wie präzise die Aufgaben formuliert werden. Wer Prompting nicht kennt und trainiert, riskiert minderwertige Ergebnisse – und gibt diese möglicherweise ungeprüft weiter.
Jobangst und nüchterne Einschätzung: Was Beschäftigte wirklich denken
Ein weiterer Befund der Studie ist die differenzierte Wahrnehmung von KI als Risikofaktor. Ein Drittel der Erwerbstätigen (33 Prozent) geht davon aus, dass die eigene Tätigkeit vollständig oder teilweise durch generative KI ersetzt werden kann. Die Mehrheit – 65 Prozent – rechnet jedoch nicht mit einem vollständigen Ersatz, sondern erwartet Veränderungen im Arbeitsalltag: Aufgaben werden zunehmend durch KI unterstützt, beschleunigt oder in Teilen automatisiert.
Auffällig ist ein Geschlechterunterschied: Männer halten ihre Tätigkeit mit 36 Prozent häufiger für ersetzbar als Frauen mit 29 Prozent. Das liegt vermutlich weniger an unterschiedlicher Risikobereitschaft als an der Berufsstruktur: Männer sind im deutschen Arbeitsmarkt überproportional in technischen und gewerblichen Berufen tätig, die KI-gestützte Automatisierung als konkreter wahrnehmen. Frauen hingegen sind stärker in sozialen, pflegerischen und kommunikativen Berufen vertreten – Bereichen, in denen KI aktuell weniger direkte Substituierbarkeit zeigt. Die Studie liefert dazu keine Branchenaufschlüsselung; eine differenzierte Analyse nach Berufsfeldern wäre für belastbare Aussagen notwendig.
Gleichzeitig steigen die Anforderungen an Beschäftigte: Prompting, kritische Ergebniseinordnung und inhaltliche Prüfung von KI-Outputs werden zu Kernkompetenzen. Diese Fähigkeiten entwickeln sich nicht automatisch – sie müssen systematisch aufgebaut werden.
Was das für DACH-Unternehmen bedeutet: Drei Handlungsfelder
✅ Handlungsfelder für Entscheider
1. KI-Richtlinie einführen – jetzt, nicht nach dem nächsten Incident
Eine klare Unternehmensrichtlinie für den KI-Einsatz muss drei Fragen beantworten: Welche Tools sind freigegeben? Welche Daten dürfen in KI-Systeme eingegeben werden? Wer ist für die inhaltliche Prüfung von KI-Outputs verantwortlich? Ohne diese Klarheit ist das Risiko von Datenschutzverstößen, Qualitätsproblemen und Compliance-Lücken strukturell angelegt.
2. AI Literacy ist seit Februar 2025 Pflicht
Artikel 4 des EU AI Act verpflichtet Unternehmen, alle Beschäftigten, die mit KI-Systemen arbeiten, nachweislich zu schulen. Das betrifft nicht nur IT-Teams oder KI-Spezialisten – sondern alle 45 Prozent der Erwerbstätigen, die laut TÜV-Studie bereits KI im Job nutzen. Schulungsnachweise gehören in die Personalakte.
3. Betriebsrat einbinden – Deutschland, Österreich und die Schweiz im Vergleich
Deutschland: Sobald KI-Tools auf Kommunikationsdaten (E-Mails, Chat, Meeting-Protokolle) zugreifen oder Outputs erzeugen, die zur Leistungsbewertung herangezogen werden könnten, greift das Mitbestimmungsrecht nach §87 Abs. 1 Nr. 6 BetrVG. Eine Betriebsvereinbarung vor dem Rollout ist rechtliche Voraussetzung, keine optionale Best Practice.
Österreich: Das Arbeitsverfassungsgesetz (ArbVG) sieht in §96 Abs. 1 Z 3 ein Zustimmungsrecht des Betriebsrats bei der Einführung von Kontrollmaßnahmen vor, die die Menschenwürde berühren. KI-Tools, die Arbeitsverhalten aufzeichnen oder auswerten, fallen typischerweise darunter – eine Betriebsvereinbarung ist vor der Einführung erforderlich.
Schweiz: Das Obligationenrecht (OR) und das Datenschutzgesetz (DSG) begründen keine unmittelbare Mitbestimmungspflicht, schreiben aber Transparenz- und Informationspflichten gegenüber Mitarbeitenden vor. Unternehmen mit Personalkommissionen sollten den KI-Einsatz frühzeitig kommunizieren. Für alle drei Länder gilt: Für verbindliche Einschätzungen empfehlen wir die Einbindung eines auf IT-Recht spezialisierten Rechtsanwalts.
Die Qualifizierungslücke: Ein strukturelles Problem
Dass nur 38 Prozent der beruflichen KI-Nutzerinnen und -Nutzer eine Weiterbildung absolviert haben, ist kein individuelles Versagen – es ist ein organisatorisches. Unternehmen haben ihre Beschäftigten in den vergangenen zwei Jahren KI-Tools überlassen, ohne systematisch in deren Kompetenzaufbau zu investieren. Die Ergebnisse sind entsprechend: unkritische Übernahme von KI-Outputs, mangelndes Verständnis für Halluzinationen und Qualitätsschwankungen, fehlende Prompting-Kompetenz.
Das Muster ist aus anderen Digitalisierungsprojekten bekannt. Wer den Technologieeinsatz nicht mit Qualifizierungsmaßnahmen flankiert, schöpft Potenziale nicht aus – und riskiert gleichzeitig reale Schäden durch fehlerhafte Outputs in kritischen Prozessen. Einen strukturierten Einstieg in die Nutzung von KI-Assistenten bieten die Artikel unserer Claude-Lernpfad-Serie sowie der Einführungsartikel zu KI im Büro: Top 5 Anwendungsfälle.
Einordnung: Was die Studie nicht misst
Die TÜV-Verband-Studie liefert robuste Orientierungsdaten – aber keine Kausalaussagen. Sie misst Selbstauskunft, keine verifizierten Verhaltensbeobachtungen. Der Befragungszeitraum (Oktober 2025) liegt sechs Monate vor der Veröffentlichung; seitdem haben neue Tools und Modellgenerationen den Markt weiter verändert. Die tatsächliche KI-Nutzungsquote könnte inzwischen noch höher liegen. Zudem erfasst die Studie nicht die Qualität der KI-Nutzung – ob Beschäftigte Outputs kritisch prüfen oder unkritisch übernehmen, bleibt offen. Gerade dieser Aspekt ist aus Compliance-Perspektive der entscheidende.
Fazit: Das Governance-Fenster schließt sich
✅ Handlungsempfehlung
Die TÜV-Studie macht deutlich: KI ist in der deutschen Arbeitswelt längst angekommen. Die Governance hat nicht mitgehalten. Für DACH-Unternehmen gibt es jetzt zwei Optionen: reaktiv auf den nächsten Datenschutz- oder Qualitätsvorfall warten – oder proaktiv eine KI-Richtlinie verabschieden, Schulungen nachweisbar dokumentieren und den Betriebsrat einbinden. Der EU AI Act gibt die rechtliche Richtung vor; die TÜV-Zahlen zeigen den faktischen Handlungsdruck. Für einen strukturierten Einstieg in die KI-Strategie empfehlen wir den KI-Einführungsleitfaden für KMUs sowie unseren Artikel zur Frage, wie Unternehmen KI-Agenten strukturiert einführen.
Häufige Fragen
Was ist der Unterschied zwischen einem KI-Verbot und fehlenden Vorgaben?
Ein explizites Verbot (5 % der Unternehmen) schafft Klarheit und rechtliche Absicherung, hat aber praktische Nachteile: Es verhindert Produktivitätsgewinne und ist schwer durchzusetzen. Fehlende Vorgaben (54 %) sind das eigentliche Risiko: Beschäftigte nutzen KI nach eigenem Ermessen, ohne Leitplanken für Datenschutz, Qualitätssicherung oder Haftung. Eine differenzierte Nutzungsrichtlinie ist dem Verbot in fast allen Fällen vorzuziehen.
Gilt die AI-Literacy-Pflicht nach EU AI Act für jedes KI-Tool?
Artikel 4 gilt für alle Unternehmen, die KI-Systeme betreiben – unabhängig vom Risikoniveau des jeweiligen Tools. Was als „ausreichende" AI Literacy gilt, ist nicht abschließend definiert und hängt vom Einsatzkontext ab: Eine einfache Texterstellung mit ChatGPT stellt andere Anforderungen als ein KI-gestütztes Recruiting-System. Für verbindliche Einschätzungen empfehlen wir die Konsultation eines auf EU AI Act spezialisierten Rechtsanwalts.
Welche Branchen sind am stärksten vom Governance-Gap betroffen?
Die TÜV-Studie liefert keine Branchenaufschlüsselung. Aus anderen Studien (u. a. Bitkom 2025) lässt sich ableiten, dass vor allem der Mittelstand in Dienstleistung, Handel und Handwerk strukturell weniger KI-Governance hat als Großunternehmen und der Finanzsektor. Regulierte Branchen (Banken, Versicherungen, Gesundheitswesen) sind durch eigene Aufsichtsbehörden wie BaFin oder BMUV stärker zur Dokumentation verpflichtet.
Wie fange ich als KMU mit einer KI-Richtlinie an?
Der pragmatische Einstieg: eine einseitige interne Richtlinie, die drei Fragen beantwortet – welche Tools sind freigegeben, welche Daten dürfen eingegeben werden, wer prüft kritische Outputs. Dann Betriebsrat informieren, Datenschutzbeauftragten einbinden und eine erste AI-Literacy-Schulung dokumentieren. Ausführlicher Leitfaden: KI-Einführung für KMUs.




