Copilot unter Kontrolle: Transparenz und Governance mit dem Permission Manager

Copilot unter Kontrolle: Transparenz und Governance mit dem Permission Manager

Table of Contents

Die Einführung von Microsoft 365 Copilot stellt eine der signifikantesten Transformationen in der Geschichte der betrieblichen Informationstechnologie dar. Während generative KI das Potenzial bietet, die Produktivität massiv zu steigern, wirkt sie gleichzeitig als technologischer Verstärker für bereits bestehende Sicherheitslücken in der Datenverwaltung. Das Phänomen des „Oversharing" avanciert dabei von einem latenten Compliance-Risiko zu einer akuten Bedrohung. Um diese Dynamik zu beherrschen, ist eine umfassende Governance-Strategie erforderlich, die Transparenz durch spezialisierte Permission Manager schafft.

Die technologische Basis: Funktionsweise von Copilot

Copilot nutzt den Microsoft Graph, um auf E-Mails, Chats, Dokumente und Kalenderdaten zuzugreifen. Der Prozess, durch den die KI Antworten generiert, wird als „Grounding" bezeichnet: Nutzeranfragen (Prompts) werden mit relevantem Kontext aus der Microsoft 365-Umgebung angereichert, bevor sie an das Large Language Model (LLM) weitergeleitet werden. Dies stellt sicher, dass Antworten unternehmensspezifisch und aktuell sind – birgt jedoch das Risiko, dass Informationen einfließen, die der Nutzer zwar technisch sehen kann, die aber nicht für ihn bestimmt waren.

Der semantische Index und die Zeitkomponente

Ein entscheidendes Element für die Effizienz von Copilot ist der semantische Index – eine Art Kartographie der Datenlandschaft eines Tenants. Es existieren zwei Ebenen: der Tenant-Level Index und der User-Level Index. Für IT-Administratoren ist die Zeitkomponente kritisch: Microsoft 365 Copilot indiziert Berechtigungsstrukturen etwa alle acht Stunden neu (UTC: 8:00, 16:00, Mitternacht). Diese Verzögerung bedeutet, dass eine Entziehung von Zugriffsrechten nicht sofort wirksam wird – es besteht ein kritisches Zeitfenster, in dem die KI weiterhin auf offiziell gesperrte Quellen zugreifen kann. Dies unterstreicht die Notwendigkeit proaktiver statt reaktiver Governance.

Datenverarbeitung und EU Data Boundary

Seit Februar 2025 ist Microsoft 365 Copilot vollständig als EU-Data-Boundary-Dienst zertifiziert. Speicherung und Verarbeitung von Kundendaten für EU- und EFTA-Kunden erfolgen innerhalb der EU. Microsoft agiert dabei als Datenverarbeiter gemäß DSGVO und nutzt Kundendaten nicht zum Training globaler Basismodelle. Dennoch entbindet dies Unternehmen nicht von der Verantwortung für interne Berechtigungshygiene – die DSGVO verlangt auch Schutz vor unberechtigtem internen Zugriff.

Das Problem des Oversharing: Mechanismen und Risiken

Oversharing beschreibt den Zustand, in dem Mitarbeiter Zugriff auf Informationen haben, die für ihre berufliche Tätigkeit nicht erforderlich sind. In der Vergangenheit war dieses Problem oft unsichtbar – die schiere Datenmenge in SharePoint-Sites erschwerte zufällige Funde sensibler Dokumente. Copilot fungiert jedoch als hocheffiziente Suchmaschine, die vergrabene Daten in Sekundenbruchteilen an die Oberfläche spült.

Typologie gefährlicher Freigaben

Die verschiedenen Freigabetypen in Microsoft 365 weisen unterschiedliche Risikostufen auf:

Link-TypMechanismusRisiko für Copilot-Governance
Jeder (Anyone)Zugriff ohne AuthentifizierungKritisch: Inhalte können unkontrolliert verbreitet werden
Personen in Ihrer OrganisationAlle authentifizierten UnternehmensnutzerHoch: Führt zu massiver interner Exponierung
Bestimmte PersonenNamentlich genannte EmpfängerGering: Präziseste Kontrolle, minimiertes Risiko
Personen mit bestehendem ZugriffBereits berechtigte NutzerMinimal: Erweitert bestehende Struktur nicht

Ein besonders häufiges Szenario ist die Gruppe „Jeder außer externen Benutzern" auf SharePoint-Sites. Wenn dort sensible Daten wie Gehaltslisten oder Strategiepapiere abgelegt werden, kann Copilot diese Informationen bei Anfragen jedes beliebigen Mitarbeiters als Grundlage verwenden.

Die Rolle verwaister und inaktiver Sites

Ein Permission Manager muss über bloße Link-Analyse hinausgehen. Veraltete Projekt-Sites oder Teams-Kanäle ohne aktiven Besitzer („Ownerless Sites") fungieren häufig als Datenlecks – fehlerhafte Berechtigungen bleiben dort jahrelang unentdeckt. Studien zeigen, dass rund 74 % der Mitarbeiter in hybriden Arbeitsmodellen Zugang zu Daten haben, die für ihre Rolle nicht relevant sind. Copilot macht diesen Zustand durch seine Fähigkeit zur Zusammenfassung über Kontexte hinweg zur akuten Gefahr.

Microsoft Purview: Die native Governance-Schicht

Microsoft stellt mit Purview ein mächtiges Instrumentarium für Datensicherheit und Compliance bereit, das direkt in Copilot integriert ist.

Sensitivity Labels als Kontrollinstrument

Sensitivity Labels (Vertraulichkeitsbezeichnungen) sind das Herzstück der Purview-Strategie. Diese Labels werden an Dateien oder Container gebunden und enthalten Richtlinien für Verschlüsselung, Zugriffskontrolle und visuelle Kennzeichnung. Wenn Copilot eine Antwort auf Basis einer gelabelten Datei generiert, kann die Antwort selbst dieses Label erben – der Schutz bleibt so auch für KI-generierte Inhalte erhalten.

Administratoren können zudem „One-Click-Policys" einsetzen, um Copilot explizit daran zu hindern, Inhalte aus Dateien mit bestimmten Labels zu verarbeiten. Ein Label „Streng vertraulich" könnte so konfiguriert werden, dass die Daten für autorisierte Nutzer lesbar sind, aber von der Copilot-Indizierung ausgeschlossen werden.

Data Security Posture Management (DSPM) für KI

Das Microsoft Purview DSPM für KI bietet spezifische Analysetools zur Identifizierung von Risiken im Zusammenhang mit KI-Nutzung:

  • Aktivitätsanalyse: Überwachung, welche Dateien in KI-Interaktionen referenziert wurden
  • Risiko-Assessments: Wöchentliche Berichte über potenzielle Oversharing-Gefahren
  • Adaptive Protection: Automatische Verschärfung der Zugriffskontrollen bei risikoreichem Nutzerverhalten

Spezialisierte Permission Manager: Vergleich führender Lösungen

Trotz der Stärken von Purview stoßen viele IT-Teams bei der praktischen Umsetzung an Grenzen. Native Tools sind oft komplex und bieten nur begrenzte Möglichkeiten zur schnellen Massenbereinigung. Hier setzen spezialisierte Drittanbieter-Lösungen an:

Anbieter / LösungFokusKernfunktionen für Copilot
Hornetsecurity 365 Permission ManagerCISO-Zentrierung & ComplianceWorkflow-basierte Berechtigungsprüfung, Überwachung von Verstößen gegen CISO-Vorgaben
AvePoint Policies & InsightsAutomatisierung & Risk ScoringIdentifizierung von „Hotspots", automatische Korrektur von Berechtigungs-Drift
Rencore GovernanceAgent- & Lifecycle-GovernanceKontrolle über Copilot Studio Agenten, Lizenzoptimierung, Erkennung von Schatten-KI
ShareGate ProtectSichtbarkeit & IT-EffizienzReadiness-Dashboards für Copilot, Identifizierung inaktiver Workspaces

Besonders wertvoll ist die Fähigkeit zur automatisierten Korrektur („Remediation"): Wenn ein Permission Manager feststellt, dass ein Dokument mit einer Person geteilt wurde, die seit 90 Tagen nicht mehr aktiv war, kann das Tool den Zugriff automatisch entziehen oder den Site-Besitzer zur Rezertifizierung auffordern.

Datenhygiene: Die Grundlage für KI-Qualität

„Garbage in, garbage out" – dieses zentrale Prinzip gilt auch für Copilot. Wenn die KI Zugriff auf veraltete, redundante oder widersprüchliche Daten hat, leidet die Genauigkeit der Antworten erheblich.

Die Gefahr durch redundante Dokumentversionen

In vielen Unternehmen ist es gängige Praxis, Dateien mit Suffixen wie „_v1", „_final" oder „_final_v2_echt" zu speichern. Copilot könnte dabei Informationen aus einer veralteten Version extrahieren, wenn diese im Prompt-Kontext relevanter erscheint:

  • Preislisten: Copilot könnte Vertriebsmitarbeitern veraltete Preise vorschlagen, die seit zwei Jahren nicht mehr gültig sind, aber noch in einem Archiv-Ordner liegen.
  • HR-Richtlinien: Eine Zusammenfassung der Homeoffice-Regelungen könnte veraltete Klauseln enthalten, wenn alte Versionen nicht gelöscht oder archiviert wurden.

Strategien zur Verbesserung der Datenhygiene

Empfohlene Maßnahmen für eine saubere Datenbasis:

  • Zentralisierung: Konsolidierung von Informationen in autoritativen Quellen („Single Source of Truth")
  • Archivierung: Veraltete Sites in geschützte Archivbereiche verschieben, die für Copilot nicht zugänglich sind
  • Duplikatbereinigung: Nutzung der SharePoint-Versionshistorie statt Dateiduplikaten fördern

Strategische Implementierung: Der Drei-Phasen-Rollout

Die Einführung von Copilot sollte nicht als einmaliges IT-Projekt, sondern als kontinuierlicher Governance-Prozess verstanden werden.

Phase 1: Pilotierung und Risikoanalyse

Copilot wird einer kleinen Gruppe von „Champions" zur Verfügung gestellt. Gleichzeitig wird mit einem Permission Manager eine umfassende Risikoanalyse des gesamten Tenants durchgeführt. Kritische Bereiche wie HR-, Finanz- und Vorstands-Dokumente werden priorisiert. Die Websuche in Copilot sollte in dieser Phase deaktiviert bleiben, um den Fokus auf die interne Datenbasis zu legen.

Phase 2: Deployment und Remediation

Nach der Pilotphase erfolgt die breitere Skalierung. Die identifizierten Oversharing-Risiken werden aktiv behoben:

  • Massen-Bereinigung: Deaktivierung von „Anyone"-Links und Reduzierung von „People in Organization"-Berechtigungen
  • Enforce Labeling: Verpflichtende Klassifizierung aller neuen Dokumente durch Purview
  • Mitarbeiterschulung: Verantwortungsvoller Umgang mit Freigaben und Überprüfung von KI-Antworten

Phase 3: Betrieb und kontinuierliche Governance

Im regulären Betrieb übernimmt der Permission Manager die Funktion eines Echtzeit-Monitors. Er erkennt Berechtigungs-Drifts – schleichende Verschlechterungen der Sicherheitsstruktur durch neue fehlerhafte Freigaben – und alarmiert die IT sofort. Dies ist besonders wichtig, da Microsoft 365 ein dynamisches Ökosystem ist, in dem sich Berechtigungen täglich ändern.

Rechtliche und Compliance-Anforderungen in Deutschland

Einbindung von Betriebsrat und Datenschutzbeauftragtem

Ein kritischer Erfolgsfaktor in Deutschland ist die frühzeitige Integration von Mitbestimmungsgremien. Da Copilot jede Interaktion protokolliert (Prompts, Antworten, referenzierte Dateien), entstehen Fragen der Leistungs- und Verhaltenskontrolle:

  • Datenschutzfolgenabschätzung (DSFA): Für den KI-Einsatz ist gemäß Art. 35 DSGVO oft eine DSFA zwingend erforderlich. Ein Permission Manager liefert hierfür die notwendigen Daten zur Risikoidentifikation.
  • Transparenzgebot: Mitarbeiter müssen informiert werden, wie ihre Daten von der KI verarbeitet werden und welche Kontrollmechanismen existieren.

Anforderungen des EU AI Act

Der EU AI Act verlangt von Betreibern von KI-Systemen eine angemessene Governance und Dokumentation – insbesondere Transparenz über verwendete Datenquellen und Vermeidung von Fehlern durch die KI. Ein Permission Manager unterstützt diese Anforderungen durch revisionssichere Dokumentation der Zugriffsberechtigungen und stellt sicher, dass die KI nur auf autorisierte, qualitätsgeprüfte Daten zugreift.

Die Zukunft: Governance für autonome KI-Agenten

Die Entwicklung bleibt nicht bei Copilot als reinem Assistenten stehen. Mit Copilot Studio können Unternehmen bereits heute autonome Agenten erstellen, die komplexe Workflows übernehmen und eigenständig Aktionen in Drittsystemen auslösen.

Agent-Governance als neue Disziplin

KI-Agenten können wie „digitale Mitarbeiter" betrachtet werden – sie entstehen jedoch oft ohne den üblichen HR-Onboarding-Prozess. Risiken entstehen durch:

  • Schatten-Agenten: Nutzer erstellen Agenten für private Zwecke mit Zugriff auf sensible Datenbanken
  • Privilegieneskalation: Ein Agent könnte Aktionen mit höheren Berechtigungen ausführen, als der Nutzer eigentlich besitzt
  • Drittanbieter-Konnektoren: Agenten nutzen oft externe SaaS-Verbindungen, wodurch Unternehmensdaten die kontrollierte M365-Umgebung verlassen

Spezialisierte Tools wie Rencore Governance bieten bereits heute Module zur Überwachung von KI-Agenten, zur Identifizierung ihrer Besitzer und zur Kontrolle ihrer Zugriffsberechtigungen über den Microsoft Graph hinaus.

Wirtschaftlichkeit und ROI-Betrachtung

Governance wird oft als Kostenfaktor wahrgenommen – im Kontext von Copilot ist sie jedoch eine Voraussetzung für die Rentabilität. Die Kosten für Copilot-Lizenzen sind erheblich, und ein unkontrollierter Rollout führt oft zu ineffizienter Nutzung.

KostenartRisiko ohne GovernanceNutzen durch Permission Manager
LizenzgebührenBezahlung für inaktive NutzerDynamische Zuweisung basierend auf Aktivität
DatensicherheitHohe Bußgelder nach DSGVO-VerstößenAutomatisierte Compliance-Einhaltung
ProduktivitätZeitverlust durch falsche KI-AntwortenHöhere Genauigkeit durch saubere Datenbasis
AdministrationIT-Überlastung durch manuelle AuditsZeitersparnis durch Bulk-Aktionen & Automation

Strategische Checkliste für IT-Entscheider

Für einen sicheren und effizienten Copilot-Einsatz empfiehlt sich folgende Vorgehensweise:

  1. Status-Quo-Analyse: Umfassendes Berechtigungs-Audit mit einem Permission Manager zur Identifizierung von Oversharing-Hotspots
  2. Bereinigung vor dem Rollout: Veraltete Daten archivieren, ungenutzte Gast-Berechtigungen entziehen
  3. Sensitivity Labels implementieren: Projekt zur Klassifizierung der Datenlandschaft starten
  4. Stakeholder einbinden: Frühzeitig Vereinbarungen mit Betriebsrat und Datenschutzbeauftragtem abschließen
  5. Automatisierung aktivieren: Self-Healing-Funktionen moderner Permission Manager nutzen
  6. Agent-Governance etablieren: Kontrolle über Copilot Studio Agenten und deren Datenkonnektoren sicherstellen

Fazit

Der Einsatz von Microsoft 365 Copilot erfordert ein Umdenken in der organisatorischen Datenverantwortung. Die KI agiert als Spiegel der bestehenden IT-Infrastruktur – sie zeigt schonungslos auf, wo Governance-Lücken klaffen. Ein Permission Manager ist das entscheidende Werkzeug, um die notwendige Transparenz zu schaffen und die Kontrolle über Datenströme zurückzugewinnen. Durch die Kombination von nativer Microsoft-Sicherheit (Purview) mit spezialisierten Drittanbieter-Tools können Unternehmen eine sichere, effiziente und rechtskonforme KI-Umgebung etablieren – und Copilot zum Motor echter betrieblicher Wertschöpfung machen.

Teile es