Viele KI-Initiativen im Enterprise scheitern nicht an der Modellqualität, sondern an fehlendem Kontext: Die KI „weiß” zu wenig über Dokumente, Metadaten, Berechtigungen und Prozessrealitäten. Gleichzeitig sind genau diese Informationen in Unternehmen oft bereits vorhanden – verteilt über Archive, SAP, SharePoint und Fachanwendungen.
2026 wird deshalb weniger die Frage sein, welches Modell man nutzt, sondern wie sauber man Modelle, sicher, nachvollziehbar und berechtigungsbewusst mit Unternehmenswissen verbindet. Ein Standard, der diesen Anschluss gerade vereinfacht, ist MCP – Model Context Protocol.
Kurzdefinition MCP (Model Context Protocol): MCP ist ein offenes Protokoll, mit dem KI-Anwendungen standardisiert auf externe Datenquellen und Tools zugreifen können – über klar definierte Server, die Funktionen und Ressourcen bereitstellen.
Warum MCP stark an Fahrt gewinnt
Das Problem ist nicht neu: KI braucht Kontext. Bisher wurde Kontext meist auf zwei Arten angebunden:
1. Individuelle Schnittstellen/Connectoren pro System (SAP, SharePoint, Fileserver …)
2. Modellspezifische Tool-Schnittstellen (je nach Anbieter, SDK oder Agent Framework)
Das führt zu einer klassischen N×M-Integrationsfalle: Viele Datenquellen × viele KI-Clients = hoher Aufwand, hoher Wartungsdruck, uneinheitliche Security.
MCP setzt hier an: Es schafft eine standardisierte, wiederverwendbare Kopplung zwischen KI-Clients (z. B. Desktop-Apps oder Agenten) und Daten-/Tool-Providern (MCP-Servern).
Wichtig: Das ist keine „Magic API”, sondern ein Standardisierungshebel. Für IT-, SAP- und Architekturverantwortliche bedeutet das: weniger Speziallösungen, mehr Wiederverwendbarkeit – allerdings nur dann, wenn Security und Governance sauber gelöst sind.
Darum ist Archivierung für KI plötzlich „ Kontext-Gold”
Ein Archiv ist nicht nur Speicher. In vielen Unternehmen ist es der Ort, an dem Dokumente:
• unveränderbar und nachweisbar abgelegt sind,
• mit Metadaten (Objektbezug, Belegnummer, Prozessstatus, Klassifikation) verknüpft sind,
• und über Zugriffsprotokolle wertvolle Signale liefern.
Das macht Archive attraktiv, weil KI-Systeme typischerweise drei Dinge brauchen:
1. Inhalt (Dokumente, Text, Anhänge)
2. Semantik (Metadaten, Dokumenttyp, Prozesskontext)
3. Regeln (Berechtigungen, Ausschlüsse, Aufbewahrung, Compliance)
Wenn man KI „schlauer” machen will, passiert das nicht über mehr Parameter im Modell, sondern darüber, dass man relevante, berechtigte und aktuelle Informationen zur Laufzeit bereitstellt. MCP ist dafür ein sehr passendes Bindeglied.
Das zentrale Thema: Berechtigungen sind nicht optional
Sobald Archivdaten in KI-Prozesse einfließen, wird das Berechtigungsmodell zum Dreh- und Angelpunkt. Zwei typische Fehlannahmen tauchen in Projekten besonders häufig auf.
Fehlerquelle 1: „Die KI bekommt Zugriff auf alles.”
Das klingt bequem, ist aber realistisch nicht haltbar. Spätestens bei HR-Dokumenten, Vorstandsunterlagen, Vertragswerken oder sensiblen Prozessdaten ist ein unkontrollierter Zugriff nicht vertretbar.
Fehlerquelle 2: „Wir übernehmen Berechtigungen einmalig.”
Berechtigungen sind dynamisch: Rollenwechsel, Abteilungswechsel, Projektzuordnungen, externe Benutzer, temporäre Zugriffe. Ein Snapshot wird schnell falsch.
Ein stabiler Ansatz ist deshalb: Berechtigungen werden nicht neu erfunden, sondern aus den führenden Systemen bezogen und kontinuierlich abgeglichen. Dadurch bleibt die „Source of Truth” dort, wo sie hingehört – und die KI arbeitet mit dem aktuellen Stand.
Berechtigungsstufen: „Global” vs. „User-Kontext”
In der Praxis haben sich zwei klare Zugriffsszenarien bewährt:
1) Unternehmensweite Analysen (breit, aber kontrolliert)
Beispiele: Trendanalysen, Prozesskennzahlen, Dokumentklassenauswertungen, Durchlaufzeiten, Compliance-Dashboards.
Hier darf ein KI-Agent grundsätzlich mehr sehen – allerdings idealerweise aggregiert und ohne unnötige Offenlegung von Einzelinhalten.
Best Practice: Ergebnisse globaler Analysen sollten so gestaltet sein, dass sie möglichst keine sensiblen Inhalte in Klartext ausgeben, sondern Zusammenfassungen und Statistiken liefern.
2) Prozessunterstützung im User-Kontext (streng nach Rechten)
Beispiele: Rechnungsklärung, Vertragsprüfung, Supportfälle, Änderungsprozesse.
Hier wird ein Rechtekontext mitgegeben, und der MCP-Server liefert ausschließlich Dokumente zurück, die der User auch im führenden System sehen darf.
In einer ausgereiften Zielarchitektur kann dieses Modell sehr weit gehen – bis hin zu:
• klaren Rollenstufen (Azubi sieht andere Inhalte als Teamleitung),
• vollständiger Isolation sensibler Dokumentklassen,
• definierter Ausschlussregeln, z. B. für HR oder Personalakten.
Mini-Beispiel 1: Dokumentrecherche im Prozess (User sitzt davor)
Ausgangslage:
Eine Sachbearbeiterin klärt eine Eingangsrechnung. Relevant sind Lieferscheine, Bestellungen und Vertragsanhänge – aber nur für den eigenen Verantwortungsbereich.
Ablauf (vereinfacht):
1. User arbeitet im führenden Prozesssystem (z. B. SAP)
2. KI-Client fragt per MCP: „Welche Dokumente sind zu Vorgang X relevant?”
3. MCP-Server prüft Rechte im führenden System (Rollen/Gruppen/Objektbezug)
4. MCP-Server liefert nur passende Dokumente und Metadaten zurück
5. KI liefert Zusammenfassung + sichere Verlinkung in Originaldokumente
Technischer Mehrwert:
• Rechte bleiben konsistent mit dem führenden System
• geringes Risiko für unzulässige Sichtbarkeit
• Prozess bleibt usergeführt (keine unkontrollierten autonomen Aktionen)
Mini-Beispiel 2: Globale Analyse (für definierte Rollen)
Ausgangslage:
Compliance oder IT will Nutzungsmuster erkennen: z. B. welche Dokumenttypen auffällig häufig abgerufen werden oder ob es Engpässe in bestimmten Prozessen gibt.
Ablauf:
1. Rolle “Compliance Analyst” startet Analyse
2. MCP-Server liefert aggregierte Kennzahlen statt Einzelinhalte
3. KI erstellt eine Auswertung: Trends, Auffälligkeiten, Empfehlungen
4. Drill-Down nur, wenn die Rolle es erlaubt
Metadaten + Protokolle: Von Archivdaten zu Betriebsoptimierung
Neben Dokumenten selbst sind Metadaten und Zugriffsdaten ein oft unterschätzter Hebel. Typische Datenpunkte sind:
• Dokumentklasse / Typ
• Geschäftsobjektbezug (z. B. Bestellung, Rechnung, Vertrag)
• Status- und Zeitinformationen
• Zugriffszeitpunkte, Häufigkeit, beteiligte Rollen
Damit werden Optimierungs-Use-Cases möglich, ohne dass das Archiv plötzlich zum Prozessführer wird.
Anomaly Detection: Was das bedeutet
Unter Anomaly Detection versteht man ein Verfahren zur Erkennung ungewöhnlicher Muster in Daten, z. B. untypische Zugriffe, plötzliche Häufigkeit oder ungewöhnliche Uhrzeiten. Typisch sind statistische Schwellenwerte oder Modelle, die „Normalverhalten” lernen.
Ein Beispiel:
Ein Nutzer greift plötzlich auf Dokumente zu, mit denen er üblicherweise nicht arbeitet. Das kann harmlos sein (Vertretung, neues Projekt) – oder ein Hinweis auf ein Problem.
Best Practice: Solche Hinweise sollten nicht als „Fehler” markiert werden, sondern als Signal, das man bewusst prüft. Außerdem braucht es klare Regeln:
• Wer sieht solche Signale?
• Welche Dokumentklassen sind überhaupt relevant?
• Wie wird verhindert, dass sensibler Zugriff „öffentlich” wird?
Warum kein eigener Chatbot der richtige Weg sein kann
Viele Unternehmen starten KI-Projekte mit dem Reflex: „Wir brauchen einen Chatbot.” Technisch ist das aber oft nicht die beste Architekturentscheidung.
Ein stabilerer Ansatz ist:
• Archivsysteme liefern Daten, Metadaten, Nachweise
• führende Systeme liefern Berechtigungen und Prozesskontext
• KI-Komponenten liefern Interpretation, Zusammenfassung, Assistenz
• bestehende Prozesse werden verbessert, nicht ersetzt
So entsteht kein paralleles „KI-Schattenprozesssystem”, sondern eine gezielte Verstärkung der realen Unternehmensabläufe.
Was kgs für 2026 vorbereitet: Archivdaten als KI-konformer Kontext
Für 2026 zeichnet sich eine klare Richtung ab:
1) MCP-basierter Zugriff auf archivierte Dokumente und Metadaten
• KI kann über standardisierte Tools Kontext abrufen
• Dokumente werden nicht “freigeschaltet”, sondern kontrolliert bereitgestellt
• Metadaten helfen, den richtigen Kontext schnell zu identifizieren
2) Berechtigungslogik aus dem führenden System
• kgs verwaltet Berechtigungen nicht als neues „Master-System”
• Rechte und Rollen werden aus SAP, SharePoint & Co. bezogen
• Zugriff wird damit konsistent und aktuell
3) Optional: Nutzungsdaten als Grundlage für Optimierung
• Zugriffsmuster können Hinweise liefern
• Anomalien können erkennbar werden
• Ziel ist Prozessverbesserung, nicht Prozessneuerfindung
Entscheidend ist dabei: Kunden sollen diese Funktionen nutzen können – aber nicht müssen. Optionalität ist im Enterprise-Kontext ein Vorteil, weil Governance, Security und Organisationsreife sehr unterschiedlich sind.
Zusammenfassung
MCP wird 2026 vor allem deshalb relevant, weil es die Integration von KI mit Unternehmensdaten standardisiert. Archive spielen dabei eine besondere Rolle, weil sie nicht nur Dokumente, sondern auch Metadaten und Nachweise liefern. Der Schlüssel für produktive Lösungen ist ein berechtigungsbewusstes Design, das führende Systeme als Source of Truth nutzt und sensible Dokumente konsequent schützen kann.
kgs setzt genau an dieser Stelle an: Archivdaten werden KI-konform nutzbar – mit klarer Rechte-Logik, optionalen Erweiterungen und einem Fokus auf echte Prozessunterstützung statt „Chatbot um jeden Preis”.
Key Takeaways
• MCP standardisiert KI-Toolzugriffe und reduziert Integrationsaufwand.
• Archivsysteme liefern Kontext: Dokumente, Metadaten, Nachweise.
• Berechtigungen müssen aus führenden Systemen kommen und konsequent enforced werden.
• Zwei Modi sind entscheidend: globale Analysen vs. User-Kontext im Prozess.
• Optional nutzbare Metadaten-/Logauswertungen ermöglichen Optimierung, ohne Prozesse zu „besitzen”.
Weitereführende Informationen


Weitere Infos

