Zum Inhalt springen
KI-Governance und technologische Unabhängigkeit — Lexiane-Architektur

KI-Governance & Technologische Unabhängigkeit | Lexiane

KI-Governance durch Architektur: 25 Abstraktionsschnittstellen, SHA-256-Prüfpfad, RAGAS-Qualitätsmetriken. EU AI Act und ISO 42001 konform.

KI-Governance beschränkt sich nicht auf eine Reihe interner Richtlinien und Konformitätserklärungen. Sie beruht auf der Fähigkeit einer Organisation zu demonstrieren — gegenüber ihren Führungskräften, Prüfern und Regulierern —, dass ihre KI-Systeme beherrscht werden: Beherrschung der Entscheidungen, die sie treffen, der Daten, die sie verarbeiten, der Lieferanten, von denen sie abhängen, und der Fehler, die sie machen könnten.

Diese Nachweisfähigkeit lässt sich nicht improvisieren. Sie wird in der Systemarchitektur bei den ersten Designentscheidungen aufgebaut — oder gar nicht.

Lexiane ist so konzipiert, dass jede Governance-Anforderung eine Antwort in der Architektur findet, nicht im Prozess. Dieses Dokument erläutert, wie.


Der regulatorische Kontext: Drei Referenzwerke konvergieren

Der europäische AI Act — Verordnung (EU) 2024/1689

Im Amtsblatt der Europäischen Union am 12. Juli 2024 veröffentlicht und am 1. August 2024 in Kraft getreten, schafft die KI-Verordnung einen verbindlichen Rechtsrahmen für KI-Systeme, die auf dem Markt der Europäischen Union in Betrieb genommen werden.

Für Hochrisiko-KI-Systeme — deren Verpflichtungen spätestens am 2. August 2026 vollständig anwendbar sind — schreibt der AI Act insbesondere vor:

  • Artikel 9 — Ein dokumentiertes Risikomanagementsystem, das über den gesamten Lebenszyklus des Systems aufrechterhalten wird
  • Artikel 10 — Anforderungen an Data Governance: Qualität der Trainings- und Betriebsdaten, Relevanz, Repräsentativität, Abwesenheit identifizierter Verzerrungen
  • Artikel 12 — Die Aufbewahrung von Ereignisprotokollen, die es ermöglichen, den Betrieb des Systems über einen definierten Zeitraum nachzuverfolgen, insbesondere für autonome Systeme
  • Artikel 13 — Die Transparenz des Systems gegenüber seinen Benutzern und den zuständigen Behörden
  • Artikel 17 — Ein Qualitätsmanagementsystem, das Design, Entwicklung, Validierung und Post-Market-Überwachung abdeckt

Für Organisationen, die dokumentarische KI-basierte Systeme in Sektoren einsetzen, die in Anhang III der Verordnung als hochriskant eingestuft sind — kritische Infrastrukturen, Gesundheitswesen, Bildung, Beschäftigung, Justizverwaltung —, sind diese Pflichten nicht optional.

ISO/IEC 42001:2023 — KI-Managementsystem

Im Dezember 2023 veröffentlicht, ist ISO/IEC 42001 die erste internationale Norm, die die Anforderungen an ein KI-Managementsystem (AIMS) definiert. Sie richtet sich an Organisationen, die KI-Systeme entwickeln oder nutzen, und gliedert sich nach denselben Grundsätzen wie die ISO-Managementnormen 9001 oder 27001: Richtlinie, Ziele, Planung, Unterstützung, Betrieb, Leistungsbewertung, Verbesserung.

Die Norm verlangt insbesondere die Dokumentation von KI-Nutzungsrichtlinien, die Identifizierung und Behandlung von KI-systemspezifischen Risiken, die Rückverfolgbarkeit von Systementscheidungen und den Nachweis der Beherrschung organisatorischer und sozialer Auswirkungen.

NIST AI RMF 1.0 — KI-Risikomanagementrahmen

Im Januar 2023 vom National Institute of Standards and Technology veröffentlicht, organisiert das NIST AI Risk Management Framework das KI-Risikomanagement um vier Funktionen: Govern, Map, Measure, Manage. Die Govern-Funktion ist transversal: Sie bedingt die Wirksamkeit der drei anderen, indem sie die Richtlinien, Rollen, Verantwortlichkeiten und die notwendige Governance-Kultur etabliert.


Diese drei Referenzwerke konvergieren zu denselben grundlegenden Anforderungen: Rückverfolgbarkeit von Entscheidungen, Datenkontrolle, Unabhängigkeit von Lieferanten, Mechanismen zur menschlichen Kontrolle und kontinuierliche Nachweisfähigkeit. Genau das macht die Architektur von Lexiane möglich.


Die fünf Governance-Säulen, die Lexiane adressiert

1. Data Governance

Die Data Governance eines RAG-Systems umfasst drei unterschiedliche Dimensionen: die Qualität der aufgenommenen Daten, den Schutz sensibler Daten und den Datenwohnsitz.

Qualität und Rückverfolgbarkeit der aufgenommenen Daten

Jedes Dokument, das in Lexiane eingeht, wird im persistenten MetadataStore — einer SQLite-Datenbank mit versionierter Migration — aufgezeichnet. Die Dokumentkennung, das Aufnahmedatum, das Format, die Verarbeitungsparameter und die zugehörige Sammlung werden aufbewahrt. Jederzeit ist es möglich, den exakten Zustand der Dokumentenbasis an einem bestimmten Datum zu rekonstruieren, die Dokumente zu identifizieren, die zu einer Antwort beigetragen haben, und jede am Korpus vorgenommene Änderung nachzuverfolgen.

Der SHA-256-Audit-Trail umfasst jeden Verarbeitungsschritt: aufgenommenes Dokument, erstellte Fragmente, berechnete Embeddings, extrahierte Entitäten, generierte Antworten. Jeder Eintrag ist mit dem Hash des vorherigen signiert. Die Kette ist unverletzlich: Jede nachträgliche Änderung ist mathematisch erkennbar. Dieses Register stellt den technischen Nachweis dar, dass die Daten gemäß den definierten Richtlinien verarbeitet wurden — ohne auf eine Erklärung angewiesen zu sein.

Schutz personenbezogener Daten

Der PII-Filter operiert vorgelagert der Dokumentenerfassungs-Pipeline, vor jeder Vektorisierung. Erkannte personenbezogene Daten — E-Mail-Adressen, Telefonnummern, IBAN, Sozialversicherungsnummern, IP-Adressen — werden gemäß nach Kategorie konfigurierbarer Richtlinien behandelt: typisierte Maskierung, Löschung, Hashing. Die angewandte Richtlinie wird im Audit-Trail aufgezeichnet.

Datenwohnsitz und -lokalisierung

In der Air-Gapped-Konfiguration verfügt Lexiane über keine aktive Netzwerkschnittstelle nach außen. Die Datenlokalisierung ist eine architektonische Eigenschaft, keine vertragliche. In der hybriden oder Cloud-Konfiguration ist jeder externe Adapter eine identifizierte, dokumentierte und ersetzbare Komponente — die Kartierung der ausgehenden Datenflüsse ist präzise und auditierbar.


2. Modell-Governance und Lieferantenunabhängigkeit

Eines der am meisten unterschätzten Governance-Risiken bei KI-Deployments ist die nicht dokumentierte Lieferantenabhängigkeit: ein System, das um ein einziges Sprachmodell oder einen einzigen Cloud-Anbieter herum aufgebaut ist, dessen Nutzungsbedingungen, Preise und Abkündigungsrichtlinien sich einseitig ändern.

Lexiane adressiert dieses Risiko durch Architektur. Fünfundzwanzig typisierte Abstraktionsschnittstellen definieren alle Kontaktpunkte zwischen dem Kern und externen Komponenten. Jede Komponente — Sprachmodell, Embedding-Engine, Vektordatenbank, Reranker, Dokumentparser — ist über eine dieser Schnittstellen verbunden. Die derzeit unterstützten Anbieter decken das gesamte Spektrum ab:

KomponenteUnterstützte Anbieter
LLMOpenAI · Anthropic · Ollama · Mistral.rs (lokal)
EmbeddingsOpenAI · Candle (lokal) · Ollama
Vector StoreQdrant · pgvector · SQLite (in-memory)
RerankerCohere
Sparse-SucheTantivy (BM25)
DokumentparserNativ Rust · Docling

Der Austausch einer Komponente berührt weder die Pipeline, noch die Geschäftslogik, noch die bereits indizierten Daten. Er spiegelt sich in einer Konfigurationsänderung wider. Das ist kein Flexibilitätsversprechen — es ist eine in der Systemarchitektur überprüfbare Eigenschaft.

Governance des Modell-Lebenszyklus

Jede von Lexiane erzeugte Antwort kann Metadaten über das für die Generierung verwendete Modell enthalten — Version, Anbieter, Parameter. Die Token-Verbrauchsstatistiken, die pro Schritt akkumuliert werden, sind im Pipeline-Kontext (UsageStats) zugänglich und nach der Ausführung abrufbar. Diese Daten ermöglichen die Nachverfolgung der Leistungs- und Kostenentwicklung im Laufe der Zeit und die Erkennung von Verhaltensabweichungen im Zusammenhang mit einer Modellaktualisierung.


3. Operative Governance der Pipeline

Ein KI-System in der Produktion muss beobachtbar, instrumentierbar und kontrollierbar sein. Lexiane bietet hierfür drei verschiedene Mechanismen.

Lifecycle-Hooks und Beobachtbarkeit

Das Lifecycle-Hook-System (PipelineHooks) ermöglicht die Instrumentierung jeder Pipeline-Stufe ohne Code-Änderung: on_stage_start, on_stage_complete, on_stage_error, on_pipeline_complete. Diese Callbacks empfangen den Stufennamen, ihren Status und strukturierte Metadaten. Sie ermöglichen die Echtzeit-Speisung eines externen Monitoring-Systems — Prometheus, Datadog, OpenTelemetry oder jedes interne Überwachungssystem — ohne Kopplung zwischen der Pipeline und der Beobachtungsinfrastruktur.

Ausführungsmetriken

PipelineMetrics und StageMetrics liefern aggregierte Timing-Daten nach jeder Ausführung: Dauer jeder Stufe, Gesamtdauer der Pipeline, fehlerhafte Stufen. Diese Metriken ermöglichen die Erkennung von Leistungsregressionen, die Identifizierung von Engpässen und die Verfolgung der Systemverhaltensänderung im Laufe der Zeit.

Dokumentenzugangskontrolle

Der AccessControl-Port implementiert einen Filtermechanismus für Abrufergebnisse basierend auf den Rechten des anfragenden Benutzers. Er unterstützt die RBAC-Modelle (rollenbasierte Zugangskontrolle) und ABAC (attributbasierte Zugangskontrolle). Abgerufene Dokumente werden vor der Generierung gefiltert: Ein Benutzer kann keine Antwort erhalten, die aus Dokumenten erstellt wurde, auf die er keinen Zugriff hat, auch wenn diese Dokumente in der Vektordatenbank vorhanden sind.

Dieser Mechanismus ist besonders kritisch in Multi-User-Umgebungen, in denen Daten unterschiedlicher Sensitivität in demselben Korpus koexistieren: HR-Daten, Finanzdaten, Projektdaten, nach Stufen klassifizierte Daten.

Anfragen-Routing nach Komplexität

Der QueryRouter-Port klassifiziert jede eingehende Anfrage nach ihrer Komplexität und leitet sie an den entsprechenden Pipeline-Modus weiter: linearer Pipeline für direkte Fragen, GraphRAG-Pipeline für relationale Fragen, einfache Suche für direkte Lookups, oder agentischer Modus für komplexe Analysen, die mehrere Abrufdurchläufe erfordern. Dieser Anfragen-Governance-Mechanismus ermöglicht die Optimierung der Rechenressourcen und garantiert, dass komplexe Anfragen eine angemessene Behandlung erhalten — ohne diese Wahl dem Endbenutzer zu überlassen.


4. Qualitäts-Governance und menschliche Kontrolle

Der AI Act betont in seinen Artikeln 14 und 26 die Notwendigkeit einer effektiven menschlichen Kontrolle über Hochrisiko-KI-Systeme. Diese Kontrolle ist nur dann effektiv, wenn sie informiert ist — was Mechanismen zur Messung der Ausgabequalität des Systems und Rückkopplungsschleifen erfordert, die es Benutzern ermöglichen, das Systemverhalten zu beeinflussen.

Automatische Qualitätsbewertung (RAGAS)

Der QualityEvaluator-Port implementiert RAGAS-Bewertungsmetriken für jede erzeugte Antwort:

  • Treue (faithfulness) — Ist die Antwort durch die abgerufenen Quellen gestützt, oder hat das System über den bereitgestellten Kontext hinaus extrapoliert?
  • Antwortrelevanz (answer relevance) — Behandelt die Antwort tatsächlich die gestellte Frage?
  • Kontextpräzision (context precision) — Sind die abgerufenen Passagen spezifisch relevant für die Frage?
  • Kontextabdeckung (context recall) — Hat das System alle im Korpus verfügbaren Informationen abgerufen?

Diese Metriken werden kontinuierlich auf Produktionsaustausche berechnet. Sie bilden das Qualitäts-Dashboard des Systems — ohne das menschliche Kontrolle nur auf Eindruck, nicht auf Messung basieren kann.

Eingabe- und Ausgabe-Guardrails

Eingabe-Guardrails (InputGuardrail) erkennen und blockieren Prompt-Injection-Versuche, Anfragen außerhalb des definierten Bereichs und Inhalte, die Nutzungsrichtlinien verletzen könnten. Ausgabe-Guardrails (OutputGuardrail) prüfen die erzeugte Antwort vor der Übermittlung: Erkennung toxischer Inhalte, Leckage sensibler Daten, Antwort außerhalb des Bereichs.

Diese Mechanismen sind die automatisierten menschlichen Kontrollpunkte des Systems — die Barrieren, die verhindern, dass das System die von der Organisation definierten Grenzen überschreitet.

Relevanztor und Enthaltung

Vor der Generierung bewertet RelevanceGateStage den globalen Vertrauensscore des abgerufenen Kontexts. Liegt dieser Score unter dem konfigurierten Schwellenwert, enthält sich das System der Generierung einer Antwort und signalisiert explizit die Unzulänglichkeit des Kontexts. Dieses Verhalten — Enthaltung einer unbegründeten Antwort zu bevorzugen — ist eine grundlegende Governance-Anforderung für Systeme, die in Kontexten eingesetzt werden, in denen eine falsche Antwort messbare Konsequenzen hat.

Menschliche Rückkopplungsschleife

Der FeedbackStore-Port zeichnet Benutzerrückmeldungen zu erzeugten Antworten auf: Validierung, Korrektur, Zufriedenheitsscore. Diese Daten speisen ein Rückkopplungsregister, das für die kontinuierliche Systemverbesserung genutzt werden kann — Identifizierung von Bereichen, in denen die Abrufqualität unzureichend ist, Erkennung schlecht behandelter Anfragetypen, Messung der wahrgenommenen Systemverbesserung im Laufe der Zeit.

Diese Rückkopplungsschleife ist der operative Mechanismus der kontinuierlichen menschlichen Kontrolle, den Governance-Referenzwerke fordern. Sie ersetzt die Überwachung nicht — sie macht sie nutzbar.


5. Organisatorische Governance und Verantwortlichkeit

Die Governance eines KI-Systems ist nicht nur eine technische Frage. Sie setzt identifizierte Rollen, dokumentierte Verantwortlichkeiten und eine Reaktionsfähigkeit im Falle eines Vorfalls voraus.

Aufgabentrennung durch Architektur

Die hexagonale Architektur von Lexiane materialisiert die Aufgabentrennung auf Code-Ebene. Der zertifizierte Kern (vectrant-core) liegt in der Verantwortung des Produktteams — seine Eigenschaften sind mechanisch überprüfbar. Jeder externe Adapter liegt in der Verantwortung des Teams, das ihn integriert. Die Schnittstellen zwischen beiden sind explizite, typisierte und getestete Verträge.

Diese Trennung erleichtert die Aufgabenverteilung zwischen Entwicklungsteams, Sicherheitsteams und Fachteams — ohne graue Zonen oder implizite Kopplungen.

Unveränderlichkeit des Audit-Registers

Der SHA-256-Audit-Trail ist durch Konstruktion unveränderlich. Im Falle eines Vorfalls — falsche Antwort, unbefugter Zugriff, nicht konforme Datenverarbeitung — ist die Rekonstruktion der Ereignisabfolge auf sichere und unabhängige Weise möglich. Die kryptografische Kette stellt ein unverletzliches Ereignisregister dar, das einem Regulierer, einem internen Prüfer oder einem Gericht vorgelegt werden kann, mit der Garantie, dass sein Inhalt nicht verändert wurde.

Versioning und Schema-Migration

Die SQLite- und pgvector-Adapter pflegen ein Register versionierter Migrationen (_vectrant_migrations). Migrationen werden beim Start sequenziell angewendet — nur die noch nicht angewendeten Versionen werden ausgeführt. Dieser Ansatz garantiert, dass der Datenbankzustand immer mit der Version der deployen Software übereinstimmt und dass die Entwicklungsgeschichte des Schemas dokumentiert und reproduzierbar ist.


Was Lexiane als Governance-Nachweise liefert

Ein KI-Governance-Referenzwerk — sei es der AI Act, ISO/IEC 42001 oder ein internes Referenzwerk — erfordert Beweise, keine Erklärungen. Hier ist, was Lexiane bereitstellt:

Governance-AnforderungVon Lexiane gelieferter Nachweis
Rückverfolgbarkeit von SystementscheidungenSHA-256 verketteter, unveränderlicher, exportierbarer Audit-Trail
Identifizierung verarbeiteter DatenPersistenter MetadataStore mit vollständiger Aufnahmehistorie
Schutz personenbezogener DatenIm Audit-Trail dokumentierte PII-Filterung, Richtlinie pro Kategorie
Kontrolle von Drittlieferanten25 Abstraktionsschnittstellen — erschöpfende Abhängigkeitskartierung
Zugangskontrolle zu DatenAccessControl-Port (RBAC/ABAC) — Filterung vor Generierung
Messung der AusgabequalitätRAGAS-Metriken kontinuierlich — Treue, Relevanz, Präzision, Abdeckung
Mechanismen menschlicher KontrolleEingabe-/Ausgabe-Guardrails, Relevanztor, Rückkopplungsschleife
Operative BeobachtbarkeitPipelineHooks + PipelineMetrics — Instrumentierung ohne Kopplung
Resilienz bei LieferantenausfällenÀ-la-carte-Architektur — Austausch ohne Pipeline-Änderung
Kein undefiniertes Verhalten#![forbid(unsafe_code)] vom Compiler durchgesetzt — kein unwrap() in der Produktion

Was KI-Governance von den von Ihnen eingesetzten Systemen verlangt — und was Lexiane ermöglicht

KI-Governance ist kein zu erreichender Zustand. Es ist ein kontinuierlicher Prozess: beobachten, messen, korrigieren, dokumentieren. Die Referenzwerke — AI Act, ISO/IEC 42001, NIST AI RMF — stimmen in diesem Punkt überein: Governance wird über die Zeit ausgeübt, auf Systemen, die dafür konzipiert worden sein müssen.

Ein System, das auf einem undurchsichtigen Framework aufgebaut, an einen einzigen Lieferanten gekoppelt, ohne Entscheidungsrückverfolgbarkeit und ohne Qualitätsmessungsmechanismus ist, kann dokumentarische Anforderungen erfüllen. Es kann keine echten Governance-Anforderungen erfüllen — weil die Nachweise, die echte Governance erfordert, strukturell fehlen.

Lexiane behauptet nicht, alle Governance-Probleme einer Organisation zu lösen. Es stellt die technischen Mechanismen bereit, die Governance ermöglichen: Rückverfolgbarkeit, Messung, Kontrolle, Unabhängigkeit. Die Richtlinie, die auf diese Mechanismen baut, bleibt in der Verantwortung der Organisation, die das System einsetzt.


Häufige Fragen von KI-Governance- und Compliance-Beauftragten

Unsere Organisation muss dem AI Act entsprechen. Fällt Lexiane in den Bereich der Hochrisikosysteme? Die Anwendbarkeit des AI Act auf ein bestimmtes System hängt von seiner Nutzung und dem Deployment-Kontext ab — nicht von der verwendeten Technologie. Ein in einem medizinischen, juristischen oder Rekrutierungskontext eingesetztes RAG-System kann in den Geltungsbereich von Anhang III fallen. Die Bewertung dieser Anwendbarkeit obliegt einer spezialisierten Rechtsberatung. Was wir bestätigen können: Wenn Ihr System in diesen Bereich fällt, stellt Ihnen die Architektur von Lexiane die Instrumente bereit, um den Pflichten der Artikel 9, 10, 12, 13 und 17 nachzukommen.

Ist ISO/IEC 42001 für unsere Organisation anwendbar, wenn wir die KI nicht selbst entwickeln? ISO/IEC 42001 richtet sich sowohl an Organisationen, die KI-Systeme entwickeln, als auch an solche, die sie nutzen. Ihr Geltungsbereich umfasst den gesamten Lebenszyklus — Entwicklung, Deployment, Betrieb, Außerbetriebnahme. Wenn Sie Lexiane in Ihrem Betrieb einsetzen, gelten die Normanforderungen zur Governance genutzter KI-Systeme für Sie.

Wie können wir unserem Vorstand demonstrieren, dass unser KI-System beherrscht wird? Das Governance-Dashboard, das Lexiane aufzubauen ermöglicht, basiert auf vier messbaren Indikatoren: Antwort-Treue-Rate (RAGAS), Enthaltungsrate (durch das Relevanztor abgelehnte Anfragen), Guardrail-Vorfälle (blockierte Injektionen, gefilterte Inhalte) und Entwicklung der Benutzerzufriedenheit (FeedbackStore). Diese Metriken ermöglichen ein faktisches, echtzeitfähiges KI-Governance-Reporting, ohne auf eine subjektive Bewertung angewiesen zu sein.

Können die Audit-Protokolle von Lexiane in unser SIEM isoliert werden? Das Lifecycle-Hook-System (PipelineHooks) ermöglicht den Export jedes Pipeline-Ereignisses an jedes externe Erfassungssystem — Splunk, Elastic oder jedes SIEM, das strukturierte Ereignisse konsumiert. Der SHA-256-Audit-Trail kann auch unabhängig für die regulatorische Archivierung exportiert werden.


Beginnen Sie das Gespräch über Ihren Governance-Rahmen.

Die Governance von KI-Systemen ist ein Thema, das maßgeschneidert aufgebaut wird — je nach Ihrem Sektor, Ihrem Referenzwerk, Ihrer Organisation und den Systemen, die Sie einsetzen. Wir bieten keine generische Antwort auf eine Frage, die es nicht ist.

Wir bieten einen strukturierten Austausch über Ihren bestehenden Governance-Rahmen, Ihre regulatorischen Verpflichtungen und das, was die Architektur von Lexiane konkret dazu beitragen kann.

Was Sie von diesem Austausch erwarten können:

  • Eine Antwort innerhalb von 48 Geschäftsstunden
  • Einen Ansprechpartner, der den AI Act, ISO/IEC 42001 und die operativen Herausforderungen der KI-Governance kennt
  • Eine ehrliche Kartierung dessen, was Lexiane abdeckt — und was es nicht abdeckt

→ Kontakt aufnehmen

Keine kommerzielle Verpflichtung. Ein inhaltliches Gespräch.


In diesem Dokument zitierte regulatorische und normative Referenzen: — Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates, 13. Juni 2024 (AI Act) — ISO/IEC 42001:2023, Information technology — Artificial intelligence — Management system, Dezember 2023 — NIST AI Risk Management Framework 1.0, National Institute of Standards and Technology, Januar 2023 — Verordnung (EU) 2016/679 (DSGVO) — Verordnung (EU) 2022/2554 (DORA)

Zugang zum Auditable Core anfragen

Melden Sie sich an, um benachrichtigt zu werden, wenn unser Core-Auditprogramm öffnet. Gemäß unserer Datenschutzrichtlinie wird Ihre geschäftliche E-Mail-Adresse ausschließlich für diese technische Kommunikation verwendet, ohne nachfolgende Marketingnutzung. Zugang über sicheres privates Register verteilt.

Kontakt aufnehmen