Aller au contenu
Indépendance technologique Core Auditable (White-Box)

Gouvernance IA & Indépendance technologique | Lexiane

Gouvernance IA mesurable et traçable : AI Act, ISO/IEC 42001, NIST AI RMF. Audit trail SHA-256, métriques RAGAS, 25 interfaces d'abstraction. Preuves de conformité vérifiables, zéro dépendance fournisseur.

La gouvernance de l’IA ne se résume pas à un ensemble de politiques internes et de déclarations de conformité. Elle repose sur la capacité d’une organisation à démontrer — à ses dirigeants, à ses auditeurs, à ses régulateurs — que ses systèmes d’intelligence artificielle sont maîtrisés : maîtrise des décisions qu’ils prennent, des données qu’ils traitent, des fournisseurs dont ils dépendent, et des erreurs qu’ils pourraient commettre.

Cette capacité de démonstration ne s’improvise pas. Elle se construit dans l’architecture du système dès les premières décisions de conception — ou elle ne se construit pas du tout.

Lexiane est conçu pour que chaque exigence de gouvernance trouve une réponse dans l’architecture plutôt que dans le processus. Ce document détaille comment.


Le contexte réglementaire : trois référentiels qui convergent

L’AI Act européen — Règlement (UE) 2024/1689

Publié au Journal officiel de l’Union européenne le 12 juillet 2024 et entré en vigueur le 1er août 2024, le règlement sur l’intelligence artificielle établit un cadre juridique contraignant pour les systèmes d’IA mis sur le marché ou mis en service dans l’Union européenne.

Pour les systèmes d’IA à haut risque — dont les obligations pleinement applicables au plus tard le 2 août 2026 — l’AI Act impose notamment :

  • Article 9 — Un système de gestion des risques documenté, maintenu tout au long du cycle de vie du système
  • Article 10 — Des exigences de gouvernance des données : qualité des données d’entraînement et d’exploitation, pertinence, représentativité, absence de biais identifiés
  • Article 12 — La conservation de journaux d’événements permettant de tracer le fonctionnement du système sur une période définie, notamment pour les systèmes autonomes
  • Article 13 — La transparence du système vis-à-vis de ses utilisateurs et des autorités compétentes
  • Article 17 — Un système de management de la qualité couvrant la conception, le développement, la validation et la surveillance post-mise sur le marché

Pour les organisations qui déploient des systèmes documentaires basés sur l’IA dans des secteurs classifiés à haut risque par l’annexe III du règlement — infrastructures critiques, santé, éducation, emploi, administration de la justice — ces obligations ne sont pas optionnelles.

ISO/IEC 42001:2023 — Système de management de l’IA

Publiée en décembre 2023, ISO/IEC 42001 est la première norme internationale définissant les exigences d’un système de management de l’intelligence artificielle (AIMS). Elle s’adresse aux organisations qui développent ou utilisent des systèmes IA, et s’articule autour des mêmes principes que les normes de management ISO 9001 ou ISO 27001 : politique, objectifs, planification, soutien, opérations, évaluation des performances, amélioration.

La norme impose notamment la documentation des politiques d’utilisation de l’IA, l’identification et le traitement des risques spécifiques aux systèmes IA, la traçabilité des décisions du système, et la démonstration de la maîtrise des impacts organisationnels et sociaux.

NIST AI RMF 1.0 — Cadre de gestion des risques IA

Publié en janvier 2023 par le National Institute of Standards and Technology, le NIST AI Risk Management Framework organise la gestion des risques IA autour de quatre fonctions : Gouverner, Cartographier, Mesurer, Gérer. La fonction Gouverner est transversale : elle conditionne l’efficacité des trois autres en établissant les politiques, les rôles, les responsabilités et la culture de gouvernance nécessaires.


Ces trois référentiels convergent vers les mêmes exigences fondamentales : traçabilité des décisions, maîtrise des données, indépendance vis-à-vis des fournisseurs, mécanismes de contrôle humain, et capacité de démonstration continue. C’est précisément ce que l’architecture de Lexiane rend possible.


Les cinq piliers de gouvernance que Lexiane adresse

1. Gouvernance des données

La gouvernance des données d’un système RAG couvre trois dimensions distinctes : la qualité des données ingérées, la protection des données sensibles, et la résidence des données.

Qualité et traçabilité des données ingérées

Chaque document qui entre dans Lexiane est enregistré dans le MetadataStore persistant — une base SQLite avec migration versionnée. L’identifiant du document, sa date d’ingestion, son format, ses paramètres de traitement et sa collection d’appartenance sont conservés. À tout moment, il est possible de reconstituer l’état exact de la base documentaire à une date donnée, d’identifier les documents qui ont participé à une réponse, et de tracer chaque modification apportée au corpus.

L’audit trail SHA-256 couvre chaque étape du traitement : document ingéré, fragments créés, embeddings calculés, entités extraites, réponses générées. Chaque entrée est signée par le hash de la précédente. La chaîne est inviolable : toute modification rétrospective est mathématiquement détectable. Ce registre constitue la preuve technique que les données ont été traitées conformément aux politiques définies — sans dépendre d’une déclaration.

Protection des données personnelles

Le filtre PII opère en amont du pipeline d’ingestion documentaire, avant toute vectorisation. Les données personnelles détectées — adresses électroniques, numéros de téléphone, IBAN, numéros de sécurité sociale, adresses IP — sont traitées selon des politiques configurables par catégorie : masquage typé, suppression, hachage. La politique appliquée est enregistrée dans l’audit trail.

Résidence et localisation des données

En configuration air-gapped, Lexiane ne dispose d’aucune interface réseau active vers l’extérieur. La localisation des données est une propriété architecturale, pas contractuelle. En configuration hybride ou cloud, chaque adaptateur externe est un composant identifié, documenté, et remplaçable — la cartographie des flux de données sortants est précise et auditoriable.


2. Gouvernance des modèles et indépendance fournisseur

L’un des risques de gouvernance les plus sous-estimés dans les déploiements IA est la dépendance fournisseur non documentée : un système construit autour d’un unique modèle de langage ou d’un unique prestataire cloud, dont les conditions d’utilisation, les tarifs et les politiques de dépréciation évoluent unilatéralement.

Lexiane adresse ce risque par architecture. Vingt-cinq interfaces d’abstraction typées définissent l’intégralité des points de contact entre le noyau et les composants externes. Chaque composant — modèle de langage, moteur d’embeddings, base vectorielle, reranker, parseur documentaire — est connecté via l’une de ces interfaces. Les fournisseurs actuellement supportés couvrent l’ensemble du spectre :

ComposantFournisseurs supportés
LLMOpenAI · Anthropic · Ollama · Mistral.rs (local)
EmbeddingsOpenAI · Candle (local) · Ollama
Vector storeQdrant · pgvector · SQLite (in-memory)
RerankerCohere
Recherche sparseTantivy (BM25)
Parseur documentaireNatif Rust · Docling

La substitution d’un composant ne touche ni au pipeline, ni à la logique métier, ni aux données déjà indexées. Elle se traduit par un changement de configuration. Ce n’est pas une promesse de flexibilité — c’est une propriété vérifiable dans l’architecture du système.

Gouvernance du cycle de vie des modèles

Chaque réponse produite par Lexiane peut inclure des métadonnées sur le modèle utilisé pour la génération — version, fournisseur, paramètres. Les statistiques de tokens consommés par étape sont accumulées dans le contexte du pipeline (UsageStats) et accessibles après exécution. Ces données permettent de suivre l’évolution des performances et des coûts dans le temps, et de détecter des dérives comportementales liées à une mise à jour de modèle.


3. Gouvernance opérationnelle du pipeline

Un système IA en production doit pouvoir être observé, instrumenté, et contrôlé. Lexiane expose trois mécanismes distincts à cet effet.

Lifecycle hooks et observabilité

Le système de hooks de cycle de vie (PipelineHooks) permet d’instrumenter chaque étape du pipeline sans modifier son code : on_stage_start, on_stage_complete, on_stage_error, on_pipeline_complete. Ces callbacks reçoivent le nom de l’étape, son statut, et des métadonnées structurées. Ils permettent d’alimenter en temps réel un système de monitoring externe — Prometheus, Datadog, OpenTelemetry, ou tout système de supervision interne — sans couplage entre le pipeline et l’infrastructure d’observation.

Métriques d’exécution

PipelineMetrics et StageMetrics fournissent des données de timing agrégées après chaque exécution : durée de chaque étape, durée totale du pipeline, étapes en erreur. Ces métriques permettent de détecter des régressions de performance, d’identifier des goulots d’étranglement, et de tracer l’évolution du comportement du système dans le temps.

Contrôle d’accès documentaire

Le port AccessControl implémente un mécanisme de filtrage des résultats de récupération basé sur les droits de l’utilisateur requérant. Il supporte les modèles RBAC (contrôle d’accès basé sur les rôles) et ABAC (contrôle d’accès basé sur les attributs). Les documents récupérés sont filtrés avant génération : un utilisateur ne peut pas obtenir une réponse construite à partir de documents auxquels il n’a pas accès, même si ces documents existent dans la base vectorielle.

Ce mécanisme est particulièrement critique dans les environnements multi-utilisateurs où des données de sensibilité différente coexistent dans un même corpus : données RH, données financières, données projets, données classifiées par niveau.

Routage des requêtes par complexité

Le port QueryRouter classe chaque requête entrante selon sa complexité et la route vers le mode de pipeline adapté : pipeline linéaire pour les questions directes, pipeline GraphRAG pour les questions relationnelles, recherche simple pour les lookups directs, ou mode agentique pour les analyses complexes nécessitant plusieurs itérations de récupération. Ce mécanisme de gouvernance des requêtes permet d’optimiser les ressources computationnelles et de garantir que les requêtes complexes reçoivent un traitement adapté — sans laisser ce choix à l’utilisateur final.


4. Gouvernance de la qualité et contrôle humain

L’AI Act, dans ses articles 14 et 26, insiste sur la nécessité d’un contrôle humain effectif sur les systèmes d’IA à haut risque. Ce contrôle n’est effectif que s’il est informé — ce qui suppose des mécanismes de mesure de la qualité des sorties du système, et des boucles de rétroaction permettant aux utilisateurs d’influencer le comportement du système.

Évaluation automatique de la qualité (RAGAS)

Le port QualityEvaluator implémente des métriques d’évaluation de type RAGAS sur chaque réponse produite :

  • Fidélité (faithfulness) — la réponse est-elle soutenue par les sources récupérées, ou le système a-t-il extrapolé au-delà du contexte fourni ?
  • Pertinence de la réponse (answer relevance) — la réponse traite-elle effectivement la question posée ?
  • Précision du contexte (context precision) — les passages récupérés sont-ils spécifiquement pertinents à la question ?
  • Rappel du contexte (context recall) — le système a-t-il retrouvé l’ensemble des informations disponibles dans le corpus ?

Ces métriques sont calculées en continu sur les échanges en production. Elles constituent le tableau de bord de qualité du système — sans lequel le contrôle humain ne peut s’exercer que sur impression, pas sur mesure.

Garde-fous d’entrée et de sortie

Les guardrails d’entrée (InputGuardrail) détectent et bloquent les tentatives d’injection de prompt, les requêtes hors périmètre défini, et les contenus susceptibles de violer les politiques d’utilisation. Les guardrails de sortie (OutputGuardrail) vérifient la réponse produite avant transmission : détection de contenu toxique, de fuite de données sensibles, de réponse hors périmètre.

Ces mécanismes sont les points de contrôle humain automatisés du système — les barrières qui empêchent le système de sortir des limites que l’organisation a définies pour lui.

Porte de pertinence et abstention

Avant la génération, RelevanceGateStage évalue le score de confiance global du contexte récupéré. Si ce score est inférieur au seuil configuré, le système s’abstient de générer une réponse et signale explicitement l’insuffisance du contexte. Ce comportement — préférer l’abstention à une réponse non fondée — est une exigence de gouvernance fondamentale pour les systèmes déployés dans des contextes où une réponse erronée a des conséquences mesurables.

Boucle de rétroaction humaine

Le port FeedbackStore enregistre les retours utilisateurs sur les réponses produites : validation, correction, score de satisfaction. Ces données alimentent un registre de rétroaction exploitable pour l’amélioration continue du système — identification des domaines où la qualité de récupération est insuffisante, détection des types de requêtes mal traitées, mesure de l’évolution perçue du système dans le temps.

Cette boucle de rétroaction est le mécanisme opérationnel du contrôle humain continu que les référentiels de gouvernance exigent. Elle ne remplace pas la supervision — elle la rend exploitable.


5. Gouvernance organisationnelle et responsabilité

La gouvernance d’un système IA n’est pas seulement une question technique. Elle suppose des rôles identifiés, des responsabilités documentées, et une capacité de réponse en cas d’incident.

Séparation des responsabilités par architecture

L’architecture hexagonale de Lexiane matérialise la séparation des responsabilités à l’échelle du code. Le noyau certifié (vectrant-core) est sous la responsabilité de l’équipe produit — ses propriétés sont vérifiables mécaniquement. Chaque adaptateur externe est sous la responsabilité de l’équipe qui l’intègre. Les interfaces entre les deux sont des contrats explicites, typés, et testés.

Cette séparation facilite la répartition des responsabilités entre les équipes de développement, les équipes de sécurité, et les équipes métier — sans zones grises ni couplages implicites.

Immuabilité du registre d’audit

L’audit trail SHA-256 est immuable par construction. En cas d’incident — réponse incorrecte, accès non autorisé, traitement de donnée non conforme —, la reconstitution de l’enchaînement des événements est possible de façon certaine et indépendante. La chaîne cryptographique constitue un registre d’événements inviolable qui peut être présenté à un régulateur, à un auditeur interne, ou à un tribunal, avec la garantie que son contenu n’a pas été altéré.

Versionnage et migration des schémas

Les adaptateurs SQLite et pgvector maintiennent un registre de migrations versionnées (_vectrant_migrations). Les migrations sont appliquées séquentiellement au démarrage — seules les versions non encore appliquées s’exécutent. Cette approche garantit que l’état de la base de données est toujours cohérent avec la version du logiciel déployé, et que l’historique des évolutions du schéma est documenté et reproductible.


Ce que Lexiane produit comme preuves de gouvernance

Un référentiel de gouvernance IA — qu’il s’agisse de l’AI Act, d’ISO/IEC 42001, ou d’un référentiel interne — exige des preuves, pas des déclarations. Voici ce que Lexiane met à disposition :

Exigence de gouvernancePreuve fournie par Lexiane
Traçabilité des décisions du systèmeAudit trail SHA-256 chaîné, immuable, exportable
Identification des données traitéesMetadataStore persistant avec historique complet d’ingestion
Protection des données personnellesFiltrage PII documenté dans l’audit trail, politique par catégorie
Maîtrise des fournisseurs tiers25 interfaces d’abstraction — cartographie exhaustive des dépendances
Contrôle d’accès aux donnéesPort AccessControl (RBAC/ABAC) — filtrage avant génération
Mesure de la qualité des sortiesMétriques RAGAS en continu — fidélité, pertinence, précision, rappel
Mécanismes de contrôle humainGuardrails d’entrée/sortie, porte de pertinence, boucle de rétroaction
Observabilité opérationnellePipelineHooks + PipelineMetrics — instrumentation sans couplage
Résilience face aux pannes de fournisseurArchitecture à la carte — substitution sans modification du pipeline
Absence de comportement indéfini#![forbid(unsafe_code)] appliqué par le compilateur — zéro unwrap() en production

Ce que la gouvernance de l’IA exige des systèmes que vous déployez — et que Lexiane rend possible

La gouvernance de l’IA n’est pas un état à atteindre. C’est un processus continu : observer, mesurer, corriger, documenter. Les référentiels — AI Act, ISO/IEC 42001, NIST AI RMF — sont convergents sur ce point : la gouvernance s’exerce dans la durée, sur des systèmes qui doivent avoir été conçus pour la rendre possible.

Un système construit sur un framework opaque, couplé à un fournisseur unique, sans traçabilité des décisions et sans mécanisme de mesure de la qualité, peut satisfaire à des exigences documentaires. Il ne peut pas satisfaire à des exigences de gouvernance réelle — parce que les preuves qu’une gouvernance réelle exige sont structurellement absentes.

Lexiane ne prétend pas résoudre tous les problèmes de gouvernance d’une organisation. Il fournit les mécanismes techniques qui rendent la gouvernance possible : traçabilité, mesure, contrôle, indépendance. La politique qui s’appuie sur ces mécanismes reste la responsabilité de l’organisation qui déploie le système.


Questions fréquentes des responsables gouvernance et conformité IA

Notre organisation doit se conformer à l’AI Act. Lexiane entre-t-il dans le périmètre des systèmes à haut risque ? L’applicabilité de l’AI Act à un système donné dépend de son usage et du contexte de déploiement — pas de la technologie utilisée. Un système RAG déployé dans un contexte médical, judiciaire, ou de recrutement peut entrer dans le périmètre de l’annexe III. L’évaluation de cette applicabilité relève d’un conseil juridique spécialisé. Ce que nous pouvons affirmer : si votre système entre dans ce périmètre, l’architecture de Lexiane vous fournit les outils pour répondre aux obligations des articles 9, 10, 12, 13 et 17.

ISO/IEC 42001 est-elle applicable à notre organisation si nous ne développons pas nous-mêmes l’IA ? ISO/IEC 42001 s’adresse aussi bien aux organisations qui développent des systèmes IA qu’à celles qui les utilisent. Son périmètre couvre l’ensemble du cycle de vie — développement, déploiement, exploitation, retrait. Si vous déployez Lexiane dans vos opérations, les exigences de la norme sur la gouvernance des systèmes IA utilisés vous sont applicables.

Comment démontrer à notre comité de direction que notre système IA est maîtrisé ? Le tableau de bord de gouvernance que Lexiane permet de construire repose sur quatre indicateurs mesurables : taux de fidélité des réponses (RAGAS), taux d’abstention (requêtes rejetées par la porte de pertinence), incidents de guardrails (injections bloquées, contenus filtrés), et évolution de la satisfaction utilisateur (FeedbackStore). Ces métriques permettent un reporting de gouvernance IA factuel, en temps réel, sans dépendre d’une évaluation subjective.

Peut-on isoler les logs d’audit de Lexiane dans notre SIEM ? Le système de hooks de cycle de vie (PipelineHooks) permet d’exporter chaque événement du pipeline vers n’importe quel système de collecte externe — Splunk, Elastic, ou tout SIEM consommant des événements structurés. L’audit trail SHA-256 peut également être exporté indépendamment pour archivage réglementaire.


Engager la conversation sur votre cadre de gouvernance.

La gouvernance des systèmes IA est un sujet qui se construit sur mesure — selon votre secteur, votre référentiel, votre organisation, et les systèmes que vous déployez. Nous ne proposons pas de réponse générique à une question qui ne l’est pas.

Nous proposons un échange structuré sur votre cadre de gouvernance existant, vos obligations réglementaires, et ce que l’architecture de Lexiane peut y apporter concrètement.

Ce que vous pouvez attendre de cet échange :

  • Une réponse sous 48h ouvrées
  • Un interlocuteur qui connaît l’AI Act, ISO/IEC 42001, et les enjeux opérationnels de la gouvernance IA
  • Une cartographie honnête de ce que Lexiane couvre — et de ce qu’il ne couvre pas

→ Prendre contact

Aucun engagement commercial. Une conversation de fond.


Références réglementaires et normatives citées dans ce document : — Règlement (UE) 2024/1689 du Parlement européen et du Conseil, 13 juin 2024 (AI Act) — ISO/IEC 42001:2023, Information technology — Artificial intelligence — Management system, décembre 2023 — NIST AI Risk Management Framework 1.0, National Institute of Standards and Technology, janvier 2023 — Règlement (UE) 2016/679 (RGPD) — Règlement (UE) 2022/2554 (DORA)

Demander l'accès au Core Auditable

Inscrivez-vous pour être notifié de l'ouverture du programme d'audit de notre Core. Conformément à notre politique de confidentialité, votre adresse professionnelle sera exclusivement dédiée à cette communication technique, sans aucun usage marketing ultérieur. Accès distribué via registre privé sécurisé.

Nous contacter