← Retour à l’accueil
Foire aux questions

Cinq rôles, une centaine de questions.

Une catégorie nouvelle, ce sont les mêmes doutes — posés différemment selon où on est assis. Trié par rôle : cherchez le vôtre.

Document Authority

CDO · Chief Knowledge Officer

Vous portez le standard transverse, la conformité (AI Act, RGPD), et l’alignement entre directions métier. Vous ne possédez aucun Document Product : vous garantissez que tous respectent les mêmes règles du jeu.

Mêmes principes, périmètre opposé. Un Data Catalog gouverne le structuré : tables, colonnes, schémas. La DKP gouverne le non-structuré : documents, sujets, contradictions éditoriales, fraîcheur de la doctrine. On retrouve l’ownership, le lineage, la qualité, l’observabilité — mais la qualité se mesure au sens, pas au format. C’est l’équivalent stratégique de ce que vous avez déjà fait sur la donnée, appliqué à l’autre moitié du patrimoine informationnel — celle qui représente 80 à 90 % du volume et que personne n’a outillée.

En couche, pas en remplacement. SharePoint, Documentum, Veeva, Confluence restent vos sources de vérité éditoriale. Votre Data Catalog garde la donnée structurée. K-AI s’intercale entre les deux : indexation sémantique des sources, audit continu, exposition d’une couche propre via MCP. Cette couche est ce que vos agents IA — Claude, Copilot, ChatGPT entreprise, agents maison — doivent consommer, au lieu d’interroger directement la base brute. C’est l’équivalent d’un semantic layer pour vos documents.

Trois exigences de fond. Un, traçabilité des sources : lineage de bout en bout, version exacte citée par chaque réponse IA. Deux, maîtrise des biais documentaires : conflits, obsolètes et doublons détectés en continu, donc l’IA ne répond plus depuis une doctrine fantôme. Trois, droit à l’explication : journal d’audit immuable des consommations IA, score de confiance par réponse, ACL miroirées au niveau du chunk. C’est ce qui rend un déploiement d’IA défendable face à un régulateur ou à un audit interne.

Quatre indicateurs structurants, lisibles par n’importe quel décideur. Taux de conflits ouverts, par domaine et global. Taux de fraîcheur : part des documents critiques dont la version a moins de douze mois. Couverture du référentiel métier : part des sujets attendus pour lesquels au moins un document publié existe. Taux de réponses IA citées vs non-sourcées. Tableau de bord par Document Owner, consolidation au niveau CDO, export trimestriel pour le Comex.

Pas obligatoire. Le CDO peut absorber le mandat, surtout si l’équipe data gouvernance a déjà la maturité. Mais l’arête documentaire est suffisamment spécifique — vocabulaire éditorial, interfaces avec les directions métier, suivi de Producers experts — pour qu’environ la moitié de nos clients dédie une personne. Parfois un poste à part entière, parfois un mandat élargi d’un Head of Data ou d’un Knowledge Lead existant. Ce n’est pas un nouveau silo : c’est la même discipline que la vôtre, appliquée à un patrimoine adjacent.

Les deux, dans cet ordre. Le standard se négocie en amont avec les Document Owners : taxonomie de criticité, durées de fraîcheur attendues, format minimal de métadonnées, processus d’audit. C’est là que se joue l’adhésion. Une fois adopté, il devient non-négociable au niveau de l’instance : pas de publication sans audit, pas de consommation IA sans citation. C’est la même logique que la fédération en Data Mesh — ownership local, standard global.

Tarification par K-AI instance (une base documentaire d’un domaine) et par volume audité. La logique est inverse de l’ECM classique : vous ne payez pas pour stocker, vous payez pour rendre activable. Un déploiement type démarre sur un ou deux domaines pilotes, valide les KPIs, puis s’étend par vague. C’est rarement le coût qui freine — c’est la disponibilité des Document Owners.

Document Owner

Direction métier (HSE, Conformité, DRH, Juridique, Médical…)

Vous dirigez un domaine. Vous engagez la qualité éditoriale de vos Document Products comme un Data Owner engage la qualité de ses tables : un Owner par Product, et un seul responsable des arbitrages.

Vous reprenez la main sur votre patrimoine documentaire. Vos procédures deviennent un Document Product nommé, versé, audité. Vous voyez en temps réel les vraies plaies : deux délais d’intervention contradictoires entre deux notes, un sujet attendu par le référentiel qui n’a aucun document publié, ou les questions récurrentes du terrain qui restent sans réponse. Vous arbitrez ces situations — vous ne rédigez pas. La doctrine reste produite par vos experts ; vous, vous tranchez.

En général entre trois et quinze, selon la taille de votre direction. La règle est simple : un Product par grand sujet de votre référentiel métier qui a sa propre logique éditoriale. En HSE, par exemple : Travail en hauteur, Espaces confinés, ATEX, Risque chimique CMR, Premiers secours. Trop peu, et vous mélangez des doctrines différentes dans un même Product, ce qui rend les conflits ingérables. Trop, et l’ownership se dilue, vos Producers ne savent plus où publier.

Oui, et c’est exactement pour cette raison que ce modèle existe. Sans plateforme de gouvernance, un agent IA répond depuis votre base brute, sans traçabilité, sans audit, sans citation. En cas de litige, vous êtes exposé sans pouvoir démontrer ce que la machine avait sous la main. Avec K-AI, chaque réponse cite la version exacte du document publié, sous l’ACL miroirée, avec un score de confiance et un horodatage. Votre responsabilité reste pleine, mais elle redevient instruite et opposable.

Trois critères, dans l’ordre. Le risque : qu’est-ce qui coûterait cher si l’IA répondait faux — contentieux, accident, sanction réglementaire ? Le volume de consultations : qu’est-ce qui est lu tous les jours par vos équipes ? L’état éditorial : qu’est-ce que vous savez déjà mal entretenu, en interne ? La quasi-totalité de nos clients démarrent sur HSE, Conformité ou Qualité, parce que ces trois domaines cumulent les trois critères. Pas de big bang — on prend un Product, on le mène en régime de croisière, on enchaine.

Premier audit lisible : deux à quatre semaines après indexation de la base — c’est déjà une photo qui dit beaucoup sur l’état réel du patrimoine. Première vague de résolutions concrètes (conflits fermés, obsolètes archivés, doublons fusionnés) : six à dix semaines. Premier cas d’usage IA fiable, branché sur votre base nettoyée via MCP : douze semaines en cible. Le rythme se cale sur la disponibilité de vos Producers, pas sur la plateforme — c’est honnête à dire.

Le Steward anime au quotidien, vous arbitrez. La plateforme expose noir sur blanc les Producers qui laissent les conflits ouverts sur leur périmètre — plus de zone grise. Mais l’adoption ne se gagne pas par la sanction : elle se gagne en montrant la valeur côté expert. Moins de questions récurrentes à traiter, moins de réunions de clarification, des réponses IA qui ne dérapent plus sur leur périmètre. En régime de croisière, les Producers défendent K-AI eux-mêmes.

Document Steward

Knowledge Manager métier · Data Steward étendu

Vous animez les Producers au quotidien, traitez les signaux qui remontent dans K-AI Audit, tenez les KPIs de qualité à jour. Vous êtes le profil principal de la console K-AI Audit — c’est là que se passent vos journées.

Le matin, vous ouvrez la console : signaux ouverts de la nuit — conflits, doublons, obsolètes, sujets manquants — triés par sévérité et ancienneté. Vous instruisez chaque signal : lecture comparative des extraits côte à côte, choix de l’action (assigner à un Producer précis, fusionner deux versions, archiver, marquer comme accepté si c’est volontaire). Une heure à une heure trente le matin suffisent en régime de croisière. Le reste de la journée, vous êtes en lien avec les Producers et le Owner : arbitrages compliqués, conventions éditoriales, montage de nouveaux Products.

Sur un domaine bien tenu : cinq à vingt signaux par jour, dont deux à cinq seulement réclament une vraie décision éditoriale. Le reste se traite en un clic — doublon évident, version vraiment périmée, motif déjà accepté. En phase de reprise initiale, c’est plus dense : quelques semaines à traiter un arriéré historique avant que la base atteigne un niveau de salubrité correct. Après, la cadence se stabilise.

Complète — et l’étend naturellement. La discipline est la même que pour la donnée structurée : vous traquez les doublons, vous surveillez la fraîcheur, vous veillez à ce que chaque actif ait un Owner. Le sujet change : sens éditorial au lieu de schéma technique, contradiction de doctrine au lieu de violation d’intégrité référentielle. Chez environ la moitié de nos clients, le Document Steward et le Data Steward sont la même personne, avec un mandat élargi et un peu plus de temps alloué.

Trois leviers concrets. Un, les seuils de sévérité sont réglables par Product — vous décidez ce qui mérite un signal et ce qui peut attendre. Deux, les signaux similaires sont groupés automatiquement : un même motif répété sur dix documents = un seul signal, vous traitez la racine. Trois, les motifs acceptés (par exemple : doublon volontaire entre version française et anglaise) sont mémorisés : la plateforme ne vous repose plus la même question. Au bout de quelques semaines, K-AI Audit connaît votre tolérance.

Connaissance métier du domaine (vous devez comprendre ce que dit la doctrine pour arbitrer), appétence éditoriale (vous travaillez sur du texte, pas sur du tableau), rigueur de Data Steward (suivi de KPIs, animation d’une communauté de Producers). Pas besoin d’être data scientist : la console est éditoriale, pas technique. Beaucoup de nos Stewards viennent de fonctions existantes : documentation, qualité, knowledge management, conformité. Le rôle est nouveau, le profil ne l’est pas.

Tout l’historique de vos décisions reste dans la plateforme : signaux traités, motifs acceptés, justifications, conventions éditoriales posées. Votre successeur reprend en lisant la trace — il voit pourquoi tel doublon a été jugé acceptable, pourquoi telle obsolescence a été archivée, quelles sont les zones tendues avec quels Producers. C’est l’opposé strict de la connaissance tacite qui disparaît avec une personne. C’est de la gouvernance écrite, transmissible.

Document Producer

Expert métier (SME) · Ingénieur, juriste, RH, médecin…

Vous êtes l’auteur. Vous écrivez et maintenez le contenu d’un Product sous l’autorité du Owner. K-AI ne rédige pas à votre place : il vous dit ce qui manque, ce qui se contredit, ce qui vieillit dans votre périmètre.

Non, et c’est même le contraire. K-AI ne produit aucune doctrine : il ne sait pas trancher entre deux interprétations d’une norme, il ne sait pas écrire un protocole nouveau, il ne sait pas décider de la position de l’entreprise sur un cas limite. La doctrine reste votre métier — c’est même ce qui justifie que vous soyez là. Ce que la plateforme fait, c’est libérer du temps : moins de questions récurrentes à traiter, moins de « ça a changé ? » par mail. Les agents IA consommeront votre contenu, pas à votre place, mais comme prolongement de ce que vous écrivez.

En régime de croisière, moins qu’aujourd’hui sans K-AI. Vous arrêtez de répondre dix fois à la même question terrain (la réponse est dans le document, et le moteur la trouve). Vous voyez vos doublons disparaître, donc vous n’écrivez plus deux fois la même chose. Vous arrêtez de chercher dans SharePoint si quelqu’un d’autre n’a pas déjà traité le sujet. La phase de reprise est plus exigeante : une à deux heures par semaine pendant quelques mois pour solder les conflits anciens. Ensuite vous regagnez largement.

Oui, mais ce n’est pas un comité de validation qui ralentit tout. Vous rédigez normalement dans Word, Confluence, votre outil habituel. Au moment où vous publiez, K-AI passe une revue automatique : conflits potentiels avec un document existant, sujets déjà couverts ailleurs, métadonnées manquantes (date d’entrée en vigueur, version, périmètre). Il vous propose une action, vous décidez. C’est une assistance éditoriale qui ressemble plus à un correcteur intelligent qu’à un guichet.

Vous le marquez comme « non-conflit », et vous écrivez en deux phrases pourquoi : deux périmètres géographiques distincts, deux versions volontairement coexistantes, deux niveaux de détail. La plateforme apprend votre arbitrage et ne reposera plus la même question. Si le Steward ou le Owner conteste, la discussion s’ouvre dans le commentaire — tracée, opposable, lisible par tous. Aucune censure invisible, aucun document modifié dans votre dos.

Oui, sans changement. K-AI n’est pas un éditeur de texte, il ne demande pas que vous déménagiez vos fichiers. Il s’adosse à vos sources existantes : Office, SharePoint, Confluence, Notion, votre GED métier. Aucun changement d’outil de production, et aucun changement d’hébergement non plus : vos documents restent là où ils sont, K-AI les indexe en passant.

Non, jamais. La couche que les agents IA peuvent consommer ne contient que les documents publiés et audités. Vos brouillons restent dans votre espace de rédaction et ne sont visibles que par vous, le Steward et le Owner du Product (pour la file d’audit). Vous gardez le contrôle sur le moment où votre travail sort en production.

Document Consumer

Collaborateurs · Agents IA · Applicatifs tiers

Vous consommez la couche propre — humain via une recherche conversationnelle, agent IA via MCP. Même contrat de qualité dans les deux cas : ce qui sort de K-AI a été audité.

Chaque réponse vient avec trois signaux. Les sources citées : titre du document, version, date. Un score de confiance : haut quand la réponse s’appuie sur un document récemment audité, bas quand les sources sont éparses ou anciennes. Un badge « audité par [le Owner du domaine] le [date] ». Si la base est trouée ou contradictoire, K-AI le dit explicitement plutôt que d’inventer. Vous décidez de faire confiance ou d’aller vérifier à la source.

Pour deux raisons. Soit aucun document publié ne couvre exactement votre question — il y a un trou dans la doctrine. Soit plusieurs documents couvrent le sujet, mais en se contredisant, et le conflit n’a pas encore été tranché. Dans les deux cas, K-AI préfère le silence à l’invention. Votre question remonte au Steward et au Owner du domaine concerné — elle alimente directement la file de travail éditoriale. C’est comme ça que la base se complète.

Oui, au niveau du paragraphe. Les droits d’accès définis dans votre source (SharePoint, GED, Confluence) sont reportés dans K-AI à la granularité fine. Vous ne verrez jamais une réponse qui s’appuie sur un document auquel vous n’avez pas droit, même partiellement. Les agents IA, quand ils sont invoqués par un utilisateur, héritent strictement de ses droits — ils n’ont jamais plus que vous.

Sur chaque réponse, un bouton « signaler ». Vous décrivez en une phrase ce qui ne va pas (information fausse, source périmée, contexte mal compris). Le retour ouvre un signal dans la console du Steward du domaine concerné, avec votre question, la réponse reçue et les sources citées. C’est une boucle de feedback structurée — pas un mail qui se perd, pas un ticket qui mijote. Vous recevez une notification quand le signal est traité.

Un endpoint MCP par K-AI instance, authentification OAuth, scopes calqués sur les droits utilisateur. Votre agent appelle kai.search ou les autres fonctions exposées, reçoit la réponse, les sources citées et le score de confiance. Compatible Claude Desktop, Cursor, Copilot Studio, agents maison. Documentation d’intégration complète dans le GitBook K-AI — vous êtes branché en quelques heures.

Non. K-AI n’entraîne aucun modèle sur vos données. Les requêtes et les réponses sont conservées uniquement pour deux usages : l’audit (savoir ce que la machine a répondu, à qui, quand, depuis quelle source) et la boucle de feedback qualité (questions sans réponse, signalements). Hébergement Europe par défaut, possibilité Snowflake ou AWS selon le contrat.

Votre question n’est pas là ?

On y répondra en 30 minutes de démo.

Demander une démo