Vous avez déployé un assistant IA dans votre entreprise. Vos équipes lui posent des questions. Il répond. Mais savez-vous vraiment sur quoi il s'appuie pour répondre ? Et surtout : sur quoi il ne s'appuie pas ?
La réponse à cette question est au cœur du context engineering.
Ce que n'importe quel LLM sait par défaut
Un modèle de langage (LLM) comme GPT-4, Claude ou Mistral a été entraîné sur des milliards de textes publics : Wikipedia, livres, articles, forums, documentation technique. Il est donc très compétent pour des questions générales.
Mais il n'a jamais lu :
- Votre convention collective ou règlement intérieur
- Votre catalogue produits avec les prix actuels
- Vos procédures RH mises à jour en janvier dernier
- Vos comptes rendus de réunion de la semaine passée
- Les particularités de votre secteur ou de votre marché local
Résultat : quand un collaborateur lui demande "quel est notre délai de préavis pour les congés ?", il va répondre avec une règle générale – parfois correcte par chance, souvent incorrecte par rapport à vos accords d'entreprise spécifiques.
Le paradoxe de l'IA "intelligente mais ignorante"
C'est le paradoxe central de l'IA en entreprise : le modèle est brillant sur des sujets généraux, mais totalement ignorant de votre contexte particulier. Et il ne vous dira pas qu'il ne sait pas. Il répondra avec confiance, même si la réponse est fausse pour votre cas.
Ce n'est pas un défaut du modèle. C'est sa nature : il fait ce qu'on lui demande avec ce qu'il a « en tête ». Si vos données internes ne sont pas dans ce qu'il a en tête, il répond à côté.
Les trois niveaux de connaissance d'une IA d'entreprise
Pour évaluer ce que votre IA sait vraiment, il est utile de distinguer trois niveaux :
Niveau 1 – Ce qu'elle sait de base (connaissance générale)
Droit du travail général, concepts comptables courants, notions de management, langues, culture générale. C'est la « culture générale » du modèle. Fiable pour des questions non-spécifiques, souvent suffisante pour des tâches de rédaction ou de synthèse.
Niveau 2 – Ce que vous lui donnez au moment de la question (contexte injecté)
Si vous lui envoyez un document avec votre question, il peut s'en servir pour répondre. C'est ce qu'on appelle le RAG (Retrieval Augmented Generation) dans sa forme simple. C'est utile, mais limité : il ne sait que ce que vous lui montrez à l'instant.
Niveau 3 – Ce qu'elle connaît de façon structurée et permanente (context engineering)
C'est ici que tout change. Avec une plateforme de context engineering, vos documents, procédures et données sont indexés, gouvernés et fournis de façon intelligente à l'IA – selon la question posée, le profil de l'utilisateur et la fraîcheur de l'information. L'IA "sait" vraiment ce qui est pertinent pour répondre à chaque question spécifique.
Ce que votre IA devrait savoir (et souvent ne sait pas)
Voici un inventaire rapide des informations que votre IA d'entreprise devrait pouvoir mobiliser – et que la plupart des déploiements n'ont pas encore structurés :
| Type d'information | Utilité métier | Souvent absent ? |
|---|---|---|
| Procédures internes écrites | Réponses conformes à vos pratiques | ⚠️ Oui, souvent |
| Catalogue produits / tarifs à jour | Réponses commerciales exactes | ⚠️ Très souvent |
| Organigramme et responsabilités | Orientation vers le bon interlocuteur | ⚠️ Rarement intégré |
| Base de connaissances support | Réponses aux questions récurrentes | ✅ Parfois présent |
| Données CRM | Contexte client dans les échanges | ⚠️ Rarement |
| Règles métier sectorielles | Conformité et précision des réponses | ⚠️ Très souvent absent |
Comment lui donner la bonne connaissance ?
La réponse est le context engineering : une discipline qui consiste à décider quels documents et données fournir à l'IA, comment les structurer, comment les tenir à jour, et comment s'assurer que chaque réponse s'appuie sur les bons éléments.
Concrètement, cela implique :
- Recenser les sources de vérité dans votre organisation (procédures, wikis, bases documentaires)
- Les indexer et les gouverner pour que l'IA puisse les retrouver facilement selon le contexte de la question
- Les maintenir à jour afin que les réponses reflètent toujours la dernière version (et non un document de 2022 archivé)
- Contrôler les accès pour que chaque utilisateur n'obtienne que les informations auxquelles il a droit
C'est exactement ce que fait Dataloma : nous connectons votre IA à vos véritables sources de connaissance, localement, sans exfiltration de données.
Ce que votre IA devrait ne jamais "savoir"
La question inverse est tout aussi importante : votre IA ne devrait pas avoir accès à tout. Un collaborateur du service commercial ne doit pas pouvoir obtenir des données salariales RH. Un prestataire externe ne doit pas pouvoir consulter vos comptes.
Un context engineering bien conçu intègre des règles de confidentialité et des contrôles d'accès par rôle. L'IA est alors précise et fiable – et sécurisée.
Vous souhaitez faire le point sur ce que votre IA actuelle sait (ou ne sait pas) de votre entreprise ? C'est souvent le meilleur point de départ pour un déploiement IA qui fonctionne vraiment.