Structuration du contexte
Corpus, chunks, métadonnées, hiérarchisation des sources et réduction du bruit.
Cette formation s'adresse aux ingénieurs, équipes data, IA et IT qui veulent structurer les sources, améliorer le retrieval, mesurer la qualité et relier le tout à une vraie gouvernance du contexte.
Corpus, chunks, métadonnées, hiérarchisation des sources et réduction du bruit.
Recherche hybride, exact match, sémantique, entités et logiques de reranking adaptées aux cas d'usage.
Approches pour suivre la pertinence, la fidélité et les dérives d'un système IA connecté à des sources internes.
Les mécanismes LLM, la fenêtre de contexte, pourquoi le RAG naïf échoue et comment le context engineering change la donne.
Pipeline d'ingestion multi-sources, chunking intelligent, métadonnées, déduplication et qualité des données en entrée.
BM25, recherche sémantique, GraphRAG, routage de requêtes, reranking et stratégies de fusion pour maximiser la pertinence.
Métriques RAGAS (fidélité, pertinence, précision), feedback loop, détection des dérives et pilotage continu de la qualité.
Non. La formation part des fondamentaux et construit progressivement. Ceux qui ont déjà un système en place repartiront avec des leviers d'amélioration concrets.
Nous utilisons la plateforme Dataloma (MCP servers), mais les concepts enseignés sont transposables à toute stack RAG : LangChain, LlamaIndex, Haystack ou solutions maison.
Le context engineering se concentre sur la qualité des données en entrée du LLM. « LLMs en production » couvre l'architecture complète : orchestration, agents, sécurité et exploitation en conditions réelles.
Oui. Chaque atelier produit du code fonctionnel et un livrable documenté. Le tout est partagé dans un dépôt privé accessible après la formation.
Formations associées
Dataloma transforme le context engineering en discipline opérationnelle, liée aux systèmes, à la qualité et à la production.