Architecture et orchestration
MCP, circulation du contexte, patterns d'orchestration et choix d'intégration selon les usages.
Cette formation couvre les sujets qui séparent le prototype du déploiement pilotable : architecture MCP, orchestration, qualité du contexte, sécurité, observabilité et local-first selon vos contraintes.
MCP, circulation du contexte, patterns d'orchestration et choix d'intégration selon les usages.
Mesure, traçabilité, garde-fous, local-first et sécurité des usages sur des systèmes réellement connectés.
Comment éviter les stacks fragiles, suivre les dérives et faire évoluer le dispositif sans réécrire tout le système.
Comprendre le protocole MCP, concevoir l'architecture serveurs, choisir les patterns d'orchestration (single, reflection, handoff, magentic) et câbler les premiers flux.
Implémenter les garde-fous (injection, validation, audit), mesurer la qualité RAG en continu (RAGAS), mettre en place les métriques et les alertes de production.
Déployer des agents spécialistes, configurer la mémoire persistante et épisodique, définir les politiques de gouvernance et le cycle d'exploitation.
Construire un système complet de bout en bout sur un cas métier réel : ingestion, retrieval, orchestration, sécurité et monitoring – du code à la supervision.
Maîtrise de Python ou TypeScript, familiarité avec les APIs REST et les concepts de base du machine learning. Pas besoin d'expérience préalable avec les LLMs.
« Context Engineering » se concentre sur la qualité des données en entrée. Ici, on couvre l'architecture complète : orchestration multi-agents, sécurité, observabilité, mémoire et exploitation en conditions réelles.
Les deux sont possibles. Par défaut, nous utilisons la stack Dataloma. Pour les formations intra-entreprise, nous pouvons adapter les ateliers à votre infrastructure existante.
Oui. Chaque participant a accès à un dépôt privé avec le code des ateliers, et l'équipe reste disponible pendant 30 jours pour répondre aux questions d'implémentation.
Formations associées
Dataloma relie le niveau architecture, le niveau contexte et le niveau gouvernance pour former à des systèmes LLM plus robustes.