Les décisions doivent être auditables, fondées sur des sources primaires et conçues pour être réutilisées en opération — afin d’être gouvernées, améliorées et mises à l’échelle sans perte de maîtrise.L’architecture décisionnelle est le système d’exploitation qui détermine comment le contexte circule, comment les décisions sont prises, comment les approbations sont déclenchées et comment les résultats sont assumés à l’intérieur d’une entreprise. (nvlpubs.nist.gov)En parallèle, l’architecture d’exploitation native IA est la couche qui rend l’IA fiable en production en structurant le contexte, l’orchestration, la mémoire, les contrôles et la revue humaine autour du travail. (nvlpubs.nist.gov)Quand les équipes canadiennes sautent l’architecture d’exploitation et se concentrent uniquement sur le modèle, elles construisent souvent des processus de décision « rapides aujourd’hui » mais « irrétrouvables demain » — à l’opposé de l’intelligence opérationnelle prête pour la gouvernance.> [!INSIGHT]> Le test le plus simple pour la qualité des décisions en IA n’est pas « la réponse est-elle juste ? » — c’est « peut-on reconstituer sur quelles bases la décision a été prise, qui a approuvé et quelles preuves opérationnelles l’étayent ? »
L’architecture décisionnelle transforme des « bonnes réponses » en décisions gouvernables
L’architecture décisionnelle rend explicites le routage et la responsabilité de la transformation entre information et résultat : quels éléments de contexte sont autorisés, quelles revues sont obligatoires et quels enregistrements sont nécessaires pour une relecture future.
Preuve. Le NIST AI Risk Management Framework (AI RMF 1.0) est structuré autour d’un modèle gouvernance + exécution — GOVERN, MAP, MEASURE, MANAGE — pour intégrer les considérations de confiance et de risque dans la conception, le développement, le déploiement et l’utilisation des systèmes d’IA. (nvlpubs.nist.gov)Conséquence. Si vous ne pouvez pas associer chaque décision opérationnelle à (a) des entrées de contexte, (b) des signaux de mesure du risque et (c) une action gouvernante et responsable, vous n’avez pas de « qualité de décision » : vous avez un processus sans propriétaire.
Les systèmes de contexte attachent des preuves primaires à chaque étape
Les systèmes de contexte sont les interfaces qui conservent les bons enregistrements, instructions, exceptions et l’historique attachés à un flux de travail lorsque le travail passe entre personnes, outils et agents.
Preuve. La Directive sur les décisions automatisées du gouvernement du Canada exige une explication significative, une intervention humaine pour les décisions plus impactantes, ainsi qu’un suivi des résultats afin d’éviter des issues involontairement injustes. Ces exigences exigent que les bons éléments de preuve soient disponibles comme « dossier de décision ». (tbs-sct.canada.ca)Conséquence. Sans systèmes de contexte, l’« explication » devient une narration plutôt qu’une reconstitution fondée sur les faits ; la revue ralentit ; et la réutilisation opérationnelle échoue, car les décisions passées ne peuvent pas être rejouées avec la même base factuelle.Un pattern opérationnel consiste à traiter le contexte comme des artefacts gouvernés :
- Références à la source de vérité (documents de politiques, procédures internes, formulaires approuvés)
- Traçabilité des données pour chaque champ factuel utilisé dans la décision- Historique des exceptions (pourquoi une déviation a eu lieu et qui l’a approuvée)
- Registres d’invocations des modèles/outils (quel outil a été exécuté, avec quels paramètres et pourquoi)Ce n’est pas un exercice de documentation : c’est le mécanisme qui rend les sorties décisionnelles auditables.
L’orchestration d’agents impose le prochain acteur et le bon réviseur
L’orchestration d’agents est la couche de coordination qui détermine quel agent, quel outil, quelle étape de workflow et quel réviseur humain agit ensuite — et selon quelles contraintes.
Preuve. Le AI RMF 1.0 du NIST structure la gestion du risque opérationnel comme des fonctions à maintenir dans le cycle de vie (pas une simple décision ad hoc à l’exécution). ([nvlpubs.nist.gov](https://nvlpubs.nist.gov/nistpubs/ai/NIST.
AI.100-1.pdf?utm_source=openai))Conséquence. C’est aussi l’endroit où vous empêchez la « prolifération d’agents » : un système où plusieurs agents répondent différemment à une même situation, sans qu’il soit possible de démontrer ensuite quelle trajectoire était autorisée.Une orchestration prête pour la gouvernance inclut généralement :
- Découpage en étapes décisionnelles : séparer « récupérer les preuves », « évaluer le risque », « rédiger la recommandation » et « approuver le résultat »- Contrôles de contraintes avant exécution (sources autorisées, actions autorisées)
- Chaînes d’escalade basées sur des seuils d’impact- Gating des preuves : pas d’approbation si les artefacts requis ne sont pas présents> [!DECISION]> Si votre orchestration ne peut pas spécifier le rôle du réviseur humain (ou une justification « pas de revue humaine requise ») par niveau d’impact, vous ne pouvez pas revendiquer une « gouvernance prête » : vous avez seulement de l’automatisation.
Arbitrages et modes de défaillance d’une architecture
d’exploitation native IAUne architecture d’exploitation native IA n’est pas « gratuite ». Plus vous optimisez l’auditabilité et la réutilisation, plus vous ajoutez de la latence, du coût de processus et de la complexité de design gouvernance.
Preuve. Le NIST AI RMF 1.0 vise la confiance via une gestion du risque structurée sur l’ensemble du cycle de vie. (nvlpubs.nist.gov) La directive canadienne impose aussi des obligations de suivi continu des résultats, ce qui crée des engagements opérationnels de preuve en production. (tbs-sct.canada.ca)Conséquence. Les modes de défaillance sont prévisibles :
- Dette de preuve : livrer avec capture partielle de contexte, puis découvrir que les audits (internes ou externes) ne peuvent pas reconstituer les décisions.
- Goulots de revue : la gouvernance est conçue comme une porte d’approbation unique au lieu d’un workflow réutilisable.
- Dérive du contexte : l’orchestrateur transmet un dossier incomplet entre frontières d’agents ; le système « sait » moins qu’il ne prétend.
- Sur-automatisation : la revue humaine existe comme case à cocher, pas comme capacité réelle avec autorité et preuves.
La mitigation est architecturale : concevoir les systèmes de contexte et l’orchestration pour produire automatiquement les preuves requises, et faire de la gouvernance un contrôle runtime (pas une réunion).
Traduire la thèse en décisions opérationnelles via un entonnoir de qualité
Pour rendre la qualité des décisions opérationnelle, il faut un entonnoir d’évaluation d’architecture qui convertit des objectifs de gouvernance en exigences concrètes pour le système.
Preuve. ISO/IEC 42001 définit des exigences pour établir, mettre en œuvre, maintenir et améliorer continuellement un système de management de l’IA (AIMS) selon une approche de système de management (Plan-Do-Check-Act). (iso.org)Conséquence. L’entonnoir d’évaluation devient votre pipeline de preuves réutilisable — il détermine ce qu’on mesure, ce qu’on journalise et ce qu’on escalade avant d’atteindre la production.Un exemple concret (tri de dossiers administratif)Imaginons un ministère qui déploie un workflow de tri assisté par IA, donnant une recommandation sur la prochaine action pour des demandes.Sans architecture d’exploitation native IA, le système peut :
- Produire une sortie rapidement, mais sans citer de sources primaires- S’appuyer sur un raisonnement implicite du modèle plutôt que sur des dossiers factuels attachés- Envoyer les cas limites en revue humaine sans « pack d’évidence » structuréAvec systèmes de contexte, orchestration d’agents et intelligence opérationnelle prête gouvernance, le même workflow devient :
- Un contexte attaché à chaque dossier : politiques utilisées, champs de données, historique des exceptions, appels aux outils- Des étapes orchestrées : récupérer les preuves → évaluer le risque → rédiger la recommandation → décider l’escalade- Une revue gouvernée : le réviseur humain est choisi par niveau d’impact et par artefacts requis- Une mesure continue : des signaux de suivi alimentent les fonctions Measure/ManageCela soutient directement les attentes canadiennes liées à l’explication et au suivi des résultats des systèmes de décision automatisés, parce que la « base de la décision » devient disponible comme preuves opérationnelles — pas comme description a posteriori. (publications.gc.ca)> [!WARNING]> N’évaluez pas un système de décision IA uniquement par la qualité de la réponse. Évaluez la reconstructibilité : entrées, approbations et artefacts de preuves dans des conditions opérationnelles réalistes.
Évaluation d’architecture
ouverte
Si votre objectif est une intelligence opérationnelle prête pour la gouvernance, le moyen le plus rapide d’éviter la dette de preuve est de lancer une Évaluation d’architecture ouverte centrée sur l’architecture décisionnelle, les systèmes de contexte, l’orchestration d’agents et la préparation à la gouvernance.Appel à l’action : Évaluation d’architecture ouverte.---Attribution : Chris June, fondateur d’IntelliSync. Publication : IntelliSync.
