Automatisation de la validation:
- Créer un pipeline Python pour tester robustesse, performance et stabilité des modèles (AUC, Gini, KS, PSI/stability index), analyse de sensibilité/overfitting, tests réglementaires (backtesting IFRS9/FRTB).
- Générer automatiquement un rapport de validation standardisé (Word/PDF/PowerBI) via LLM.
Surveillance continue (Monitoring Agent):
- Intégrer EvidentlyAI, MLFlow, Arize pour détecter drift, biais, dégradation de performance.
- Concevoir un agent IA résumant les anomalies et proposant des actions correctives.
Orchestration agentique:
- Utiliser LangChain/CrewAI/AutoGen pour orchestrer des sous-agents: Validation, Documentation, Monitoring.
Prototype “Model Risk Dashboard”:
- Développer un dashboard (PowerBI/Streamlit) consolidant résultats et offrant une interface de supervision.
Exigences:
- Python (pandas, scikit-learn, statsmodels).
- MLFlow / EvidentlyAI / LangChain / CrewAI.
- LLM via API (OpenAI, Anthropic, Mistral).
- Streamlit / PowerBI / Git.
Durée et effectif:
- Durée: 5 mois (Fév – Juin).
- Nombre de stagiaires: 1.