Description Évaluer et intégrer des méthodes d’explicabilité (texte/image) sur des modèles de démonstration afin de produire des explications compréhensibles pour un usage clinique simulé.
Objectifs
- Comparer des méthodes XAI sur des cas d’étude simples
- Produire une visualisation claire des explications (heatmaps, surlignage)
- Formaliser une grille d’évaluation de la qualité des explications
Travaux attendus
- Revue rapide (LIME, SHAP, Grad-CAM, etc.)
- Implémentation sur un modèle de démo (ex. classification) avec données synthétiques
- Développement d’une interface de visualisation des explications
- Rédaction d’un rapport: limites, risques, bonnes pratiques (éthique/XAI)
Technologies
- Python, LIME, SHAP, PyTorch/TensorFlow, Streamlit
Profil
- Bac+4/5 – IA / Data / Vision
- Intérêt pour l’interprétabilité et l’éthique
Durée et modalités
Contraintes
- Données simulées uniquement
- Aucun accès au cœur médical ou business
- Respect strict de la confidentialité
📧 Pour postuler:
amira.karoui@hopevision.health