Contexte et objectif du projet
- Développer un système de détection et de suivi de la posture humaine (pose estimation) en temps réel à partir d'une caméra frontale (RGB).
- Reconnaître les positions du corps, suivre les articulations principales (squelettisation) et détecter des actions ou gestes spécifiques pour une application interactive.
Missions principales
- Implémentation et optimisation de modèles de pose estimation (MediaPipe, OpenPose, MoveNet, RTMPose) pour un fonctionnement temps réel.
- Calibration des modèles pour différents environnements (variations d'éclairage, angles de caméra, occlusions) et évaluation des performances (précision, latence).
- Détection et classification d'actions/gestes spécifiques, tracking des articulations et intégration du pipeline dans une application interactive.
Livrables attendus
- Prototype opérationnel intégrant acquisition vidéo, estimation de pose, tracking et détection de gestes en temps réel.
- Code source documenté, rapport technique décrivant les choix d'architecture, les optimisations et les résultats expérimentaux, et démonstration fonctionnelle.
Compétences et technologies recherchées
- Maîtrise de Python, OpenCV et notions en computer vision ; expérience avec YOLO et frameworks de pose estimation (MediaPipe, OpenPose, MoveNet, RTMPose) un plus.
- Connaissances en optimisation pour le temps réel (accélération GPU, quantification, pruning) et bonnes pratiques d'intégration logicielle (génie logiciel).
- Intérêt pour les problématiques liées au gaming / applications interactives est apprécié.
Modalités pratiques et contact
- 1 stagiaire attendu ; profils : Génie logiciel / Intelligence Artificiel.
- Durée : 6 mois. Pour postuler, envoyer CV et référence du sujet à
contact@makerskills.tn
.