VisShop AI
VisShop AI
Tunisie

project 6 Big Data-Driven Computer Vision System PFE

Computer Vision (CLIP/BLIP)Big Data / Data ScienceIA / Deep Learning

Publié il y a environ 5 heures

Stage
⏱️4-6 mois
💼Hybride
📅Expire dans 14 jours
Tu te prépares en avançant, pas avant.

Description du poste

Aperçu du projet

  • Construire un système de vision par ordinateur soutenu par des pipelines Big Data pour traiter et analyser des jeux de données visuels à grande échelle.
  • Intégration de modèles d'image/vidéo avec une architecture de données évolutive pour ingestion, stockage et analytique en temps réel.
  • Objectifs : détection, classification et extraction de motifs à partir de datasets visuels massifs.

Tâches et responsabilités

  • Concevoir et implémenter les étapes d'ingestion et de prétraitement des données (streams et batch) à l'aide d'outils Big Data (Apache Spark / Hadoop) et Kafka pour le streaming optionnel.
  • Développer et intégrer des modèles de computer vision (OpenCV, PyTorch/TensorFlow) pour détection et classification d'images/vidéos au sein de la pipeline.
  • Mettre en place le stockage et l'architecture data (MongoDB / HDFS / Data Lake) et assurer la scalabilité et la performance des traitements.
  • Implémenter des composants backend Python pour orchestrer les pipelines, surveiller les performances et fournir des APIs/exports de résultats.

Compétences requises et technologies

  • Langages & bibliothèques : Python, OpenCV, PyTorch ou TensorFlow.
  • Big Data & streaming : Apache Spark ou Hadoop, Kafka (optionnel) pour ingestion et traitement à grande échelle.
  • Stockage & bases : MongoDB, HDFS ou solutions Data Lake; connaissances des concepts de bases de données et pipelines de données.
  • Connaissances souhaitées : fondamentaux Big Data, expérience en traitement de données à grande échelle, et notions de déploiement/monitoring.

Détails pratiques

  • Durée : 4 à 6 months (niveau Bac+5).
  • Nombre d'étudiants recherchés : 1.
  • Technologies mentionnées : OpenCV, PyTorch/TensorFlow, Apache Spark/Hadoop, Kafka (optionnel), MongoDB/HDFS/Data Lake, backend Python.

Modalités de candidature