Missions :
- Mettre en place des processus d'extraction, de transformation et de
chargement (ETL) efficaces en utilisant Apache NiFi pour automatiser le
flux de données.
- Intégrer Apache Kafka pour assurer une automatisation fluide et en temps
réel du flux de don nées.
- Concevoir et déployer un entrepôt de données (data warehouse) pour
stocker de manière centralisée les données nécessaires au reporting et à
l'analyse entre les différentes sources et destinations.
- Identifier les indicateurs clés de performance (KPI) pertinents pour les
opérations de transport, puis concevoir et implémenter des mécanismes
de mesure pour évaluer et surveiller ces KPI.
- Utiliser Kibana et PowerBI pour créer des visualisations interactives et
informatives permettant une compréhension approfondie des données
liées aux opérations de transport.
Date d’expiration: 09 février, 2024