Missions :
- Mettre en place des processus d'extraction, de transformation et de chargement (ETL) efficaces en utilisant Apache NiFi pour automatiser le flux de données.
- Intégrer Apache Kafka pour assurer une automatisation fluide et en temps
réel du flux de données.
- Concevoir et déployer un entrepôt de données (data warehouse) pour
stocker de manière centralisée les données nécessaires au reporting et à
l'analyse entre les différentes sources et destinations.
- Identifier les indicateurs clés de performance (KPI) pertinents pour les
opérations pour le secteur de l'assurance, puis concevoir des mécanismes de mesure pour évaluer et surveiller ces KPI.
- Utiliser Kibana et PowerBI pour créer des visualisations interactives et
informatives permettant une compréhension approfondie des données liées au secteur de l’assurance
Date d’expiration: 09 février, 2024