entretien RH cnss


Mon stage à la CNSS a porté sur la migration des indicateurs SI AMO du système Cognos vers une nouvelle architecture décisionnelle.

J’ai conçu un DataMart structuré en modèle en étoile pour organiser les données liées aux remboursements, en utilisant SQL (Oracle/MySQL). J’ai ensuite développé des flux ETL avec Pentaho Data Integration (PDI) pour automatiser le chargement des données -et Python (Pandas, NumPy) pour- leur nettoyage et Apache Airflow pour automatiser l’extraction et la transformation des données, exécuté via Docker, et la gestion des bases de données avec SQLAlchemy.

(J’ai mené une étude exploratoire des données à l’aide de Jupyter Notebook, Matplotlib, Seaborn et Pandas Profiling, afin de détecter les anomalies et d’optimiser la qualité des données.)

Enfin, j’ai développé des dashboards interactifs avec Power BI (et Cognos Analytics on Cloud), permettant aux équipes de la CNSS d’analyser des indicateurs clés.

-------------------------------------------------------------------------------------------------------

 Mon travail a porté sur la migration des indicateurs SI AMO (Système d’Information de l’Assurance Maladie Obligatoire) du système Cognos vers une nouvelle architecture décisionnelle

L’objectif principal de mon stage était de concevoir et mettre en place une nouvelle architecture DataMart afin de structurer les données liées aux remboursements. J’ai également développé des flux ETL permettant de migrer et transformer ces données, tout en automatisant le suivi des indicateurs clés. Enfin, j’ai conçu des tableaux de bord interactifs facilitant l’analyse et la prise de décision.

La première étape de mon travail a consisté en la conception et modélisation du DataMart. J’ai utilisé SQL (Oracle/MySQL) pour la création des bases et des relations. J’ai opté pour un modèle en étoile, structuré autour de tables de faits et dimensions, permettant d’optimiser l’analyse des indicateurs clés tels que les délais de remboursement, les montants engagés et le nombre de bénéficiaires.

Ensuite, j’ai mis en place des flux ETL pour assurer l’extraction, la transformation et le chargement des données. J’ai utilisé Pentaho Data Integration (PDI) pour automatiser ces flux et Python (Pandas, NumPy) pour le nettoyage et l’enrichissement des données. Pour l’orchestration et l’automatisation des workflows, j’ai exploité Apache Airflow, exécuté via Docker, et j’ai utilisé SQLAlchemy pour manipuler les bases de données. Cette approche a permis d’intégrer de manière fluide et efficace les données issues des bases transactionnelles de la CNSS vers le DataMart.

Une phase essentielle de mon projet a été l’étude exploratoire et l’analyse des données. J’ai utilisé Jupyter Notebook pour explorer les données et identifier d’éventuelles anomalies. Grâce à Matplotlib et Seaborn, j’ai pu visualiser les distributions des variables et détecter les valeurs aberrantes. L’outil Pandas Profiling m’a permis de générer des rapports statistiques complets et d’identifier les corrélations entre les différentes variables. Ces analyses ont été cruciales pour garantir la qualité des données avant leur exploitation.

Une fois les données nettoyées et structurées, j’ai développé des dashboards interactifs pour permettre aux utilisateurs de la CNSS de suivre en temps réel les performances du SI AMO. J’ai utilisé Power BI pour créer des tableaux de bord dynamiques et Cognos Analytics on Cloud pour la migration des anciens indicateurs. Parmi les dashboards développés, j’ai conçu un suivi des délais de liquidation, une analyse des montants remboursés vs engagés, ainsi qu’un suivi du nombre de bénéficiaires et prestataires de soins.


-----------------------------------------------------------------------------------------------------------------

Ce projet s’inscrit dans un contexte de transformation numérique où la CNSS doit gérer un volume croissant de données en raison de l’extension de la couverture médicale à de nouveaux bénéficiaires.

Ce stage m’a permis de développer des compétences solides en Data Engineering, en particulier dans la conception et l’optimisation des bases de données décisionnelles. J’ai également renforcé mes compétences en ETL et automatisation, grâce à l’utilisation de Pentaho, Python et Airflow, ainsi qu’en Business Intelligence et Reporting, avec la création de tableaux de bord sur Power BI et Cognos. Enfin, ce projet m’a permis d’améliorer ma gestion de projet en respectant les délais et en interagissant avec différentes parties prenantes.

Cette expérience m’a conforté dans mon choix de carrière et renforcé mon expertise en Data & Analytics.

Comments

Popular posts from this blog

questions technique deja donner backend java spring boot

Relation