Bienvenue sur mon portfolio de Data Analyst et Data Engineering
View the Project on GitHub pigaloup/El-Hadji-Ablaye-Galoup-DIOP
Chef dâĂ©quipe de fabrication reconverti en Data Analyst, je suis passionnĂ© par lâanalyse des donnĂ©es et la prise de dĂ©cisions stratĂ©giques. Fort de plusieurs annĂ©es dâexpĂ©rience dans le support aux ventes et lâanalyse commerciale, jâexcelle dans la mise en place de procĂ©dures de collecte de donnĂ©es, dans lâanalyse des performances et la crĂ©ation de tableaux de bord pour optimiser les opĂ©rations et les ventes. Mon approche analytique et ma capacitĂ© Ă proposer des solutions innovantes me permettent de soutenir efficacement les Ă©quipes commerciales et de contribuer Ă la croissance de lâentreprise.
Mise en place de tableau de bord et suivi des KPIs, Analyser les performances du canal de distribution, par agents, par volume de ventes, par produits, etc.
Ce rapport interactif Power BI a Ă©tĂ© conçu pour analyser les performances commerciales Ă lâĂ©chelle des magasins et des dĂ©partements. Il met en Ă©vidence les ventes totales, la croissance annuelle, la rentabilitĂ© estimĂ©e et lâimpact des promotions sur les marges.
Ce projet met en place un pipeline ETL automatisĂ© pour collecter, transformer et charger des donnĂ©es mĂ©tĂ©orologiques issues de lâAPI NASA POWER.
Lâobjectif est de construire une base de donnĂ©es exploitable pour lâanalyse climatique de plusieurs pays dâAfrique de lâOuest (SĂ©nĂ©gal, Mali, CĂŽte dâIvoire, GuinĂ©e, Nigeria, Ghana, Burkina Faso). Le pipeline est orchestrĂ© par Apache Airflow, qui planifie et supervise lâensemble du processus. Les donnĂ©es brutes sont nettoyĂ©es et transformĂ©es grĂące Ă Apache Spark, puis les rĂ©sultats finalisĂ©s sont stockĂ©s dans une base de donnĂ©es MySQL pour faciliter leur exploitation et leur analyse.
Le projet comprend Ă©galement des Ă©tapes dâanalyse statistique et de visualisation des donnĂ©es dans Power BI.
MacroBus, une entreprise spĂ©cialisĂ©e dans la vente de vĂ©hicules sur plusieurs marchĂ©s, souhaite optimiser ses performances commerciales et faciliter la prise de dĂ©cision Ă travers un systĂšme dĂ©diĂ©. Ce projet consiste Ă mettre en place un entrepĂŽt de donnĂ©es pour servir de source aux tableaux de bord dĂ©cisionnels afin de piloter efficacement lâactivitĂ© commerciale et analyser les commandes. Parties Prenantes : PDG, Gestionnaire de base de donnĂ©es, Data Engineering, Data Analyst.
Ce pojet consiste Ă Concevoir un pipeline ETL automatisĂ© pour dĂ©congestionner les autoroutes nationales en consolidant des donnĂ©es multi-formats (CSV, TSV, Fixed-Width) issues de diffĂ©rents opĂ©rateurs de pĂ©age. Pour ce faire jâutilise Apache Airflow pour orchestrer un pipeline ETL complet : tĂ©lĂ©chargement, extraction multi-formats, consolidation et transformation des donnĂ©es pour produire un fichier unique prĂȘt Ă lâanalyse.
| Domaine | Compétences |
|---|---|
| Langages | Python, SQL |
| Big Data & Data Processing | Apache Spark |
| Orchestration & Workflow | Apache Airflow |
| Analyse | Excel, Pandas, Jupyter Notebook |
| Visualisation | Power BI, Tableau, Matplotlib, Seaborn,Google Looker Studio, IBM Cognos Analytics |
| Bases de données | MySQL, MongoDB |
| ERP & CRM | NetSuite Oracle, FieldPro, Lengo, Georis |
đ§ Email : elhadjiablayegaloupdiop@gmail.com
đŒ LinkedIn : www.linkedin.com/in/ablayegaloupdiop
đ Portfolio Web : https://pigaloup.github.io/El-Hadji-Ablaye-Galoup-DIOP/