Sacha CLEMENTE
Data engineer at Hygie31- Claim this Profile
Click to upgrade to our gold package
for the full feature experience.
Topline Score
Bio
LinkedIn User
J'ai pu travailler avec Sacha dans le cadre de projet data, C'est une personne qualifié dans son domaine, avec qui on apprécie travailler Il dispose de compétences solides en développement de code python dans le cadre d'un projet en Data Science. Quelques unes de ses compétences sont axées sur du SQL, Javascript, Talend. Ce fut un plaisir d'avoir collaboré avec lui sur ces projets universitaires.
David Micouin--Jorda
J'ai eu l'occasion de travailler avec Sacha lors d'un projet Data pendant une année. C'est une personne avec laquelle on apprécie travailler, tant pour ces qualités personnelles - très gentil, honnête et intelligent - que pour ces qualités professionnelles. En effet, Sacha est une personne qui s'adapte vite et apprend rapidement dans un nouvel environnement de travail : Il est arrivé sur un projet déjà lancé mais s'est très vite intégré techniquement à l'équipe. Il est actif en réunion avec des remarques pertinentes, travaille efficacement sur les tâches et toujours dans la bonne humeur. En plus de ces compétences en Data Ingénierie, utiles pour le projet, il est très à l'aise sur le domaine de la Data Science où c'était un plaisir de discuter avec lui et envisager des suites possibles au projet.
LinkedIn User
J'ai pu travailler avec Sacha dans le cadre de projet data, C'est une personne qualifié dans son domaine, avec qui on apprécie travailler Il dispose de compétences solides en développement de code python dans le cadre d'un projet en Data Science. Quelques unes de ses compétences sont axées sur du SQL, Javascript, Talend. Ce fut un plaisir d'avoir collaboré avec lui sur ces projets universitaires.
David Micouin--Jorda
J'ai eu l'occasion de travailler avec Sacha lors d'un projet Data pendant une année. C'est une personne avec laquelle on apprécie travailler, tant pour ces qualités personnelles - très gentil, honnête et intelligent - que pour ces qualités professionnelles. En effet, Sacha est une personne qui s'adapte vite et apprend rapidement dans un nouvel environnement de travail : Il est arrivé sur un projet déjà lancé mais s'est très vite intégré techniquement à l'équipe. Il est actif en réunion avec des remarques pertinentes, travaille efficacement sur les tâches et toujours dans la bonne humeur. En plus de ces compétences en Data Ingénierie, utiles pour le projet, il est très à l'aise sur le domaine de la Data Science où c'était un plaisir de discuter avec lui et envisager des suites possibles au projet.
LinkedIn User
J'ai pu travailler avec Sacha dans le cadre de projet data, C'est une personne qualifié dans son domaine, avec qui on apprécie travailler Il dispose de compétences solides en développement de code python dans le cadre d'un projet en Data Science. Quelques unes de ses compétences sont axées sur du SQL, Javascript, Talend. Ce fut un plaisir d'avoir collaboré avec lui sur ces projets universitaires.
David Micouin--Jorda
J'ai eu l'occasion de travailler avec Sacha lors d'un projet Data pendant une année. C'est une personne avec laquelle on apprécie travailler, tant pour ces qualités personnelles - très gentil, honnête et intelligent - que pour ces qualités professionnelles. En effet, Sacha est une personne qui s'adapte vite et apprend rapidement dans un nouvel environnement de travail : Il est arrivé sur un projet déjà lancé mais s'est très vite intégré techniquement à l'équipe. Il est actif en réunion avec des remarques pertinentes, travaille efficacement sur les tâches et toujours dans la bonne humeur. En plus de ces compétences en Data Ingénierie, utiles pour le projet, il est très à l'aise sur le domaine de la Data Science où c'était un plaisir de discuter avec lui et envisager des suites possibles au projet.
LinkedIn User
J'ai pu travailler avec Sacha dans le cadre de projet data, C'est une personne qualifié dans son domaine, avec qui on apprécie travailler Il dispose de compétences solides en développement de code python dans le cadre d'un projet en Data Science. Quelques unes de ses compétences sont axées sur du SQL, Javascript, Talend. Ce fut un plaisir d'avoir collaboré avec lui sur ces projets universitaires.
David Micouin--Jorda
J'ai eu l'occasion de travailler avec Sacha lors d'un projet Data pendant une année. C'est une personne avec laquelle on apprécie travailler, tant pour ces qualités personnelles - très gentil, honnête et intelligent - que pour ces qualités professionnelles. En effet, Sacha est une personne qui s'adapte vite et apprend rapidement dans un nouvel environnement de travail : Il est arrivé sur un projet déjà lancé mais s'est très vite intégré techniquement à l'équipe. Il est actif en réunion avec des remarques pertinentes, travaille efficacement sur les tâches et toujours dans la bonne humeur. En plus de ces compétences en Data Ingénierie, utiles pour le projet, il est très à l'aise sur le domaine de la Data Science où c'était un plaisir de discuter avec lui et envisager des suites possibles au projet.
Credentials
-
Microsoft certified: Security, Compliance, and Identity Fundamentals
MicrosoftAug, 2022- Nov, 2024 -
Certified Azure Data Engineer Associate
MicrosoftJul, 2022- Nov, 2024 -
Microsoft Certified: Azure AI Fundamentals
MicrosoftJul, 2022- Nov, 2024 -
Microsoft Certified: Azure Fundamentals
MicrosoftJul, 2022- Nov, 2024 -
Microsoft Certified: Azure Data Fundamentals
MicrosoftJun, 2022- Nov, 2024 -
Microsoft Certified: Azure Data Scientist Associate
MicrosoftSep, 2022- Nov, 2024
Experience
-
Hygie31
-
France
-
Retail Health and Personal Care Products
-
1 - 100 Employee
-
Data engineer
-
Jul 2023 - Present
MISSION TOUJOURS EN COURSTBD
-
-
Freelance Data engineer
-
May 2023 - Present
MISSION TOUJOURS EN COURSHygie31 HoldingData Engineer | Architect Objectif : Modernisation et Migration d'un système d'information on-premises (Microsoft SQL Server) vers une infrastructure de données moderne basée sur Snowflake, Azure, Python, Informatica (ETL/ELT) et DBT.Mise en place de l'infrastructure Azure : Conception et déploiement d'environnements de développement (Dev), d'intégration (Int), et de production (Prod) sur Azure, avec leurs ressources associées, y compris Data Lake et Data Vault, Managed IdentitiesCréation d'application SSOBeekeper RBAC sur microsoft Entra ID, gestion des droits d'accès utilisateursAutomatisation des déploiements : Configuration de l'intégration continue et du déploiement continu (CI/CD) à l'aide d'Azure DevOps pour les différents projets, notamment Informatica, Snowflake, et DBT.Infrastructure et RBAC snowflake : Création et administration des rôles, utilisateurs, entrepôts (warehouses), et autorisations sur Snowflake, en fonction des besoins spécifiques des utilisateurs.Développement de scripts Python : Création de scripts Python pour automatiser divers tâches liées à la gestion des données.Web Scraping : Conception d'un projet de web scraping visant à extraire des informations essentielles de bases de données de médicaments, tel que les prix, la notice, les identifiants CIP, etc.Projet DBT : J'ai mis en place un projet DBT pour optimiser la transformation des données sur Snowflake, en veillant à : Lineage : Traçabilité des données, de leur source à leur utilisation. DOC: Créer la documentation automatique Tests de données Scheduling : Automatiser les transformations de données Modèles incrémentiels avec clés de hachage : Utiliser des modèles DBT incrémentiels pour éviter de surcharger le compute sur snowflakeDéveloppement Informatica : Conception de pipelines de données, visant à migrer les données de l'environnement on-premises vers la plateforme Snowflake Show less
-
-
-
Devoteam
-
France
-
Information Technology & Services
-
700 & Above Employee
-
Data Engineer | Architect
-
May 2022 - May 2023
Mission lead data engineer chez Airbus Design, conception et maintenance de pipelines de données afin de construire des systèmes data robuste et fiable permettant une haute disponibilité et scalabilité. Utilisant les technos: Docker et Airflow et python sparQL pour extraire, transformer et charger des jeux de données volumineux à partir de différentes sources, y compris les API, databases etc... Application de design pattern pour assurer la qualité et la maintenabilité des pipelines et du code. Mise en place de pipeline de traitement ETL avec airflow et python pour insérer des données préalablement traités dans des base mongoDB et neo4j Développement des models de ML ainsi que des analyses de données, identifiant des tendances, vulgarisant les analyses, mise en place d'insights pouvant améliorer les performances de l'entreprise et aider la prise de décision Mise en place de solutions de data warehousing avec SQL et optimisation des performances de stockage et de récupération de données à l'aide de techniques d'indexation et de partitionnement. Collaboration avec les acteurs métier afin de nous fournir les informations sur les besoins et sur les processus de l'entreprise afin d'en déterminer les enjeux collaboration avec les developpeurs applicatif/ front afin de développer Créant des visualisations de données pour faciliter la compréhension des données par les utilisateurs non techniques. Gestion du contrôle de version avec git Utilisation de Neo4j pour modéliser les airbus business process, msg etc.. au format graph, créer des insights et créer des modèles afin de faire des analyses sur le réseau et découvrir les noeuds et les relations les plus influentes Techno: Python, Airflow, Docker, SQL, sparQL, neo4j, Git Show less
-
-
-
ADENTIS
-
France
-
IT Services and IT Consulting
-
200 - 300 Employee
-
Data engineer
-
May 2021 - May 2022
Création d'une Plateforme de Données Moderne sur Azure La réalisation d'une plateforme de données moderne. La "Datachain" est une solution complète sur azure qui intègre des pipelines automatisés avec entre autres datafactory (ETL) alimentés par des fichiers CSV issus de datalake. Tout le processus de développement et de gestion de code est centralisé sur à Azure DevOps, avec des processus de CICD et de test. Le datawarehouse à été conçu sur une base azure SQL database pour la centralisation des données. Certains scripts ont été conçus avec python pour faire de l’extraction de logs de l’automatisation de petite tâche ou bien du webscrapping, scheduler sur azure datafactory et azure fonction Les pipelines de données, conçus avec Azure Data Factory V2, permettent une intégration des données provenant de multiples sources, dont SAP, Anaplan, JIRA, Workday, et d'autres encore. Cela se traduit par la création de business objects (BO) qui enrichissent les données métiers. La qualité des données étant l'asset N1. Les tests automatiques ont été implémentés pour les pipelines de traitement pour éviter toute régression, et le déploiement est totalement automatisé grâce à Azure DevOps. Une solution de surveillance, s'appuyant sur des tableaux de bord Logs Analytics et des notifications par e-mail, garantit la gestion de la plateforme en cas d’erreurs des pipelines. La gestion des coûts est également au cœur du sujet. Un suivi des coûts de production et de pré-production a été mis en place grâce à une solution de monitoring basée sur Logs Analytics. Cette initiative a permis de réduire de manière significative les coûts opérationnels, avec une réduction de 35%. Parallèlement, des optimisations ont été apportées aux processus de la Datachain, améliorant l'efficacité des pipelines, du datawarehouse, et des pipelines CI/CD. Environnement tech: Python, Azure, SQL, GIT, DATAFACTORYV2, logs analytics Show less
-
-
-
Orange
-
France
-
Telecommunications
-
700 & Above Employee
-
Data Analyst
-
Sep 2019 - Sep 2020
Expérience au sein de la Direction des Réseaux ADSL & FTTH - Pôle Data Au sein de la Direction des Réseaux ADSL & FTTH, au pôle data, j'ai joué un rôle clé dans divers projets axés sur la transformation de données, dans le cadre de la mise en place d'analyse de données automatique Mon travail a principalement consisté à concevoir et déployer des outils de traitement et d'analyse de données, ainsi que des pipelines automatisés. Au cours de cette période, j'ai contribué sur les différents sujets: Été 2020 : J'ai orchestré le traitement de données et mis en œuvre des analyses statistiques, utilisant des méthodes de machine learning pour optimiser les intervalles de maintenance sur les équipements, tout en alimentant notre datawarehouse d'entreprise. Orange Côte d'Ivoire : J'ai réalisé la visualisation des données du réseau d'Orange OCI à l'aide de Tableau Software, permettant ainsi la création de règles internes pour une meilleure gouvernance des données. Analyse des Sondages : J'ai travaillé sur le traitement et l'analyse des sondages d'Orange en utilisant des méthodes descriptives et inférentielles pour identifier des corrélations significatives. Développement de l'outil de visualisation de volumétrie des tickets océane : J'ai travaillé sur la création de cet outil, assurant le traitement efficace des tickets, la visualisation, et l'automatisation des processus, tout en intégrant les résultats dans notre datawarehouse. De plus, j'ai développé des scripts automatiques en python pour nos pipelines Les technologies et environnements techniques: Python, Pandas, Numpy, Scikit-Learn, TensorFlow, Keras, Matplotlib, Windows, Hadoop, Apache Hive, Tableau Software, Osiee, et SQL Show less
-
-
-
Atos
-
France
-
IT Services and IT Consulting
-
700 & Above Employee
-
Data Engineer - internship
-
Nov 2018 - May 2019
Au sein de l'équipe Big data & analytics. J'ai pu participer à l'élaboration d'une plateforme cloud big data lors de mon stage pour le client LVMH Dior Mission -> Développement d’algorithme automatisé en python sur azure automation, permettant d'ingérer les erreurs d'un ETL que produisent les données clientes lors de l'insertion dans la base. Développement de Script python scheduler dans azure fonction Développement d'une web app pour visualiser les données relatives aux erreurs. Développement d'un assistant vocal Alexa skill. Résultat: - Optimisation de la plateforme cloud - Monitoring des erreurs Environnement technique: Python, GIT, Microsoft Azure, Nodejs, Angularjs, Automation, Datafactory, Datalake Show less
-
-
-
Sogeti
-
France
-
IT Services and IT Consulting
-
700 & Above Employee
-
Data Engineer - internship
-
Apr 2018 - Aug 2018
Au sein de l'équipe big data, j'ai pu participer au projet de la plateforme cloud Sobloo en partenariat avec Airbus defense & space et l'ESA. Mes actions -> Développements de trois algorithmes (use case) d'ingestion, sauvegarde, roleback. La création de pipeline scheduler sur apache NIFI avec la logique faite par des scripts python dans les connecteurs sur une solution dockerisé Développement d'une web app / fullstack avec python Résultat : Use case fonctionnel monitoring des données sur l'outil de dataviz Environnement technique : Hadoop, Python, Apache NIFI, bash, Grafana, Docker, Virtualbox, Linux Show less
-
-
Education
-
Université Toulouse - Jean Jaurès
Master en informatique, Informatique, statistique, mathématiques appliquées à la gestion de production -
Université Paul Sabatier Toulouse III
Licence Professionnelle, Gestion informatiques des données massives -
Université Paul Sabatier Toulouse III
DUT, Informatique