Réda L.

Big Data Engineer Cloud Azure at AXA de France
  • Claim this Profile
Contact Information
us****@****om
(386) 825-5501
Location
Greater Paris Metropolitan Region, FR

Topline Score

Topline score feature will be out soon.

Bio

Generated by
Topline AI

5.0

/5.0
/ Based on 1 ratings
  • (1)
  • (0)
  • (0)
  • (0)
  • (0)

Filter reviews by:

Redhouane G

Réda est un excellent développeur Big Data, expert sur les technologies Hadoop / Spark ( Python/Java/Scala) et les distributions Hortonworks / Cloudera. De plus de ses qualités humaines et relationnelles, il sait parfaitement s’adapter au contexte et aux enjeux du Client. Je le recommande fortement

You need to have a working account to view this content.
You need to have a working account to view this content.

Experience

    • Insurance
    • 1 - 100 Employee
    • Big Data Engineer Cloud Azure
      • Jan 2021 - Present

    • France
    • Government Administration
    • 400 - 500 Employee
    • Big Data Engineer
      • Jan 2020 - Dec 2021

      Projets : 1. Consolidation des individus et leurs contrats pour toutes les déclarations sociales nominatives (DSN) des entreprises. • Développement de jobs Spark (Java) de consolidation des individus • Développement de jobs Spark (Java) de consolidation des Contrats • Développement de job Spark (Scala) de lecture et écriture depuis et vers Hbase, avec le Hcatalog • Développement de job Spark (Scala) de Split et partitionnement des tables Hbase par modulo sur les régions servers. • Développement de job Spark (Scala) d’ingestion des fichiers Hfiles sur Hdfs et chargements massifs dans les tables Hbase 2. Migration du projet DPAE (déclaration préalable à l’embauche) de SAS vers Big Data • Développement de jobs Spark (Python) pour l’imputation des valeurs manquantes par type contrat, durée cdd, sexe et âge. • Développement de jobs Spark (Python) pour la création d’une table synthèse des déclarations préalable à l’embauche depuis 2000. • Développement de jobs Spark (Python) de contrôle de doublons et de calcul taux retard et correction retardataire. • Développement de Jobs d’import Sqoop depuis Oracle. • Développement de scripts Hql pour les tables Hive (formats Orc, Parquet) • Suivi des lancements de traitements et analyse des logs avec le Ressource Manager. • Réalisation des tests unitaires et d’intégrations. • Ordonnancement des chaines avec Oozie. • Support utilisateurs SAS sur tous l’environnement Big Data. Systèmes, SGBD, Langage: Windows 10, MobaXterm, Git Bash, Intellij IDEA, Pycharm, GIT,Keepass, Oozie, Sqoop, Hql, Shell, Java, Scala, Python Outils : HDP 3.0.1,Spark 2.3.2, Hive, Hbase Show less

    • France
    • Utilities
    • 700 & Above Employee
    • Big Data Engineer
      • Sep 2018 - Jan 2020

      Projet : Ingestion Massive de données dans le Datalake • Recueil des besoins et chiffrage lors des PI Planning. • Conception des solutions d’ingestion selon le besoin métier. • Mise en place d’une nouvelle chaine d’ingestion en mode Batch. • Mise en place d’une nouvelle chaine d’ingestion en mode Streaming. • Maintenance de la chaine d’ingestion existante avec les Kafka Connect (Syncdir,Hdfs) et Java App. • Développement d’un connecteur Kafka Jms. • Développement des schémas Avro pour l’ingestion Kafka. • Publication des schémas Avro dans le schéma registry de Kafka Confluent. • Développement d’un producer Avro pour les tests unitaires. • Développement de scripts de création de topics, de users, de droits de production et consommation des topics. • Développement de jobs Spark Batch (Scala) d’ingestion dans Hdfs, Hive et Hbase. • Développement de jobs Spark (Scala) streaming (process structuré et non structuré) d’ingestion dans Hdfs, Hive et Hbase. • Suivi des lancements de traitements et analyse des logs avec le Ressource Manager. • Réalisation des tests unitaires et d’intégrations, et rédaction des procédures de livraison. • Développement de scripts Hql pour les tables Hive (formats Json, Avro, Xml). • Ordonnancement des chaines avec Azkaban. • Chantier de migration vers des cluster Hadoop Kerberisé. • Visualisation des Dashboard de dataQuality et topics sur Grafana. • Build d’applications dans Nexus. • Déploiement des chaines sur l’ensemble des environnements avec Jenkins. • Vérification du bon déploiement d’application Java (existantes) sur les containers OpenShift. • Support utilisateurs sur Kafka, Pyspark et Hive. Systèmes, SGBD, Langage: Windows 10, MobaXterm, Git Bash, Intellij IDEA, GIT,Keepass,JIRA,Grafana, Azkaban, Jenkins,Openshift, Hql, Shell, Java, Scala, Python Outils : HDP 2.6.4, Confluent Kafka 0.11,Spark 2.3, Hive. Show less

    • France
    • Insurance
    • 1 - 100 Employee
    • Consultant Informatica Data Quality
      • Sep 2017 - Aug 2018

      Projet : Qualité des données Solvabilité 2 • Rédaction des STD • Extraction des données (Fichiers plat) • Développement des PDO, règles et Mappings • Développement des Workflow et déploiements des applications • Développement des SDM, Profile et Scores sous Informatica Analyst • Développement des Scripts sql et ksh (Korn Shell) • Préparation des Packages de livraison et des procédures d’installation • Réalisation des tests (Unitaires, Intégration) et les dossiers d’exploitation • Assistance à la MOA durant les tests de recette Show less

  • CGFOS
    • Région de Paris, France
    • Formation BigData
      • Mar 2018 - Jul 2018

      Partie 1 : Infrastructure (12 jours) • Fondamentaux du Big Data • Hadoop • Kafka • Pig-Hive-Impala et Hbase Partie 2 : Stockage NoSQL (8 jours) • SolR • Cassandra • Neo4J Partie 3 : Data Scientist (16 jours) • Spark • ElasticSearch • Machine Learning • Language R • BigData et Objets connectés Partie 1 : Infrastructure (12 jours) • Fondamentaux du Big Data • Hadoop • Kafka • Pig-Hive-Impala et Hbase Partie 2 : Stockage NoSQL (8 jours) • SolR • Cassandra • Neo4J Partie 3 : Data Scientist (16 jours) • Spark • ElasticSearch • Machine Learning • Language R • BigData et Objets connectés

    • Formation Informatica data quality & MDM
      • Jul 2017 - Sep 2017

    • France
    • IT Services and IT Consulting
    • 700 & Above Employee
    • Consultant BI informatica oracle
      • Oct 2015 - Jul 2017

      Projet : Gestion du datawarhouse du CALL CENTER AXA, des activités et sinistres ainsi que les données RH d’AXA France. Fonction: Ingénieur d’Etude et de Développement Décisionnel. Tâches : • Analyse de l’existant • Extraction des données (Fichiers plat, Base Oracle) • Alimentation du DWH et DATAMARTS • Développement et optimisation des Mappings • Développement de Workflow, et Worklet • Développement des Scripts sql et ksh (Korn Shell). • Préparation des Packages de livraison et des procédures d’installation • Réalisation des tests (Unitaires, Intégration) et les dossiers d’exploitation. • Assistance à la MOA durant les tests de recette. Environnement : • Systèmes : Windows 7, Putty • SGBD : ORACLE 11g • Langage: SQL, PL/SQL, Shell • Outils : Power Center Informatica V9 Show less

    • Morocco
    • Insurance
    • 700 & Above Employee
    • Ingénieur d’Etude et de Développement Décisionnel
      • Nov 2014 - Sep 2015

      Projet : Mise en place d’une solution décisionnelle pour le suivi des contrats d’assurance vie. Fonction: Ingénieur d’Etude et de Développement Décisionnel. Tâches : • Analyse de l’existant • Extraction des données (Fichiers plat, Base Oracle) • Alimentation du DWH et DATAMARTS • Développement et optimisation des Mappings • Développement de Workflow, et Worklet • Développement des procédures stockées et scripts Shell • Création des univers BO et des rapports sous Webi • Traitement des boucles et optimisation des univers • Réalisation des tests (Unitaires, Intégration, Recette) Environnement : • Systèmes : Windows 7, UNIX AIX 5.2 • SGBD : ORACLE 10g • Langage: SQL, PL/SQL, Shell • Outils : Power Center Informatica 8.5, BO XI R2, POWER AMC Show less

    • Assistant Ingénieur d’optimisation
      • Apr 2014 - Sep 2014

      Projet : Planification optimisée de la charge rapide des véhicules électriques en auto partage Fonction : Assistant Ingénieur d’optimisation Tâches : Proposer un algorithme de décision, modéliser le problème et l’implémenter sur un solveur de recherche locale, tester plusieurs scénarii et comparer les différents résultats. Outils et concepts associés: techniques d’optimisation, Matlab, LocalSolver. Projet : Planification optimisée de la charge rapide des véhicules électriques en auto partage Fonction : Assistant Ingénieur d’optimisation Tâches : Proposer un algorithme de décision, modéliser le problème et l’implémenter sur un solveur de recherche locale, tester plusieurs scénarii et comparer les différents résultats. Outils et concepts associés: techniques d’optimisation, Matlab, LocalSolver.

Community

You need to have a working account to view this content. Click here to join now