Colin Thirard

Data Scientist - Enedis at NOVENCIA Group
  • Claim this Profile
Contact Information
us****@****om
(386) 825-5501
Location
Lyon, Auvergne-Rhône-Alpes, France, FR
Languages
  • Français -
  • Anglais opérationel -

Topline Score

Topline score feature will be out soon.

Bio

Generated by
Topline AI

You need to have a working account to view this content.
You need to have a working account to view this content.

Experience

    • France
    • Information Technology & Services
    • 100 - 200 Employee
    • Data Scientist - Enedis
      • Feb 2021 - Present

      𝐂𝐨𝐧𝐭𝐞𝐱𝐭𝐞 Responsable du réseau de distribution électrique français, Enedis a la charge de s'assurer que tous ses clients soient alimentés en électricité. Dans le cadre de ma mission chez Enedis, je travaille sur deux projets distincts : • Cartoline, qui est un outil de maintenance prédictive sur le réseau basse tension • Gestion de dépannage, étude sur la gestion des pannes et le choix de réalimentation des clients. 𝐌𝐢𝐬𝐬𝐢𝐨𝐧𝐬 𝐂𝐚𝐫𝐭𝐨𝐥𝐢𝐧𝐞 •… Show more 𝐂𝐨𝐧𝐭𝐞𝐱𝐭𝐞 Responsable du réseau de distribution électrique français, Enedis a la charge de s'assurer que tous ses clients soient alimentés en électricité. Dans le cadre de ma mission chez Enedis, je travaille sur deux projets distincts : • Cartoline, qui est un outil de maintenance prédictive sur le réseau basse tension • Gestion de dépannage, étude sur la gestion des pannes et le choix de réalimentation des clients. 𝐌𝐢𝐬𝐬𝐢𝐨𝐧𝐬 𝐂𝐚𝐫𝐭𝐨𝐥𝐢𝐧𝐞 • Optimisation de la chaîne de traitements des données • Conception de modèles pour la détection préventive de pannes sur le réseau BT • Mise en production des nouveaux traitements • Définition et réalisation de KPI de performance des modèles 𝐆𝐞𝐬𝐭𝐢𝐨𝐧 𝐝𝐞 𝐝𝐞́𝐩𝐚𝐧𝐧𝐚𝐠𝐞 • Cadrage de l'étude • Création du flux de données permettant l'analyse des données • Définition et réalisation des différents axes d'analyses/indicateurs de l'étude statistique 𝐄𝐧𝐯𝐢𝐫𝐨𝐧𝐧𝐞𝐦𝐞𝐧𝐭 𝐭𝐞𝐜𝐡𝐧𝐢𝐪𝐮𝐞 𝐞𝐭 𝐟𝐨𝐧𝐜𝐭𝐢𝐨𝐧𝐧𝐞𝐥 Python / R / postgresql / teradata / git / spark

    • Consultant Data Scientist
      • Oct 2019 - Present

    • Data Scientist - Bedrock
      • Jul 2020 - Sep 2020

      𝐂𝐨𝐧𝐭𝐞𝐱𝐭𝐞 Conception et mise en œuvre pour Bedrock Streaming (socle technique des fournisseurs de contenus Salto, 6Play de M6, RTLPlay de RTL...) d’une solution de Data Quality par l'IA 𝐌𝐢𝐬𝐬𝐢𝐨𝐧𝐬 Au sein d'une équipe novencia organisée en mode agile, de 3 Datascientists, 2 Data Analysts, 1 Data Modeler, 1 PO Data, développement et l'industrialisation par l’IA de la gestion de la DataQuality : codage Python et interface homme/machine. La solution combine les… Show more 𝐂𝐨𝐧𝐭𝐞𝐱𝐭𝐞 Conception et mise en œuvre pour Bedrock Streaming (socle technique des fournisseurs de contenus Salto, 6Play de M6, RTLPlay de RTL...) d’une solution de Data Quality par l'IA 𝐌𝐢𝐬𝐬𝐢𝐨𝐧𝐬 Au sein d'une équipe novencia organisée en mode agile, de 3 Datascientists, 2 Data Analysts, 1 Data Modeler, 1 PO Data, développement et l'industrialisation par l’IA de la gestion de la DataQuality : codage Python et interface homme/machine. La solution combine les approches suivantes de Data Science : - analyse monodimensionnelle numérique (test statistique de population – test du Boxplot) - analyse monodimensionnelle catégorielle (analyse de fréquences) - analyse de cohérence bidimensionnelle numérique (analyse à base de corrélation – Pearson, Kendall, test d'identification des données aberrantes en régression linéaire, détection à l'aide de Clustering Régression) - analyse de cohérence bidimensionnelle catégorielle (analyse à base de métrique de Cramer) - analyse de cohérence bidimensionnelle numérique vs catégorielle (Anova) - analyse multidimensionnelle (Isolation Forest, One Class SVM, DBSCAN, Self Organizing Map, analyse de texte, séries temporelles, algorithmes maison « novencia » en cours de publication scientifique) 𝐄𝐧𝐯𝐢𝐫𝐨𝐧𝐧𝐞𝐦𝐞𝐧𝐭 𝐭𝐞𝐜𝐡𝐧𝐢𝐪𝐮𝐞 𝐞𝐭 𝐟𝐨𝐧𝐜𝐭𝐢𝐨𝐧𝐧𝐞𝐥 cloud AWS, Amazon Athena, Python et librairies de datascience & statistique avancée (Scikit-learn, Pandas, , machine learning, séries temporelles

    • Data Scientist - Materne ( Groupe MOM)
      • Mar 2020 - Jun 2020

      𝐂𝐨𝐧𝐭𝐞𝐱𝐭𝐞 Materne a aujourd’hui à disposition une base d’articles (PIM. 5700 produits ayant chacun jusqu’à 250 caractéristiques renseignées par différents protagonistes tout au long de leur cycle de vie). Cette base est assujettie à des problèmes de qualité de données. 𝐌𝐢𝐬𝐬𝐢𝐨𝐧𝐬 Conception d'une solution automatique pour traiter les problèmes de Data Quality, c’est à dire vérifier la cohérence des données, détecter et analyser les erreurs (de saisie, affectations… Show more 𝐂𝐨𝐧𝐭𝐞𝐱𝐭𝐞 Materne a aujourd’hui à disposition une base d’articles (PIM. 5700 produits ayant chacun jusqu’à 250 caractéristiques renseignées par différents protagonistes tout au long de leur cycle de vie). Cette base est assujettie à des problèmes de qualité de données. 𝐌𝐢𝐬𝐬𝐢𝐨𝐧𝐬 Conception d'une solution automatique pour traiter les problèmes de Data Quality, c’est à dire vérifier la cohérence des données, détecter et analyser les erreurs (de saisie, affectations, nouvelles références,etc.) Les algorithmes de datascience utilisés recherchent des corrélations et mettent en évidence des outliers sans qu’il soit besoin de programmer explicitement des règles. L’interface d’analyse a été faite avec Power BI. Au cours du projet, j'ai assuré le lead technique, le développement et l'optimisation des algorithmes sous Python. 𝐄𝐧𝐯𝐢𝐫𝐨𝐧𝐧𝐞𝐦𝐞𝐧𝐭 𝐭𝐞𝐜𝐡𝐧𝐢𝐪𝐮𝐞 𝐞𝐭 𝐟𝐨𝐧𝐜𝐭𝐢𝐨𝐧𝐧𝐞 Knime, Python et librairies Datascience associées, Power BI, Oracle

    • Data Scientist - Kantar
      • Jan 2020 - Mar 2020

      𝐂𝐨𝐧𝐭𝐞𝐱𝐭𝐞 Kantar est une entreprise spécialisée dans l’analyse statistique des données de consommation de médias, de leur performance et de la valeur médiatique. Le client souhaite avoir approfondir sa connaissance des profils de consommation pour plusieurs de ses grands donneurs d’ordre, grâce à des études à grande échelle (>15000 répondants) de questionnaires de sondage (> 30 questions) 𝐌𝐢𝐬𝐬𝐢𝐨𝐧𝐬 • Définition des aentes en terme d’analyse (base de données… Show more 𝐂𝐨𝐧𝐭𝐞𝐱𝐭𝐞 Kantar est une entreprise spécialisée dans l’analyse statistique des données de consommation de médias, de leur performance et de la valeur médiatique. Le client souhaite avoir approfondir sa connaissance des profils de consommation pour plusieurs de ses grands donneurs d’ordre, grâce à des études à grande échelle (>15000 répondants) de questionnaires de sondage (> 30 questions) 𝐌𝐢𝐬𝐬𝐢𝐨𝐧𝐬 • Définition des aentes en terme d’analyse (base de données, outils d’analyses, …) • Mise en œuvre d’algorithmes d’analyse multidimensionnelle et de clustering afin de segmenter la population en groupes représentatifs • Conception d’analyses statistiques permeant de caractériser les groupes • Développement d’un outil interactif (sous Power BI) pour faciliter l’analyse des clusters avec les analystes métiers • Expertise de programmation sur R et Python pour développer les modèles et adapter les résultats pour être facilement intégrable dans l’outil du client. • Expertise technique sur la conception de visualisation interactive et flexible dans leur conception (Power BI) 𝐄𝐧𝐯𝐢𝐫𝐨𝐧𝐧𝐞𝐦𝐞𝐧𝐭 𝐭𝐞𝐜𝐡𝐧𝐢𝐪𝐮𝐞 𝐞𝐭 𝐟𝐨𝐧𝐜𝐭𝐢𝐨𝐧𝐧𝐞𝐥 Power BI, R et Python, méthodes d'analyse multidimensionnelles (ACP, ACM, CAH, K-means)

    • Data Scientist - Veolia
      • Feb 2020 - Feb 2020

      𝐂𝐨𝐧𝐭𝐞𝐱𝐭𝐞 Le donneur d’ordre a sollicité le groupe Novencia, pour les aider à améliorer le parcours de réclamation des clients. Une enquête a été réalisée pour recueillir les réclamations des clients (~500 clients). 𝐌𝐢𝐬𝐬𝐢𝐨𝐧𝐬 • Aider les équipes métiers à analyser de manière interactive et efficace les données des questionnaires • Proposer des analyses de parcours client vérifiables sur lesquelles pouvoir baser une stratégie de remédiation pertinente •… Show more 𝐂𝐨𝐧𝐭𝐞𝐱𝐭𝐞 Le donneur d’ordre a sollicité le groupe Novencia, pour les aider à améliorer le parcours de réclamation des clients. Une enquête a été réalisée pour recueillir les réclamations des clients (~500 clients). 𝐌𝐢𝐬𝐬𝐢𝐨𝐧𝐬 • Aider les équipes métiers à analyser de manière interactive et efficace les données des questionnaires • Proposer des analyses de parcours client vérifiables sur lesquelles pouvoir baser une stratégie de remédiation pertinente • Analyser les verbatims et les irritants des clients • Expertise sur les algorithmes d’analyse sémantique et syntaxique (NLP) • Une solution interactive et flexible (sous Power BI), directement utilisable par les équipes marketing et digitales, pour comprendre et analyser les données • Au cours du projet mobilisant deux data scientists j'ai assuré le lead technique, le développement et l'optimisation des algorithmes sous Python 𝐄𝐧𝐯𝐢𝐫𝐨𝐧𝐧𝐞𝐦𝐞𝐧𝐭 𝐭𝐞𝐜𝐡𝐧𝐢𝐪𝐮𝐞 𝐞𝐭 𝐟𝐨𝐧𝐜𝐭𝐢𝐨𝐧𝐧𝐞𝐥 Power BI, NLP, Python

    • France
    • Computers and Electronics Manufacturing
    • 200 - 300 Employee
    • Data Scientist
      • Nov 2016 - Sep 2019

      Data Scientist chez Coyote. - Organisation des données et des flux de données (mise en place d’un archivage quotidien des donnéeset optimisation des scripts de chargement des données) - Développement d’algorithmes d’analyses et de machine learning (Réalisation d’un score de churn,mise en place d’un algorithme pour scorer en temps réel des trajets en voiture) - Propositions d’optimisation de projets (nouvelles données, nouveaux traitements, notamment sur ladiffusion des alertes) -… Show more Data Scientist chez Coyote. - Organisation des données et des flux de données (mise en place d’un archivage quotidien des donnéeset optimisation des scripts de chargement des données) - Développement d’algorithmes d’analyses et de machine learning (Réalisation d’un score de churn,mise en place d’un algorithme pour scorer en temps réel des trajets en voiture) - Propositions d’optimisation de projets (nouvelles données, nouveaux traitements, notamment sur ladiffusion des alertes) - Réalisations d’études qualitatives et quantitatives diverses (étude de trafics et statistiques sur lacommunauté Coyote Show less Data Scientist chez Coyote. - Organisation des données et des flux de données (mise en place d’un archivage quotidien des donnéeset optimisation des scripts de chargement des données) - Développement d’algorithmes d’analyses et de machine learning (Réalisation d’un score de churn,mise en place d’un algorithme pour scorer en temps réel des trajets en voiture) - Propositions d’optimisation de projets (nouvelles données, nouveaux traitements, notamment sur ladiffusion des alertes) -… Show more Data Scientist chez Coyote. - Organisation des données et des flux de données (mise en place d’un archivage quotidien des donnéeset optimisation des scripts de chargement des données) - Développement d’algorithmes d’analyses et de machine learning (Réalisation d’un score de churn,mise en place d’un algorithme pour scorer en temps réel des trajets en voiture) - Propositions d’optimisation de projets (nouvelles données, nouveaux traitements, notamment sur ladiffusion des alertes) - Réalisations d’études qualitatives et quantitatives diverses (étude de trafics et statistiques sur lacommunauté Coyote Show less

  • NATIXIS
    • Région de Paris, France
    • Data scientist
      • Apr 2016 - Sep 2016

      Stage de Master. Dans un environnement Big Data (travail sur serveur hadoop), j'ai effectué une étude sur la prédiction des résiliations de contrats d'assurance à l'aide d'outils de machine learning. - Chargement, jointure et qualification des données. - Nettoyage et preprocessing des données. - Construction des différents modelés (Random forest, gradient boosting, regression logistique) - Évaluation et comparaison des résultats. Stage de Master. Dans un environnement Big Data (travail sur serveur hadoop), j'ai effectué une étude sur la prédiction des résiliations de contrats d'assurance à l'aide d'outils de machine learning. - Chargement, jointure et qualification des données. - Nettoyage et preprocessing des données. - Construction des différents modelés (Random forest, gradient boosting, regression logistique) - Évaluation et comparaison des résultats.

  • INSA de Lyon
    • Région de Lyon, France
    • Analyste statistiques
      • Apr 2014 - Sep 2014

      Stage de Master. - Développement d’algorithmes de clustering dans le but d’affiner la modélisation géo-mécanique conduite par des experts - Mise en place d’une interface homme-machine pour l’utilisation des outils développés Stage de Master. - Développement d’algorithmes de clustering dans le but d’affiner la modélisation géo-mécanique conduite par des experts - Mise en place d’une interface homme-machine pour l’utilisation des outils développés

Education

  • Université Lumière (Lyon II)
    Master SISE, Statistiques Informatique Science des donéEs
    2015 - 2016
  • Université Claude Bernard Lyon 1
    Master SITN, Statistique Informatique et Techniques Numériques
    2012 - 2014

Community

You need to have a working account to view this content. Click here to join now