Gabriele Tittarelli
at Consiglio di Stato- Claim this Profile
Click to upgrade to our gold package
for the full feature experience.
-
Inglese -
Topline Score
Bio
Pierangelo Caputo PMP®
Tra le persone con cui ho collaborato, Gabriele si è distinto, a parte per la competenza tecnica sempre adeguata, per dedizione al raggiungimento degli obiettivi e spirito di sacrificio. Sicuro punto di riferimento per il gruppo di lavoro e persona di fiducia per i suoi responsabili.
Pierangelo Caputo PMP®
Tra le persone con cui ho collaborato, Gabriele si è distinto, a parte per la competenza tecnica sempre adeguata, per dedizione al raggiungimento degli obiettivi e spirito di sacrificio. Sicuro punto di riferimento per il gruppo di lavoro e persona di fiducia per i suoi responsabili.
Pierangelo Caputo PMP®
Tra le persone con cui ho collaborato, Gabriele si è distinto, a parte per la competenza tecnica sempre adeguata, per dedizione al raggiungimento degli obiettivi e spirito di sacrificio. Sicuro punto di riferimento per il gruppo di lavoro e persona di fiducia per i suoi responsabili.
Pierangelo Caputo PMP®
Tra le persone con cui ho collaborato, Gabriele si è distinto, a parte per la competenza tecnica sempre adeguata, per dedizione al raggiungimento degli obiettivi e spirito di sacrificio. Sicuro punto di riferimento per il gruppo di lavoro e persona di fiducia per i suoi responsabili.
Credentials
-
ITIL® FOUNDATION
APMG-InternationalMar, 2015- Nov, 2024 -
PRINCE2® FOUNDATION
PEOPLECERTJun, 2014- Nov, 2024
Experience
-
Consiglio di Stato
-
Italy
-
Legal Services
-
100 - 200 Employee
-
-
Jan 2023 - Present
Direttore Esecutivo dei Lavori nell'ambito del contratto “Piattaforma di business e web intelligence, perrichiamo delle fonti giurisprudenziali", della Giustizia amministrativa
-
-
-
Nov 2021 - Dec 2022
Direttore Esecutivo dei Lavori nell'ambito del contratto “Servizi di interoperabilità per i dati e di cooperazione applicativa per la realizzazione in ambito PNRR della piattaforma Data Warehouse", della Giustizia amministrativa
-
-
-
Mar 2020 - Nov 2021
Funzionario informatico presso il Consiglio di Stato
-
-
-
Links Management and Technology SpA
-
Italy
-
IT Services and IT Consulting
-
400 - 500 Employee
-
-
Feb 2019 - Feb 2020
Analisi, progettazione e implementazione di un datawarehouse (DWH) per la Regione Marche nell'ambito del progetto Siform2 al fine di monitorare i processi di inserimento e gestione dei progetti finanziati dai fondi comuni europei. Il DWH ha come fonte dati principale i dati provenienti dal transazionale di Siform2 ed è formato da più datamart monotematici i cui dati possono essere incrociati tramite il progetto a cui si riferiscono. Tecnicamente i dati risiedono su un DB Mysql e vengono ivi caricati tramite job implementati tramite il Pentaho Data Integration 7.1 Show less
-
-
-
Jan 2018 - Nov 2019
Migrazione tra il vecchio e il nuovo sistema di gestione della gerarchia delle strutture di ACI (Automobil Club Italia) attive sul territorio. Il progetto in collaborazione con ACI Informatica ha lo scopo di migrare i dati dal sistema ACI Geo al sistema ACI Geo Plus. Tali dati riguardano la struttura degli Automobil Club, delle Delegazioni e delle convenzioni ACI stipulate con attività commerciali sparse sul territorio italiano. Sorgente dati principale è costituita da Mongo DB e i processi di migrazione sono stati implementati tramite ETL progettato con il pentaho data integration 7.1. Altre fonti dati sono utilizzate, come ad esempio transazionali Oracle per la registrazione delle attività che avvengono all'interno delle strutture (i.e. vendita tessere soci), per la descrizione delle strutture stesse (i.e. organico operante) oppure datawarehouse Vertica per la registrazione dei pagamenti utente. La destinazione finale è sempre un database NOSQL Mongo DB che viene scritto tramite servizi rest che prendono in input file JSON complessi. Show less
-
-
-
Sep 2017 - May 2019
Analisi e implementazione migrazione dati presso Regione Marche. Il sistema di gestione delle domande di progetti per la fruizione di Fondi Sociali Europei Siform è stato completamente ridisegnato dando vita al sistema Siform 2. In questo contesto si è resa necessaria la migrazione dati dei progetti presenti nel vecchio sistema al fine di lavorare quelli ancora aperti e per fini statistici.I processi ETL di gestione del dato sono pilotati dal tool open source Pentaho Data Integration con il quale sono gestite tutte le fasi di elaborazione: applicazione dei criteri di migrazione, controllo del dato e sua pulizia, associazione dati tipologici tra il vecchio e il nuovo sistema, inserimento dei dati nel database transazionale del nuovo sistema Siform 2. Show less
-
-
-
Feb 2018 - Apr 2019
Analisi e implementazione in collaborazione con ACI Informatica di un ETL con Pentaho Data Integration 7.1 per la generazione di file di interscambio XML per la registrazione in contabilità delle tessere ACI (Automobile Club Italia) vendute ai soci. Tali file creati a partire da dati Oracle, viene inviato al sistema di contabilità tramite servizio rest richiamato da client Java.
-
-
-
Jan 2018 - Oct 2018
Il progetto del "DB MODELLI" in collaborazione con ACI Informtatica ha avuto lo scopo principale di stabilire una “versione ACI” degli autoveicoli che potesse fondere il più possibile le informazioni tecniche del PRA (Pubblico Registro Automobilistico) e quelle commerciali di Eurotax.Questa metainformazione (la versione “ACI”) descrive l’autoveicolo in modo intellegibile per l’utente in modo da guidarlo verso una migliore comprensione del mercato automobilistico a partire dall’auto posseduta (targa) o da un set di dati tecnici che possono descrivere l’auto desiderata.La costruzione di questa metainformazione è stata implementata tramite un bridge logico composto dai dati dalle due fonti precedentemente citate. Il bridge è stato costruito tramite processi di ETL implementati tramite il Pentaho Data Integration 7.1 e procedure PL/SQL Oracle 11g. Show less
-
-
-
May 2017 - Aug 2017
Analisi architetturale per la reingegnerizzazione dell’applicazione LuceVerde Cloud, presso ACI Informatica. La piattaforma LuceVerde Cloud tratta informazioni di mobilità e viabilità prese da un sistema centrale che gestisce l’estrazione, la trasformazione e il caricamento dei dati georeferenziati e non, e vengono mostrate su un widget costituito da una mappa i cui contenuti risultano filtrabili per categorie ben determinate. Tale widget risulta essere la parte principale di un portale contenente anche informazioni a contorno scalate per la realtà geografiche di riferimento (Comuni e Regioni).Le tecnologie utilizzate sono intese al caricamento dei dati con performance elevate e alla loro fruizione in ogni situazione di mobilità: dalla ricerca di un evento come un POI in una determinata area geografica italiana alla visualizzazione delle informazioni su traffico o lavori in corso.Quindi in questo contesto è risultato fondamentale l’utilizzo di un’architettura a microservizi realizzati con tecnologia RESTful capaci di collegare il back end di caricamento dei dati di mobilità (ETL) con il front end responsive e scalabile nei contenuti in modo semiautomatica tramite l’utilizzo di un Content Management System come October.Un flusso informativo tipico è il caricamento dei dati dal sistema fornitore tramite processi ETL gestiti con Pentaho Data Integration CE 7.1, la gestione in formati standard JSON, GeoJSON, DATEX II ecc., lo store del dato in una struttura ad alta performance come MemCached, l’utilizzo di NodeJS come hub di servizi rest in combinazione con AngularJS e Bootstrap per assicurare che il front end sia responsive e che possa gestire funzionalità direttamente sul dispositivo dell’utente senza gravare sui sistemi server. Show less
-
-
-
Nov 2016 - Jul 2017
Attività di consulenza sull’ analisi e la presentazione dei dati dedicati alla costruzione di una banca dati pubblica, presso ACI Informatica. A stretto contatto con il cliente la mansione principale riguarda la discussione della progettazione di front-end (dashboard) per la costruzione prototipale di un sistema di gestione dell’informazione del parco circolante veicolare a livello nazionale. Le dashboard sono costruite con il framework Community Dashboard Framework integrato nel Community Dashboard Editor della suite Pentaho BA 6.1, utilizzando una versione customizzata della libreria Data Table per la costruzione di tabelle con struttura dinamica. Attività parallele di training on the job riguardano le specifiche della progettazione di Dashboard con gli strumenti Enterprise di Pentaho BA 6.1 come il Pentaho Dashboard Designer e la gestione delle risorse per il completamento delle attività principali e collegate ai processi di Business Intelligence. Le dashboard sono state completate con servlet per integrare la suite in applicazioni esterne fornendo la possibilità di fruizione degli oggetti creati anche al fuori della piattaforma e per dare la possibilità di esportare dati tabellari e grafici in formato PDF accessibile. Altro formato di estrazione dati implementato in maniera custom (non previsto dai framework di costruzione delle dashboard) è stato l’ODS (OpenDocument SpreadSheet). Show less
-
-
-
May 2017 - May 2017
Attività di reingegnerizzazione e sviluppo processi di ETL per il caricamento dei dati inerenti le riviste storiche presenti sul sito www.bibliotecadigitale.aci.it, presso ACI Informatica. Tali processi sono stati generati ed eseguiti tramite il tool opensource Pentaho Data Integration 6.1 e possono essere rappresentati come di seguito esposto:- Caricamento dei metadati, contenuti in file XML inseriti in cartelle riportanti il nome della pubblicazione, dei path delle immagini delle copertine delle pubblicazioni- Caricamento dei metadati, contenuti in file XML inseriti in cartelle riportanti il nome della pubblicazione, dei path dei file di testo in formato txt e pdf dei contenuti scansionati con tecnologia OCR delle pubblicazioni- Generazione dell’oggetto JSON per l’inserimento in ElasticSearch (server di ricerca basato su Lucene, con capacità Full Text, con supporto ad architetture distribuite. Tutte le funzionalità sono esposte in modo nativo tramite interfaccia RESTful, mentre le informazioni sono gestite come documenti JSON)- Inserimento dati in formato JSON in ElasticSearch tramite chiamate dinamiche HTTP (generate nell’ambito del flusso di esecuzione dell’ETL). Show less
-
-
-
May 2017 - May 2017
Attività di reingegnerizzazione e sviluppo per ACI Informatica di nuove features dell’ETL di caricamento, realizzato facendo uso del Pentaho Data Integration 7.0, dei dati relativi alle pubblicazioni presenti nel portale ACI raggiungibile all’indirizzo www.bibliotecadigitale.aci.it. La struttura logica di caricamento, rappresentata da una Trasformation del PDI, prevedeva:• Caricamento dei metadati, contenuti in file XML inseriti in cartelle riportanti il nome della pubblicazione, dei path delle immagini delle copertine delle pubblicazioni• Caricamento dei metadati, contenuti in file XML inseriti in cartelle riportanti il nome della pubblicazione, dei path dei file di testo in formato txt e pdf dei contenuti scansionati con tecnologia OCR delle pubblicazioni• Generazione dell’oggetto JSON per l’inserimento in ElasticSearch (server di ricerca basato su Lucene, con capacità Full Text, con supporto ad architetture distribuite. Tutte le funzionalità sono esposte in modo nativo tramite interfaccia RESTful, mentre le informazioni sono gestite come documenti JSON)• Inserimento dati in formato JSON in ElasticSearch tramite chiamate dinamiche HTTP (generate nell’ambito del flusso di esecuzione dell’ETL). Show less
-
-
-
May 2016 - Nov 2016
Attività di consulenza su data warehouse presso Consob. A stretto contatto con il cliente la mansione principale riguarda la discussione della progettazione di datamart come insiemi consistenti e autoreferenzianti di dati atti alla vigilanza su eventi di dominio dell’istituto come i prodotti di investimento di banche e società di intermediazione mobiliare, i prodotti assicurativi, i capitali sociali delle società quotate in borsa, la composizione degli organi sociali all’interno delle società e delle partecipazioni rilevanti nell’ambito degli assetti societari. Altra mansione è la redazione della documentazione dei datamart che comprende sia la modellazione DFM che la modellazione relazionale delle strutture dati che comporranno i diagrammi a stella o a fiocco di neve. A margine delle attività descritte, esiste anche un impegno per migliorare lo sviluppo e la manutenzione delle strutture esistenti e future, tramite la ricerca di best practices personalizzate che possano risolvere problemi di affidabilità e velocità dei caricamenti dati o della fruizione del dato finale. Le sorgenti dati sono di tipo Oracle, mentre le strutture per il caricamento dei dati sono tenute in ambiente SQL Server. Quindi i caricamenti sono effettuati tramite SSIS e i front end (excel e SAP BO) fanno riferimento a strutture aggregate OLAP presenti su DB Analysis Services. Show less
-
-
-
Sep 2014 - May 2016
Analisi e implementazione dei processi di migrazione dati del sistema informativo della cognizione penale (SICP) del Ministero della Giustizia. La migrazione prende in considerazione i dati in formato DBF non strutturato, presenti nel vecchio sistema Re.Ge. 2.2 e attraverso una struttura di caricamento a due livelli, è stata effettuata la rilettura della semantica dell’informazione (pulizia del dato, adattamento alla nuova struttura dati e riassociazione entità coinvolte) al fine di effettuare l’inserimento in un DB relazionale Oracle. Alla fase di sviluppo è seguita anche una fase di analisi e risoluzione delle anomalie al fine di assicurare un’alta percentuale di affidabilità del dato. Per il primo livello di caricamento è stato utilizzato lo strumento di ETL Pentaho data Integration mentre per il secondo livello è stato implementato un processo PL/SQL. Alcuni batch sono stati implementati in linguaggio Java al fine di gestire meglio le complessità che alcune tipologie di caricamento potevano riportare (testi delle annotazioni estese). Le segnalazioni provenienti dall’utente finale sono state gestite attraverso lo strumento open source Jira. E’ stato utilizzato anche VmWare per la virtualizzazione delle macchine di sviluppo. Show less
-
-
-
Oct 2010 - Sep 2014
Analisi tecnica e processuale, risoluzione anomalie nell’ambito della conduzione funzionale del sistema enterprise aperto SIN presso INPDAP (sede via Ballarin - Roma) con specializzazione nel sottosistema delle Variazioni Individuali.
-
-
-
Jan 2011 - May 2011
Analisi funzionale reporting per DigitPA e sua implementazione, facendo uso della suite source Pentaho CE 3.8 a cui è stata demandata l’esecuzione dei report statici (JasperReport), dimanici (Mondrian e Jpivot) e georeferenziati (Geoserver con fogli di stile SLD per la colorazione dei layer creati a partire dalle mappe in formato shapefile importati in MySQL). Le funzionalità principali implementate sono state quelle del drilldown su report statico e georeferenziato, l’export in vari formati.
-
-
-
Aug 2010 - Oct 2010
Analisi e sviluppo di un prototipo Oracle Forms / PLSQL per InnovaPuglia S.p.A. Redazione dei documenti di progetto con Enterprise Architect facendo uso del linguaggio UML. Sviluppo di procedure PLSQL per il controllo dell’ammissibilità di richieste di finanziamenti statali ed europei secondo la soglia “De Minimis”. Installazione, configurazione e utilizzo del database Oracle 10g su macchine virtuali Windows 2003 create facendo uso di VMware Workstation.
-
-
-
Jul 2010 - Aug 2010
Sviluppo datawarehouse per l’implementazione dati di un sistema di reporting atto all’analisi delle adesioni INPS per Fondartiginato. Tale sistema è integrato in un applicativo web per la gestione online dei bandi di gara e delle offerte formative pervenute al fondo, facendo uso di strumenti open source quali: JasperReport, Ireport (reportistica ROLAP). Ho curato anche parte dell’ETL necessario per il caricamento dei dati su Mysql, utilizzando stored procedure per la logica di business.
-
-
-
May 2007 - Jun 2010
Analista processi e algoritmi, DBA per il progetto J2EE “Variazioni Individuali” presso INPDAP (sede via Ballarin - Roma). Il progetto si propone la gestione delle domande degli utenti atte a variare la propria pensione. In una visione di completa integrazione delle prestazioni pensionistiche, tale gestione rappresenta solo una parte di un sistema enterprise aperto, le cui parti sono state progettate al fine di essere trasparenti in interazione e colloquio dati.
-
-
-
Jan 2007 - Apr 2007
Analisi e realizzazione reportistica SPT (in collaborazione con Finsiel/AlmaViva) per il Ministero dell’Economia e Finanze (sede Piazza Dalmazia - Roma) che ha come oggetto l’esposizione dei dati di organico, in termini di anagrafica e retribuzioni, dei dipendenti degli enti statali facendo uso di strumenti open source quali: Pentaho BI Platform, JasperReport, Ireport (reportistica ROLAP), Mondrian (analisi MOLAP), Jpivot, Jrubik e commerciali come IBM Websphere application Server 5.1 per il deploy della web application Pentaho. Ho curato anche parte dell’ETL necessario per il caricamento dei dati su DB Oracle 9i, utilizzando il tool grafico Pentaho Data Integration (Kettle). Show less
-
-
-
Links Management and Technology SpA
-
Italy
-
IT Services and IT Consulting
-
400 - 500 Employee
-
-
Jul 2006 - Oct 2006
Produzione e riadattamento (in collaborazione con EDA) della reportistica dipartimentale di Attribuzione e di Consolidamento del Controllo di Gestione del Ministero dell’Economia e Finanze (sede La Rustica - Roma) che ha come oggetto l'esposizione dei consuntivi e dei budget imputati dai centri di costo sui processi interni, sui progetti e sulle nature di conto. I dati sui costi (consuntivi e budget) vengono processati da un prodotto software DSTAXI, il cui output alimenta un datawarehouse con diversi datamart. Il datawarehouse inoltre viene alimentato da altri sistemi legacy che hanno compiti specifici, come l'attribuzione dei driver per il ribaltamento dei costi dai centri gestore sugli uffici sottostanti. La reportistica segue l'evoluzione dell'imputazione e del ribaltamento mostrando i costi rispetto a numerose dimensioni di analisi quali la struttura gerarchica dell'organizzazione, i processi, i progetti, la natura del costo, i centri gestori, e così via. L'infrastruttura si appoggia su BO 6.5 sp2 con cui sono stati creati gli universi specializzati per il calcolo delle misure richieste e su DB Oracle 10g utilizzato per le fonti dati delle registrazioni gestite dal software DSTAXI. Il software di editing della reportistica è Webintelligence di BO. Show less
-
-
-
Feb 2006 - Jul 2006
Analisi e sviluppo reportistica direzionale presso Poste Italiane S.p.A. (sede Viale Europa – Roma). Il progetto si propone di creare cruscotti decisionali tramite Microstrategy 8.02 per la presentazione l’analisi e il monitoraggio di dati economici (Bilanci e Conto Economico), di dati sulle fasi del processo d’acquisto (Ciclo Passivo), di dati inerenti i servizi offerti all’utente finale (Cruscotti Servizi) e del Risk Management (in collaborazione con KPMG). Il ruolo ricoperto è stato quello di progettista di datamart, di reporting architect e reporting designer sia per quanto riguarda la cruscottistica sia per i reporting services di Microstrategy realizzati e di manutentore del DB Teradata utilizzato come sorgente dati. Show less
-
-
-
Eustema S.p.A.
-
Italy
-
IT Services and IT Consulting
-
300 - 400 Employee
-
Analista Programmatore
-
Mar 2004 - Jan 2006
Analisi e sviluppo di un sistema di DatawareHouse e di presentazione via WEB nell’ambito del progetto “Monitor Provisioning & Assurace” (MPA) Internazionale presso Telecom Italia S.p.A. (sede Parco dei Medici – Roma) per conto della società Hansenet in Germania e Telecom France in Francia. Il progetto si propone di integrare, elaborare e visualizzare a scopo decisionale, dati etereogenei concernenti clienti/ordini (fonte: Siebel), fatturato/traffico (fonte: Arbor) e ricavi (fonte: SAP) nell’ambito della telefonia e delle linee dati con quelli preesistenti presenti in altri DatawareHouse proprietari dei clienti Telecom. Il processo di ETL (Estrazione, Trasformazione e Caricamento) dei dati viene implementato tramite DTS (Data Trasformation Services) in MS SQL SERVER 2000 con l’utilizzo di SQL, Transact-SQL e procedure ActiveX (sono state utilizzate anche connessioni a database Oracle per il reperimento dei dati dalle sopra citate fonti). I dati del DataWareHouse alimentano cubi di OLAP (On-Line Analytical Processing) gestiti tramite MS Analysis Server. I dati aggregati nei cubi vengono visualizzati sotto forma di reportistica, tramite pagine web costruite con MS FrontPage 2000, utilizzando gli Office Web Components (Pivot Tables, Charts e Excel Sheets), HTML, VBScript e JavaScript. Una parte dell’aggregazione dei dati avviene tramite IBM/Ascential Datastage. Show less
-
-
Education
-
Università degli Studi di Roma 'La Sapienza'
Engeneer, Computer Science