Per potenziare il team R&D dedicato al progetto EvoCity (sede di Bari) stiamo cercando un* Analista Dati Software/Open Data che unisca competenze tecniche, analitiche e progettuali per supportare iniziative data-driven, con particolare attenzione ai dati pubblici e alla qualità informativa. La figura collaborerà con team tecnici e stakeholder di progetto per raccogliere, analizzare e valorizzare dati provenienti da fonti strutturate e open data, contribuendo alla documentazione, alla qualità del dato e alla costruzione di insight utili per il supporto alle decisioni.
Di cosa ti occuperai:
- Eseguire
analisi esplorative e statistiche su dataset eterogenei, con particolare
attenzione ai dati pubblici e governativi;
- Validare
la qualità dei dati (completezza, consistenza, coerenza) e redigere
documentazione tecnica accurata;
- Sviluppare
e mantenere pipeline di raccolta dati (web scraping, API) e integrazione
da fonti open;
- Collaborare
alla definizione dei requisiti informativi con stakeholder tecnici e
funzionali;
- Identificare
fonti dati rilevanti per gli obiettivi progettuali e mappare il flusso
dati-requisiti;
- Creare
documentazione tecnica e architetturale: diagrammi, notebook, specifiche e
schemi di integrazione;
- Contribuire
alla scrittura di report analitici, documenti strategici e comunicazioni
orientate a stakeholder;
- Presentare i risultati tramite visualizzazioni interattive, data storytelling e workshop informativi.
Cosa cerchiamo:
- Capacità di analisi statistica, esplorativa e sintesi di insight da fonti dati complesse;
- Familiarità e interesse per l’ecosistema Open Data: ISTAT, dati.gov.it, portali UE/API pubbliche;
- Competenze lato data quality assessment: verifica coerenza, completezza e affidabilità dei dataset;
- Conoscenze lato raccolta dati da API REST e tecniche di web scraping, linguaggi di analisi dati Python, R, SQL;
- Strumenti per la redazione di documentazione tecnica: Markdown, Jupyter Notebooks, wiki collaborative;
- Competenze di progetto: rilevazione requisiti (interviste, analisi gap), mappatura dati-requisiti, produzione documentazione architetturale (flussi dati, schemi d’integrazione), testing /validazione funzionale di soluzioni analitiche e dashboard, costruzione di Data Storytelling.
Requisiti preferenziali (plus):
- Esperienza
con ambienti GCP, Spark, Apache Iceberg.
- Conoscenza
del ciclo di vita del software e concetti di DevOps.
- Familiarità con modelli predittivi o tecniche di Machine Learning.
Cosa ti possiamo offrire:
- Flessibilità oraria e un modello di lavoro ibrido (2/3gg/settimana da casa);
- Formazione interna e acquisizione di certificazioni;
- Buoni pasto e convenzioni aziendali.