RICERCHE IN CORSO CANDIDATURA SPONTANEA
AI DATA SCIENTIST (BARI)


Per potenziare il team R&D dedicato al progetto EvoCity (sede di Bari) cerchiamo un* AI Data Scientist/ Data Scientist Application con competenze in analisi dati, modellazione predittiva e implementazione di soluzioni di AI in contesti aziendali. La figura avrà il compito di trasformare problemi di business in soluzioni analitiche concrete, attraverso l’intero ciclo di vita del dato: dalla raccolta alla valutazione dell’impatto.

Si valutano anche profili junior da inserire all'interno di un percorso di crescita.

 

Di cosa ti occuperai:

  • Progettare e sviluppare modelli di Machine Learning su dataset complessi e disomogenei;
  • Eseguire analisi esplorative e visualizzazione dati utilizzando librerie Python (pandas, numpy, seaborn, matplotlib);
  • Pulire, trasformare e ingegnerizzare variabili con tecniche di preprocessing avanzate;
  • Valutare performance dei modelli tramite metriche appropriate, validazione incrociata e analisi del bias;
  • Ottimizzare pipeline di ML e gestire il fine-tuning di modelli preaddestrati (es. Hugging Face);
  • Interrogare database SQL e ottimizzare query su basi dati strutturate;
  • Lavorare in ambienti collaborativi tramite Git, GitLab/GitHub, Docker e strumenti cloud-based (Colab, GCP);
  • Supportare il team business nella definizione di KPI, soglie operative e metriche di monitoraggio;
  • Effettuare analisi costi/benefici (ROI) relative all’adozione di soluzioni AI su cloud;
  • Identificare e documentare rischi, bias e limiti dei modelli sviluppati.

 

Cosa cerchiamo:

  • Padronanza di Python con uso estensivo di pandas, numpy, scikit-learn;
  • Familiarità con ambienti formativi e modelli open source (Kaggle, Hugging Face);
  • Esperienza pratica con pipeline di Machine Learning, dalla selezione al fine-tuning del modello;
  • Competenze statistiche di base e inferenza per la creazione e valutazione delle feature;
  • Ottima conoscenza di SQL e capacità di scrivere query performanti su dataset complessi;
  • Esperienza base con ambienti di sviluppo come Jupyter, Google Colab, ambienti virtuali;
  • Conoscenza di strumenti e framework come Git, Docker, Spark, Apache Iceberg, R;
  • Sensibilità verso i rischi associati a modelli AI (bias, fallimenti, overfitting);
  • Visione critica orientata alla valutazione del ritorno sull’investimento di progetti AI/ML.

 

Rappresentano un plus:

  • Esperienza con deployment di modelli in produzione;
  • Familiarità con ambienti Big Data;
  • Conoscenza di tecnologie di data lake e data mesh.

 

Cosa ti possiamo offrire:

  • Flessibilità oraria e un modello di lavoro ibrido (2/3gg/settimana da casa);
  • Formazione interna e acquisizione di certificazioni;
  • Buoni pasto e convenzioni aziendali.