DATA ENGINEER (FULL REMOTE)
In ottica di potenziamento del nostro team Produzione Sicurezza siamo alla ricerca di un* Data Engineer.
Si valutano inquadramenti in full remote per figure professionali distanti dall'HQ di Santarcangelo di Romagna (RN).
Ti occuperai di:
- Implementare query analitiche complesse e una pipeline di elaborazione dati/data cleansing;
- Monitorare lo stato e le performance di una soluzione di data platform;
- Evidenziare e suggerire come i dati possano essere correlati fra le varie organizzazioni aziendali per mostrare una visione più ampia dell’azienda stessa;
- Evidenziare e suggerire come utilizzare i dati dei clienti per sviluppare nuove possibilità di business;
- Sviluppare e mantenere una soluzione di data platform utilizzando tecnologie disponibili sia su vari cloud provider sia on-premise (monitorandone stato e performance);
- Importare dati da varie fonti (file, JSON, APIs, Kafka/Redpanda streaming, DB, etc..);
- Pianificare la mentalità e l’approccio ai livelli bronze/silver/golden per quanto riguarda le tabelle, viste, notebooks per sentiment analysis, correlazioni, etc;
- Costruire e mantenere modelli DBT e data pipelines (ETL);
Pianificare la mentalità e l’approccio ai livelli bronze/silver/gold per quanto riguarda le tabelle, viste, notebooks per sentiment analysis, correlazioni, etc;
- Collaborare con i product owners e con gli stakeholders per raccogliere le richieste e definire i cambiamenti necessari ai data products;
- Collaborare con i provider esterni di dati per stabilire e mantenere le definizioni dei data source.
Cosa cerchiamo:
- Esperienza di database NoSQL e familiarità con il Real-Time Data Processing;
- Familiarità con la metodologia DevSecOps e GitOps/IaC e conoscenza di orchestratori e container;
- Conoscenze di Data Pipeline Monitoring Tools (es. Apache Airflow);
- Conoscenze di Data Security ed esperienze in Domain-Specific;
- Conoscenze in ambito Data Science e Machine learning.
Rappresentano un plus:
- Laurea in Scienze e Tecnologie Informatiche o Laurea in Ingegneria Informatica;
- Conoscenza di Spark, Flink, T-SQL, KSQL;
- Conoscenza di Apache Iceberg/Delta o Apache Arrow/Polars;
- Conoscenza di librerie di ML (es. TensorFlow9), di visualizzazione dei dati (Pandas, Matplotlib) e varie (Pylceber; PySpark etc)
- Conoscenze di Data Lake su Azure e/o Google (Fabric, BidQuery/BigLake etc);
- Data Orchestration (Apache Airflow, AirByte);
- Data Quality e Monitoring Tools (Nessie, Dremio etc);
- Data Catalog come DataHub, Unity Catalog, Polaris.
Cosa possiamo offrirti:
- Lavoro da casa fino a 3gg a settimana e flessibilità oraria;
- Convenzioni ed attività sportive;
- Formazione continua.