Descrizione del lavoro
Stiamo cercando un Python developer / ETL specialist / Data Engineer per accrescere il nostro team specializzato nella consulenza 4.0. Il tuo ruolo sarà quello di partecipare attivamente al design e allo sviluppo di software centrati su task inerenti all'Intelligenza Artificiale specificatamente mediante concettualizzazione, prototipazione, implementazione e testing di data pipelines da fonti disparate e provenienti dai più svariati domini (pharma, law, finance, insurance, etc.).
Si richiede la presenza sul posto, con possibilità future di lavoro ibrido.
Responsabilità: Design, sviluppo e manutenzione di pipeline di ETL/Data engineering (estrazione da multiple fonti, consolidamento, pulizia, trasformazione, caricamento in database) on premise e in cloud;
Integrazione delle suddette componenti all'interno di un software più ampio;
Esecuzione di analisi preliminare dei dati (determinazione livello di pulizia, fattibilità di ipotetiche aggregazioni, etc.);
Esecuzione di analisi dati per prevenire/risolvere anomalie nel funzionamento delle pipeline;
Aggiornamento circa i rilevanti tool presenti sul mercato e valutazione della necessità/convenienza della loro integrazione nel progetto;
Debugging del codice prodotto e strutturazione dello stesso per il deploy;
Redazione di relazioni tecniche dettagliate e comunicazione in report dei risultati intermedi di progetto.
Requisiti: Laurea/Laurea Magistrale in Informatica o Ingegneria informatica;
Esperienza dimostrabile in progetti di Data Engineering e Sviluppo Software data-driven di medio-alta complessità;
Conoscenza approfondita di Python (OOP, funzionale, strutture dati e algoritmi) e delle relative librerie e framework;
Conoscenza approfondita del linguaggio SQL ed esperienza nella scrittura e nell'ottimizzazione di query;
Esperienza con database non relazionali;
Esperienza di deploy in ambiente cloud, preferibilmente AWS;
Capacità di lavorare propositivamente in gruppo;
Capacità di aggiornamento e studio di tool/tecnologie sul mercato.
Requisiti aggiuntivi (PLUS): Familiarità con input e output tipici dei modelli di Machine Learning e con l'attività di Feature Engineering;
Conoscenza dei principi di Data analytics;
Esperienza con Hadoop e Spark;
Esperienza con Docker e Kubernetes;
Esperienza con Databricks e/o Snowflake e/o AWS RedShift;
Esperienza con Airflow o altri tool di orchestrazione;
Conoscenza delle best practices di DevOps / DataOps;
Conoscenza approfondita di Git.
Contratto di lavoro: Tempo pieno
Buoni pasto
Computer aziendale
Disponibilità: Dal lunedì al venerdì
#J-18808-Ljbffr