Stiamo cercando un Python developer / ETL specialist / Data Engineer per accrescere il nostro team specializzato nella consulenza 4.0. Il tuo ruolo sarà quello di partecipare attivamente al design e allo sviluppo di software centrati su task inerenti all'Intelligenza Artificiale specificatamente mediante concettualizzazione, prototipazione, implementazione e testing di data pipelines da fonti disparate e provenienti dai più svariati domini (pharma, law, finance, insurance, etc.).
Si richiede la presenza sul posto, con possibilità future di lavoro ibrido.
Responsabilità:
Design, sviluppo e manutenzione di pipeline di ETL/Data engineering (estrazione da multiple fonti, consolidamento, pulizia, trasformazione, caricamento in database) on premise e in cloud; Integrazione delle suddette componenti all'interno di un software più ampio; Esecuzione di analisi preliminare dei dati (determinazione livello di pulizia, fattibilità di ipotetiche aggregazioni, etc.) Esecuzione di analisi dati per prevenire/risolvere anomalie nel funzionamento delle pipeline; Aggiornamento circa i rilevanti tool presenti sul mercato e valutazione della necessità/convenienza della loro integrazione nel progetto; Debugging del codice prodotto e strutturazione dello stesso per il deploy; Redazione di relazioni tecniche dettagliate e comunicazione in report dei risultati intermedi di progetto. Requisiti:
Laurea/Laurea Magistrale in Informatica o Ingegneria informatica; Esperienza dimostrabile in progetti di Data Engineering e Sviluppo Software data-driven di medio-alta complessità; Conoscenza approfondita di Python (OOP, funzionale, strutture dati e algoritmi) e delle relative librerie e framework; Conoscenza approfondita del linguaggio SQL ed esperienza nella scrittura e nell'ottimizzazione di query; Esperienza con database non relazionali; Esperienza di deploy in ambiente cloud, preferibilmente AWS; Capacità di lavorare propositivamente in gruppo; Capacità di aggiornamento e studio di tool/tecnologie sul mercato. Requisiti aggiuntivi (PLUS):
Familiarità con input e output tipici dei modelli di Machine Learning e con l'attività di Feature Engineering; Conoscenza dei principi di Data analytics; Esperienza con Hadoop e Spark; Esperienza con Docker e Kubernetes; Esperienza con Databricks e/o Snowflake e/o AWS RedShift; Esperienza con Airflow o altri tool di orchestrazione; Conoscenza delle best practices di DevOps / DataOps; Conoscenza approfondita di Git. Contratto di lavoro: Tempo pieno
Benefit:
Buoni pasto Computer aziendale Disponibilità:
Dal lunedì al venerdì
#J-18808-Ljbffr