Descrizione del lavoro
Stiamo cercando un Python developer / ETL specialist / Data Engineer per accrescere il nostro team specializzato nella consulenza 4.0. Il tuo ruolo sarà quello di partecipare attivamente al design e allo sviluppo di software centrati su task inerenti all'Intelligenza Artificiale specificatamente mediante concettualizzazione, prototipazione, implementazione e testing di data pipelines da fonti disparate e provenienti dai più svariati domini (pharma, law, finance, insurance, etc.).
Si richiede la presenza sul posto, con possibilità future di lavoro ibrido.
Responsabilità:Design, sviluppo e manutenzione di pipeline di ETL/Data engineering (estrazione da multiple fonti, consolidamento, pulizia, trasformazione, caricamento in database) on premise e in cloud;Integrazione delle suddette componenti all'interno di un software più ampio;Esecuzione di analisi preliminare dei dati (determinazione livello di pulizia, fattibilità di ipotetiche aggregazioni, etc.);Esecuzione di analisi dati per prevenire/risolvere anomalie nel funzionamento delle pipeline;Aggiornamento circa i rilevanti tool presenti sul mercato e valutazione della necessità/convenienza della loro integrazione nel progetto;Debugging del codice prodotto e strutturazione dello stesso per il deploy;Redazione di relazioni tecniche dettagliate e comunicazione in report dei risultati intermedi di progetto.Requisiti:Laurea/Laurea Magistrale in Informatica o Ingegneria informatica;Esperienza dimostrabile in progetti di Data Engineering e Sviluppo Software data-driven di medio-alta complessità;Conoscenza approfondita di Python (OOP, funzionale, strutture dati e algoritmi) e delle relative librerie e framework;Conoscenza approfondita del linguaggio SQL ed esperienza nella scrittura e nell'ottimizzazione di query;Esperienza con database non relazionali;Esperienza di deploy in ambiente cloud, preferibilmente AWS;Capacità di lavorare propositivamente in gruppo;Capacità di aggiornamento e studio di tool/tecnologie sul mercato.Requisiti aggiuntivi (PLUS):Familiarità con input e output tipici dei modelli di Machine Learning e con l'attività di Feature Engineering;Conoscenza dei principi di Data analytics;Esperienza con Hadoop e Spark;Esperienza con Docker e Kubernetes;Esperienza con Databricks e/o Snowflake e/o AWS RedShift;Esperienza con Airflow o altri tool di orchestrazione;Conoscenza delle best practices di DevOps / DataOps;Conoscenza approfondita di Git.Contratto di lavoro: Tempo pieno
Buoni pastoComputer aziendaleDisponibilità:Dal lunedì al venerdì
#J-18808-Ljbffr