Tinexta Cyber è il Polo Italiano della cybersecurity, con un focus sui temi della sicurezza digitale, forti competenze verticali e soluzioni custom.
Corvallis , Yoroi e Swascan sono le company che formano Tinexta Cyber. Grazie ai nostri servizi, interamente basati in Italia, nel rispetto della compliance EU su data residency, data protection e GDPR, garantiamo una transizione sicura nella trasformazione digitale delle aziende clienti e del sistema Paese.
Rendiamo accessibili i servizi di cybersecurity nei Financial Services, per le Telco e per le PMI, nel settore Pubblico e Professionals, per colmare il gap di security che ancora oggi caratterizza questo segmento importante del sistema produttivo.
Offriamo servizi di assessment e advisory per la cybersecurity. Ci occupiamo del design, del development e dell'implementazione delle soluzioni. Ne seguiamo il monitoring e il management per conto dei clienti e interveniamo per anticipare, bloccare e risolvere situazioni di rischio, garantendo le condizioni di business continuity e contribuendo a dare forma e sostanza a organizzazioni cyber-resilient, che sappiano interpretare con sicurezza tutte le fasi di un approccio strategico in fatto di cybersecurity predittiva, preventiva e proattiva.
Tinexta Cyber , è il polo cyber di Tinexta SpA , un gruppo industriale che offre soluzioni innovative per la trasformazione digitale e la crescita di imprese, professionisti, istituzioni. Quotata all'Euronext STAR Milan con un solido azionista di riferimento istituzionale e inserito nell'indice europeo Tech Leader come azienda tech ad alto tasso di crescita. Basata in Italia e presente in 12 Paesi tra Europa e America Latina con oltre 2500 dipendenti, Tinexta è attiva nei settori strategici del Digital Trust, Cyber Security e Business Innovation.
Posizione:
Tinexta Cyber ricerca un Big Data Developer , con referenze nello sviluppo di soluzioni di ETL e/o DWH, da 1 a 3 anni di esperienza nello sviluppo di soluzioni di Data Analytics con tecnologie Big Data.
Requisiti:
Il candidato sarà chiamato a:
Gestire data lake e definirne la struttura applicando architetture e formati allo stato dell'arte
Implementare pipeline di acquisizione dati per l'alimentazione di data lake
Implementare pipeline di data analytics
Analizzare e ottimizzare le performance dei processi di elaborazione dati individuando punti di intervento e proponendo alternative di modellazione e partizionamento dati, sia at-rest che in-memory, più efficienti
Effettuare attività di monitoraggio, manutenzione e fixing di pipeline di data integration e data analytics esistenti
Sono richieste conoscenza e esperienza su:
Esperienza in tecnologie di Big Data processing: Spark, Hadoop, Hive/Impala
Esperienza su Apache Kafka
Buona conoscenza di SQL
Conoscenza del linguaggio Python e/o Scala
Costituisce un plus la conoscenza dei servizi per la realizzazione di data lake e pipeline di data analytics in cloud (particolarmente apprezzata la conoscenza di Azure Data Lake e Azure Data Factory)
È apprezzata la conoscenza di tecnologie di ETL e familiarità con la modellazione multidimensionale di Data Warehouse
È apprezzata la conoscenza di piattaforme cloud (Azure)
Altre informazioni:
Capacità di analisi critica e di comunicazione con il cliente per recepire, comprendere e approfondire i requisiti funzionali e presentare gli avanzamenti
Conoscenza della lingua inglese
Capacità di troubleshooting
Sede di lavoro: preferenziale Lecce , ma si valutano anche candidature a distanza
#J-18808-Ljbffr