Tinexta Cyber è il Polo Italiano della cybersecurity, con un focus sui temi della sicurezza digitale, forti competenze verticali e soluzioni custom.
Corvallis, Yoroi e Swascan sono le company che formano Tinexta Cyber.
Grazie ai nostri servizi, interamente basati in Italia, nel rispetto della compliance EU su data residency, data protection e GDPR, garantiamo una transizione sicura nella trasformazione digitale delle aziende clienti e del sistema Paese.
Rendiamo accessibili i servizi di cybersecurity nei Financial Services, per le Telco e per le PMI, nel settore Pubblico e Professionals, per colmare il gap di security che ancora oggi caratterizza questo segmento importante del sistema produttivo.
Offriamo servizi di assessment e advisory per la cybersecurity.
Ci occupiamo del design, del development e dell'implementazione delle soluzioni.
Ne seguiamo il monitoring e il management per conto dei clienti e interveniamo per anticipare, bloccare e risolvere situazioni di rischio, garantendo le condizioni di business continuity e contribuendo a dare forma e sostanza a organizzazioni cyber-resilient, che sappiano interpretare con sicurezza tutte le fasi di un approccio strategico in fatto di cybersecurity predittiva, preventiva e proattiva.
Tinexta Cyber, è il polo cyber di Tinexta SpA, un gruppo industriale che offre soluzioni innovative per la trasformazione digitale e la crescita di imprese, professionisti, istituzioni.
Quotata all'Euronext STAR Milan con un solido azionista di riferimento istituzionale e inserito nell'indice europeo Tech Leader come azienda tech ad alto tasso di crescita.
Basata in Italia e presente in 12 Paesi tra Europa e America Latina con oltre 2500 dipendenti, Tinexta è attiva nei settori strategici del Digital Trust, Cyber Security e Business Innovation.
Posizione:Tinexta Cyber ricerca un Big Data Developer, con referenze nello sviluppo di soluzioni di ETL e/o DWH, da 1 a 3 anni di esperienza nello sviluppo di soluzioni di Data Analytics con tecnologie Big Data.
Il candidato sarà chiamato a:
Gestire data lake e definirne la struttura applicando architetture e formati allo stato dell'arteImplementare pipeline di acquisizione dati per l'alimentazione di data lakeImplementare pipeline di data analyticsAnalizzare e ottimizzare le performance dei processi di elaborazione dati individuando punti di intervento e proponendo alternative di modellazione e partizionamento dati, sia at-rest che in-memory, più efficientiEffettuare attività di monitoraggio, manutenzione e fixing di pipeline di data integration e data analytics esistentiSono richieste conoscenza e esperienza su:
Esperienza in tecnologie di Big Data processing: Spark, Hadoop, Hive/ImpalaEsperienza su Apache KafkaBuona conoscenza di SQLConoscenza del linguaggio Python e/o ScalaCostituisce un plus la conoscenza dei servizi per la realizzazione di data lake e pipeline di data analytics in cloud (particolarmente apprezzata la conoscenza di Azure Data Lake e Azure Data Factory)È apprezzata la conoscenza di tecnologie di ETL e familiarità con la modellazione multidimensionale di Data WarehouseÈ apprezzata la conoscenza di piattaforme cloud (Azure)Altre informazioni:Capacità di analisi critica e di comunicazione con il cliente per recepire, comprendere e approfondire i requisiti funzionali e presentare gli avanzamentiConoscenza della lingua ingleseCapacità di troubleshootingSede di lavoro: preferenziale Lecce, ma si valutano anche candidature a distanza
#J-18808-Ljbffr