Tinexta Cyber è il Polo Italiano della cybersecurity, con un focus sui temi della sicurezza digitale, forti competenze verticali e soluzioni custom.
Corvallis , Yoroi e Swascan sono le company che formano Tinexta Cyber.
Grazie ai nostri servizi, interamente basati in Italia, nel rispetto della compliance EU su data residency, data protection e GDPR, garantiamo una transizione sicura nella trasformazione digitale delle aziende clienti e del sistema Paese.
Rendiamo accessibili i servizi di cybersecurity nei Financial Services, per le Telco e per le PMI, nel settore Pubblico e Professionals, per colmare il gap di security che ancora oggi caratterizza questo segmento importante del sistema produttivo.
Offriamo servizi di assessment e advisory per la cybersecurity.
Ci occupiamo del design, del development e dell'implementazione delle soluzioni.
Ne seguiamo il monitoring e il management per conto dei clienti e interveniamo per anticipare, bloccare e risolvere situazioni di rischio, garantendo le condizioni di business continuity e contribuendo a dare forma e sostanza a organizzazioni cyber-resilient, che sappiano interpretare con sicurezza tutte le fasi di un approccio strategico in fatto di cybersecurity predittiva, preventiva e proattiva.
Tinexta Cyber , è il polo cyber di Tinexta SpA , un gruppo industriale che offre soluzioni innovative per la trasformazione digitale e la crescita di imprese, professionisti, istituzioni.
Quotata all'Euronext STAR Milan con un solido azionista di riferimento istituzionale e inserito nell'indice europeo Tech Leader come azienda tech ad alto tasso di crescita.
Basata in Italia e presente in 12 Paesi tra Europa e America Latina con oltre 2500 dipendenti, Tinexta è attiva nei settori strategici del Digital Trust, Cyber Security e Business Innovation.
Tinexta Cyber ricerca un Big Data Developer , con referenze nello sviluppo di soluzioni di ETL e/o DWH, da 1 a 3 anni di esperienza nello sviluppo di soluzioni di Data Analytics con tecnologie Big Data.
Il candidato sarà chiamato a: - Gestire data lake e definirne la struttura applicando architetture e formati allo stato dell'arte - Implementare pipeline di acquisizione dati per l'alimentazione di data lake - Implementare pipeline di data analytics - Analizzare e ottimizzare le performance dei processi di elaborazione dati individuando punti di intervento e proponendo alternative di modellazione e partizionamento dati, sia at-rest che in-memory, più efficienti - Effettuare attività di monitoraggio, manutenzione e fixing di pipeline di data integration e data analytics esistenti Sono richieste conoscenza e esperienza su: - Esperienza in tecnologie di Big Data processing: Spark, Hadoop, Hive/Impala - Esperienza su Apache Kafka - Buona conoscenza di SQL - Conoscenza del linguaggio Python e/o Scala - Costituisce un plus la conoscenza dei servizi per la realizzazione di data lake e pipeline di data analytics in cloud (particolarmente apprezzata la conoscenza di Azure Data Lake e Azure Data Factory) - È apprezzata la conoscenza di tecnologie di ETL e familiarità con la modellazione multidimensionale di Data Warehouse - È apprezzata la conoscenza di piattaforme cloud (Azure) - Capacità di analisi critica e di comunicazione con il cliente per recepire, comprendere e approfondire i requisiti funzionali e presentare gli avanzamenti - Conoscenza della lingua inglese - Capacità di troubleshooting Sede di lavoro: preferenziale Lecce , ma si valutano anche candidature a distanza