col-wideJob Description:
Tinexta Cyberè il Polo Italiano della cybersecurity, con un focus sui temi della sicurezza digitale, forti competenze verticali e soluzioni custom.
Corvallis,YoroieSwascansono le company che formano Tinexta Cyber. Grazie ai nostri servizi, interamente basati in Italia, nel rispetto della compliance EU su data residency, data protection e GDPR, garantiamo una transizione sicura nella trasformazione digitale delle aziende clienti e del sistema Paese.
Rendiamo accessibili i servizi di cybersecurity nei Financial Services, per le Telco e per le PMI, nel settore Pubblico e Professionals, per colmare il gap di security che ancora oggi caratterizza questo segmento importante del sistema produttivo.
Offriamo servizi di assessment e advisory per la cybersecurity. Ci occupiamo del design, del development e dell'implementazione delle soluzioni. Ne seguiamo il monitoring e il management per conto dei clienti e interveniamo per anticipare, bloccare e risolvere situazioni di rischio, garantendo le condizioni di business continuity e contribuendo a dare forma e sostanza a organizzazioni cyber-resilient, che sappiano interpretare con sicurezza tutte le fasi di un approccio strategico in fatto di cybersecurity predittiva, preventiva e proattiva.
Tinexta Cyber, è il polo cyber diTinexta SpA, un gruppo industriale che offre soluzioni innovative per la trasformazione digitale e la crescita di imprese, professionisti, istituzioni. Quotata all'Euronext STAR Milan con un solido azionista di riferimento istituzionale e inserito nell'indice europeo Tech Leader come azienda tech ad alto tasso di crescita. Basata in Italia e presente in 12 Paesi tra Europa e America Latina con oltre 2500 dipendenti, Tinexta è attiva nei settori strategici del Digital Trust, Cyber Security e Business Innovation.
Tinexta Cyber ricerca unBig Data Developer, con referenze nello sviluppo di soluzioni di ETL e/o DWH, da 1 a 3 anni di esperienza nello sviluppo di soluzioni di Data Analytics con tecnologie Big Data
Il candidato sarà chiamato a:
- Gestire data lake e definirne la struttura applicando architetture e formati allo stato dell'arte
- Implementare pipeline di acquisizione dati per l'alimentazione di data lake
- Implementare pipeline di data analytics
- Analizzare e ottimizzare le performance dei processi di elaborazione dati individuando punti di intervento e proponendo alternative di modellazione e partizionamento dati, sia at-rest che in-memory, più efficienti
- Effettuare attività di monitoraggio, manutenzione e fixing di pipeline di data integration e data analytics esistenti
Sono richieste conoscenza e esperienza su:
- Esperienza in tecnologie di Big Data processing: Spark, Hadoop, Hive/Impala
- Esperienza su Apache Kafka
- Buona conoscenza di SQL
- Conoscenza del linguaggio Python e/o Scala
- Costituisce un plus la conoscenza dei servizi per la realizzazione di data lake e pipeline di data anlytics in cloud (particolarmente apprezzata la conoscenza di Azure Data Lake e Azure Data Factory)
- È apprezzata la conoscenza di tecnologie di ETL e familiarità con la modellazione multidimensionale di data warehouse
- È apprezzata la conoscenza di piattaforme cloud (Azure)
- Capacità di analisi critica e di comunicazione con il cliente per recepire, comprendere e approfondire i requisiti funzionali e presentare gli avanzamenti
- Conoscenza della lingua inglese
- Capacità di trouble-shooting