Seleziona la frequenza (in giorni) di ricezione di un avviso: Località: Milano, IT, 20139 Padova, Padova, IT, 35129 Firenze, IT, 50145 Genova, IT, 16129 Torino, IT, 10152 Siena, IT, 53100 Tipo di lavoro: Remote / Hybrid Stiamo cercando un Data Engineer esperto e motivato con un forte background nell'ecosistema Hadoop e una comprovata esperienza con Java Spring Boot (API Rest & Batches) e Oracle DB. Il candidato ideale avrà almeno 3 anni di esperienza pratica nell'ingegneria dei dati e una passione per la progettazione, la costruzione e la manutenzione di applicazioni complesse e robuste. L'esperienza nel settore finanziario è un plus, in quanto aiuterà a comprendere meglio le esigenze dei clienti e il dominio funzionale dell'applicazione. Responsabilità chiave Competenza nell'ecosistema Hadoop Progettare, implementare e ottimizzare pipeline di dati e flussi di lavoro sfruttando strumenti e tecnologie dell'ecosistema Hadoop, tra cui: HDFS, YARN, Spark, HBase, Impala, HIVE Esperienza Java per API e processi batch Costruire e distribuire API RESTful utilizzando Java Spring Boot per facilitare l'integrazione dei dati e l'interoperabilità tra i sistemi. Progettare e mantenere processi batch utilizzando Java, garantendo l'esecuzione efficiente dei flussi di lavoro dei dati e della logica aziendale. Implementare soluzioni robuste per la gestione degli errori, la registrazione e il monitoraggio. Gestione dei database Mantenere e ottimizzare soluzioni di database relazionali utilizzando Oracle DB. Scrivere query SQL e Spark SQL complesse ed efficienti per garantire prestazioni ottimali del database. Ottimizzazione delle prestazioni e risoluzione dei problemi Monitorare, risolvere i problemi e migliorare le prestazioni dei processi. Garantire l'integrità, la qualità e la sicurezza dei dati. Collaborazione e supporto Partecipare attivamente alle pratiche Agile, tra cui stand-up e retrospettive quotidiane, per garantire il raggiungimento efficiente degli obiettivi del progetto. Partecipare alle revisioni del codice, alle discussioni sul design e alla collaborazione del team per mantenere standard elevati. Qualifiche richieste: Competenza nei framework di calcolo distribuito e nell'elaborazione dei dati su scala. Esperienza con pipeline ETL e modellazione dei dati. Solida conoscenza della gestione dei cluster, della risoluzione dei problemi dei big data e dello sviluppo di API con Java Spring. Forti capacità analitiche e di risoluzione dei problemi con attenzione ai dettagli. Se ti rivedi nel profilo descritto, fai application e noi daremo spazio al tuo talento Hai qualche domanda? Non ti ritrovi in questo profilo ma vuoi comunque un confronto con noi? Contattaci alla mail careeritalygft.com Chi siamo? GFT Technologies SE (GFT) fondata nel 1987, è oggi rappresentata da un team globale di circa 12.000 dipendenti in Europa, Nord e Sud America e Asia. Siamo costantemente impegnati a guidare la trasformazione digitale nel settore dei servizi finanziari, forniamo consulenza alle principali istituzioni finanziarie a livello mondiale e sviluppiamo soluzioni IT su misura. In GFT potrai lavorare da remoto 5/5. GFT Technologies garantisce le pari opportunità nel percorso di selezione, assunzione e nei processi di crescita professionale. In GFT Italia lavoriamo bene perché sappiamo anche divertirci Abbiamo un motto tutto nostro, che per noi significa molto: "Rock the top". Non c'è ancora un annuncio di tuo interesse? Ti informeremo sui prossimi eventi e sulle opportunità in linea con i tuoi interessi. J-18808-Ljbffr