Spiacenti, l'offerta non è più disponibile,
ma puoi eseguire una nuova ricerca o esplorare offerte simili:

Tecnico Computista

Sei un GEOMETRA, INGEGNERE edile o ARCHITETTO con la passione per l'edilizia? Ti piace progettare e sei una persona organizzata, ambiziosa e con tanta vogli...


Falone Costruzioni E.R. Srl - Italia

Pubblicato 8 days ago

Salesforce Fsl Consultant

We're seeking a skilled Salesforce Field Service Developer to join our dynamic team. In this role, you'll leverage your expertise in Salesforce Field Service...


Glo Comms - Italia

Pubblicato 8 days ago

Fleet Operations Specialist

JOB DESCRIPTION Verify your compatibility with this job ad La risorsa si occuperà della distribuzione, recupero ed ottimizzazione del posizionamento della fl...


Angel - Italia

Pubblicato 7 days ago

Gestore Di Filiale Bancaria - Umbria

Storico Istituto di Credito Interessante opportunità professionale Azienda Il nostro Partner è uno storico Istituto di Credito, storica espressione del terri...


Michael Page International Italia S.R.L. - Italia

Pubblicato 7 days ago

Software Data Engineer

Dettagli della offerta

La risorsa sarà inserita all'interno del progetto di Data Platform con l'obiettivo di sviluppare i processi di alimentazione tramite Kafka e integrare tutti i sistemi di manufacturing presenti nei plant. Si occuperà di analisi e implementazione di soluzioni big data specialmente in ambiente cloud. In particolare i progetti riguarderanno tematiche di digital transformation a partire da soluzioni tradizionali e legacy, verso soluzioni di gestione e analisi del dato in linea con una data strategy data-driven. Collaborerà con il team di Milano alla condivisione dei requisiti, progettazione e modellazione delle loading chain.
Si occuperà inoltre della stesura della documentazione degli sviluppi, agli integration test e deploy in ambiente AWS e gestirà l'handover della soluzione implementata al team di supporto per la governance della soluzione.
Attività
Conoscenza approfondita di S3, Aurora, RDS e postgres per configurazione e gestione database nei processi di loading dati; Esperienza programmazione con Phyton, Spark, Node.js, Scala; Esperienza in ambienti cloud preferibilmente AWS (msk, Kafka); Esperienza di progettazione, sviluppo, gestione di pipeline scalabili (ETL); Capacità analitiche per la gestione di grandi quantità di dati (Big Data); Conoscenza delle tematiche di data integration e data streaming e di almeno un paio di strumenti/framework (Spark, Apache Beam, Kafka, databricks, ecc.) con esperienza di almeno 1 anno nell'utilizzo di questi tool; Conoscenza delle architetture e tecnologie big data più diffuse (Hadoop, MapReduce, HBase, Oozie, Hive, Flume, MongoDB, Cassandra, Pig, ecc.). Inoltre:
Buona conoscenza della lingua inglese; Buona propensione all'analisi, al problem solving e al teamworking; Dinamismo e proattività. Sono un plus:
Conoscenza linguaggi di scripting Web, Design e UX; Certificazioni tecniche AWS; Esperienza in ambito simile di almeno 2 anni. Ruolo da ricoprire:
Sviluppo pipeline di caricamento sistemi di fabbrica in data platform; Scrittura di codice PL/SQL; Scrittura e manutenzione della documentazione tecnica a supporto delle implementazioni ETL; Manutenzione ed interventi su flussi ETL esistenti; Interfaccia con i settori del Business per la raccolta dei requisiti; Predisposizione di sistemi di alert, monitoring tramite Cloudwatch, Phyton. Sede: la posizione sarà basata presso il nuovo ufficio Pirelli di Bari (BA), Italia.
#J-18808-Ljbffr


Salario Nominale: Da concordare

Risorsa: Grabsjobs_Co

Funzione Lavorativa:

Requisiti

Built at: 2025-01-11T16:39:33.839Z