It's Prodigy è una startup innovativa operante nel campo dell'innovazione tecnologica che si pone l'obiettivo di creare soluzioni e prodotti di nuova generazione per piccole, medie e grandi imprese. Di cosa ci occupiamo? Innovazione: ci proponiamo come consulenti e sviluppatori di soluzioni in ambito industria 4.0 (Big data, intelligenza artificiale, IoT) Consulenza Tecnologica: ci occupiamo sia di consulenza in modalità outsourcing che di sviluppo custom di progetti. Marketing: operiamo in ambito pubblica amministrazione e corporate, offrendo servizi di digital marketing, social marketing, brand awareness e altri servizi di marketing specializzato. Digital PMI: architettiamo soluzioni digitali per le PMI: e-commerce, app mobile, realizzazione di loghi, marketing (semplice), sviluppo di idee Compiti: Stiamo cercando un Data Engineer con esperienza nelle principali tecnologie di gestione e trasformazione dei dati, inclusi AWS, Data Bricks, SQL, Python, MongoDB, Kafka e Apache Spark. In questo ruolo, avrai l'opportunità di progettare, implementare e gestire infrastrutture dati all'avanguardia, supportando processi decisionali strategici e contribuendo alla crescita tecnologica di un'importante azienda cliente. Le principali responsabilità della risorsa saranno: Progettare e implementare pipeline di dati scalabili utilizzando AWS e Databricks. Gestire e ottimizzare basi di dati relazionali e non relazionali, come SQL e MongoDB. Utilizzare Apache Kafka per lo streaming e l'integrazione di dati in tempo reale. Sviluppare e ottimizzare processi ETL complessi utilizzando Python e Apache Spark. Creare soluzioni sicure e ad alte prestazioni per l'archiviazione e l'elaborazione dei dati su larga scala. Collaborare con Data Scientists, Data Analysts e altri stakeholder per comprendere e soddisfare le esigenze aziendali. Implementare strategie di data governance per garantire la qualità e l'integrità dei dati. Monitorare e risolvere problemi legati alle pipeline di dati e migliorare le performance delle query. Requisiti: Esperienza professionale: Minimo di 3 anni di esperienza nel ruolo di Data Engineer. Esperienza avanzata con AWS (Redshift, S3, Lambda, EC2, RDS). Conoscenza di Databricks per la gestione e l'elaborazione dei dati. Forte esperienza con SQL per la gestione e l'ottimizzazione di database relazionali. Competenze in Python per l'automazione dei processi e lo sviluppo di soluzioni dati. Esperienza con database NoSQL, in particolare MongoDB. Conoscenza di Apache Kafka per la gestione di flussi di dati in tempo reale. Esperienza con Apache Spark per l'elaborazione distribuita e l'analisi di grandi volumi di dati. Conoscenza di strumenti di orchestrazione di pipeline come Apache Airflow. Esperienza con infrastrutture containerizzate (Docker, Kubernetes). Familiarità con la sicurezza dei dati e le normative sulla privacy (es. GDPR). Esperienza con strumenti di versionamento del codice come Git. Vantaggi: Cosa offriamo? Retribuzione: per questa opportunità siamo aperti a valutare risorse freelance in partita IVA. Ambiente di lavoro flessibile e inclusivo. Opportunità di crescita in un ambiente giovane e dinamico. La selezione è rivolta a candidati ambosessi (L. 903/77). I dati personali verranno trattati secondo il Regolamento Ue 2016/679, noto come GDPR. J-18808-Ljbffr