It's Prodigy è una startup innovativa, operante nel campo dell'innovazione tecnologica, che si pone l'obiettivo di creare soluzioni e prodotti di nuova generazione per piccole, medie e grandi imprese. Di cosa ci occupiamo?
Innovazione: ci proponiamo come consulenti e sviluppatori di soluzioni in ambito industria 4.0 (Big data, intelligenza artificiale, iot...);
Consulenza Tecnologica: ci occupiamo sia di consulenza in modalità outsourcing che di sviluppo custom di progetti;
Marketing: operiamo in ambito pubblica amministrazione e corporate, offrendo servizi di digital marketing, social marketing, brand awareness e altri servizi di marketing specializzato;
Digital PMI: architettiamo soluzioni digitali per le pmi: e-commerce, app mobile, realizzazione di loghi, marketing (semplice), sviluppo di idee...
Compiti
Stiamo cercando un Data Engineer con esperienza nelle principali tecnologie di gestione e trasformazione dei dati, inclusi AWS , Data Bricks , SQL , Python , MongoDB , Kafka e Apache Spark . In questo ruolo, avrai l'opportunità di progettare, implementare e gestire infrastrutture dati all'avanguardia, supportando processi decisionali strategici e contribuendo alla crescita tecnologica di un'importante azienda cliente.
Le principali responsabilità della risorsa saranno:
Progettare e implementare pipeline di dati scalabili utilizzando AWS e Databricks. Gestire e ottimizzare basi di dati relazionali e non relazionali, come SQL e MongoDB. Utilizzare Apache Kafka per lo streaming e l'integrazione di dati in tempo reale. Sviluppare e ottimizzare processi ETL complessi utilizzando Python e Apache Spark. Creare soluzioni sicure e ad alte prestazioni per l'archiviazione e l'elaborazione dei dati su larga scala. Collaborare con Data Scientists, Data Analysts e altri stakeholder per comprendere e soddisfare le esigenze aziendali. Implementare strategie di data governance per garantire la qualità e l'integrità dei dati. Monitorare e risolvere problemi legati alle pipeline di dati e migliorare le performance delle query. Requisiti
Esperienza professionale: Minimo di 3 di esperienza nel ruolo di Data Engineer. Esperienza avanzata con AWS (Redshift, S3, Lambda, EC2, RDS). Conoscenza di Databricks per la gestione e l'elaborazione dei dati. Forte esperienza con SQL per la gestione e l'ottimizzazione di database relazionali. Competenze in Python per l'automazione dei processi e lo sviluppo di soluzioni dati. Esperienza con database NoSQL, in particolare MongoDB . Conoscenza di Apache Kafka per la gestione di flussi di dati in tempo reale. Esperienza con Apache Spark per l'elaborazione distribuita e l'analisi di grandi volumi di dati. Conoscenza di strumenti di orchestrazione di pipeline come Apache Airflow . Esperienza con infrastrutture containerizzate (Docker , Kubernetes ). Familiarità con la sicurezza dei dati e le normative sulla privacy (es. GDPR). Esperienza con strumenti di versionamento del codice come Git . Vantaggi
Cosa offriamo?
Retribuzione: per questa opportunità siamo aperti a valutare risorse freelance in partita iva.
Ambiente di lavoro flessibile e inclusivo.
Opportunità di crescita in un ambiente giovane e dinamico.
La selezione è rivolta a candidati ambosessi (L. 903/77). I dati personali verranno trattati secondo il Regolamento Ue 2016/679, noto come GDPR - General Data Protection Regulation.
#J-18808-Ljbffr