It's Prodigy è una startup innovativa, operante nel campo dell'innovazione tecnologica, che si pone l'obiettivo di creare soluzioni e prodotti di nuova generazione per piccole, medie e grandi imprese.
Di cosa ci occupiamo?
Innovazione: ci proponiamo come consulenti e sviluppatori di soluzioni in ambito industria 4.0 (Big data, intelligenza artificiale, iot...);
Consulenza Tecnologica: ci occupiamo sia di consulenza in modalità outsourcing che di sviluppo custom di progetti;
Marketing: operiamo in ambito pubblica amministrazione e corporate, offrendo servizi di digital marketing, social marketing, brand awareness e altri servizi di marketing specializzato;
Digital PMI: architettiamo soluzioni digitali per le pmi: e-commerce, app mobile, realizzazione di loghi, marketing (semplice), sviluppo di idee...
Compiti
Stiamo cercando un Data Engineer con esperienza nelle principali tecnologie di gestione e trasformazione dei dati, inclusi AWS , Data Bricks , SQL , Python , MongoDB , Kafka e Apache Spark . In questo ruolo, avrai l'opportunità di progettare, implementare e gestire infrastrutture dati all'avanguardia, supportando processi decisionali strategici e contribuendo alla crescita tecnologica di un'importante azienda cliente.
Le principali responsabilità della risorsa saranno:
Progettare e implementare pipeline di dati scalabili utilizzando AWS e Databricks.
Gestire e ottimizzare basi di dati relazionali e non relazionali, come SQL e MongoDB.
Utilizzare Apache Kafka per lo streaming e l'integrazione di dati in tempo reale.
Sviluppare e ottimizzare processi ETL complessi utilizzando Python e Apache Spark.
Creare soluzioni sicure e ad alte prestazioni per l'archiviazione e l'elaborazione dei dati su larga scala.
Collaborare con Data Scientists, Data Analysts e altri stakeholder per comprendere e soddisfare le esigenze aziendali.
Implementare strategie di data governance per garantire la qualità e l'integrità dei dati.
Monitorare e risolvere problemi legati alle pipeline di dati e migliorare le performance delle query.
Requisiti
Esperienza professionale: Minimo di 3 di esperienza nel ruolo di Data Engineer.
Esperienza avanzata con AWS (Redshift, S3, Lambda, EC2, RDS).
Conoscenza di Databricks per la gestione e l'elaborazione dei dati.
Forte esperienza con SQL per la gestione e l'ottimizzazione di database relazionali.
Competenze in Python per l'automazione dei processi e lo sviluppo di soluzioni dati.
Esperienza con database NoSQL, in particolare MongoDB .
Conoscenza di Apache Kafka per la gestione di flussi di dati in tempo reale.
Esperienza con Apache Spark per l'elaborazione distribuita e l'analisi di grandi volumi di dati.
Conoscenza di strumenti di orchestrazione di pipeline come Apache Airflow .
Esperienza con infrastrutture containerizzate ( Docker , Kubernetes ).
Familiarità con la sicurezza dei dati e le normative sulla privacy (es. GDPR).
Esperienza con strumenti di versionamento del codice come Git .
Vantaggi
Cosa offriamo?
Retribuzione: per questa opportunità siamo aperti a valutare risorse freelance in partita iva.
Ambiente di lavoro flessibile e inclusivo.
Opportunità di crescita in un ambiente giovane e dinamico.
La selezione è rivolta a candidati ambosessi (L. 903/77). I dati personali verranno trattati secondo il Regolamento Ue 2016/679, noto come GDPR - General Data Protection Regulation.
#J-18808-Ljbffr