Agency : Havas Media Group
Job Description Summary : The Consultant Tech is supporting the creation and the integration of cross platform analytics solutions to measure all marketing and onsite/in-app behavior for clients, with her/his expertise in the field of UX Design, UI Design, Data Science or Software Development.
Job Description : Nell'ambito del rafforzamento del proprio team di professionisti, Havas Media Network è alla ricerca di un Data Engineer. La figura entrerà a far parte del team di Software and Data Engineering, contribuendo attivamente allo sviluppo di un nuovo data lake aziendale. Il ruolo sarà fondamentale nella creazione e ottimizzazione di pipeline di dati scalabili e nell'implementazione di un'infrastruttura cloud avanzata su Google Cloud Platform (GCP), con l'obiettivo di centralizzare, connettere e democratizzare il patrimonio dati aziendale. In un ambiente che favorisce l'apprendimento e la sperimentazione continua, contribuirai a sviluppare una architettura moderna e con pochissimi vincoli tecnologici imposti, collaborando con una moltitudine di funzioni aziendali e clienti diversi.
Responsabilità Principali Progettare e implementare un'architettura dati scalabile per centralizzare i dati aziendali e renderli disponibili per analisi e visualizzazioni dinamiche;Creare API e microservizi per l'integrazione dei dati e interfacce web per facilitare l'inserimento e la gestione delle pipeline dati;Collaborare con team interni, inclusi data analysts, data scientists, esperti di modelli econometrici e campagne marketing digital (SEO, ADV) e Business Intelligence, per comprendere i requisiti analitici e garantire che siano supportati dalla nostra architettura;Sfruttare una vasta gamma di strumenti, sia Google che di terze parti su GCP, per migliorare l'integrazione e la qualità dei dati;Monitorare e gestire la qualità dei dati, creare rapidamente prototipi di nuove soluzioni e migliorare continuamente l'ecosistema dati aziendale.Requisiti Must Have Almeno 3 anni di esperienza in Data Engineering o ruoli simili;Ottima conoscenza della lingua inglese;Esperienza avanzata su Google Cloud Platform, in particolare BigQuery, Dataform, Cloud Run e Compute Engine;Competenza in architetture quali Data Lake, Data Warehouse e Data Fabric;Forte conoscenza di SQL (BigQuery, Postgres) e data modeling;Esperienza con architetture event-driven e gestione di code (Pub/Sub, Kafka);Esperienza con Docker/Kubernetes e microservizi;Competenze avanzate in Python e progettazione ETL/ELT;Laurea in Ingegneria, Informatica o altra disciplina STEM.Nice to Have Esperienza su Terraform e metodologie CI/CD;Esperienza e/o interesse nei sistemi relazionali streaming e database a bassa latenza (es. Proton);Conoscenza di base del linguaggio R;Familiarità con database non relazionali/documentali (es. MongoDB);Esperienza con MLOps e framework sia backend che frontend basati su Python (es. Django, Flask, FastAPI).Formazione e Crescita L'azienda supporta la formazione continua, offrendo il tempo adeguato per percorsi di specializzazione e di certificazione, con particolare attenzione a strumenti GCP (sia Google che di terze parti) per migliorare l'integrazione dati e accelerare la prototipizzazione di pipeline.
Sede di lavoro: Milano
Orario di lavoro: full-time in modalità ibrida (3 giorni in presenza, 2 giorni da remoto)
Inquadramento e retribuzione: in linea con le capacità e con le esperienze maturate. Il presente annuncio si rivolge ai candidati di ambo i sessi (L. 903/77). I candidati potranno inviare il CV rilasciando specifica autorizzazione al trattamento dei dati personali.
Contract Type : Permanent
Here at Havas across the group we pride ourselves on being committed to offering equal opportunities to all potential employees and have zero tolerance for discrimination. We are an equal opportunity employer and welcome applicants irrespective of age, sex, race, ethnicity, disability and other factors that have no bearing on an individual's ability to perform their job.
#J-18808-Ljbffr