La risorsa selezionata sarà inserita all'interno della Direzione Sistema Informativo Integrato e IT, nella Funzione Data Center/Data Lake e Help Desk SII a supporto delle attività di governo e dell'esercizio delle infrastrutture e delle piattaforme, con particolare attenzione alla sicurezza, l'integrità e la disponibilità dei dati ed alla continuità del servizio.
Lavorerà a stretto contatto con un team di esperti nei diversi ambiti sistemistici ed applicativi, analizzando soluzioni tecnologiche e le architetture più affini agli obbiettivi, ai bisogni del Business e dell'IT.
Si occuperà principalmente dell'amministrazione, configurazione, aggiornamento e manutenzione dei sistemi di ICT con particolare riferimento ad ambienti Data Lake e piattaforme Cloudera, dedicati a progettare e approntare analisi di dati.
Competenze/Esperienze tecnico-specialistiche richieste Laurea in discipline tecnico-scientifiche o informatica ed aver maturato almeno 2 anni di esperienza in attività analoghe all'oggetto di ricerca In alternativa verranno valutati candidati in possesso di Diploma con almeno 5 anni di esperienza in attività analoghe all'oggetto di ricerca Comprovate esperienze di installazione, configurazione e Amministrazione Cloudera Hadoop / Big Data Platform Esperienza pratica nei componenti dell'ecosistema Hadoop come Hive, Pig, Sqoop, Zookeeper/Kafka Capacità di programmazione in Spark/Scala, Python, Shell Scripting e bug fix sistemistico Monitoraggio servizi Competenze/Esperienze tecnico-specialistiche preferenziali Installazione di cluster e sistemi Data Lake, aggiornamento e migrazione dati tra cluster, impostazione di kerberos/ranger, esperienze su NoSQL (Cassandra, Mongo DB e Hive, Hbase) Competenze tecnico specialistiche di installazione sui file di dati, di strategie di backup/ripristino e di ottimizzazione delle prestazioni, monitoraggio e risoluzione dei problemi su cluster Amministrazione di piattaforme di integrazione dati Cloudera CDH 5.16.x (e superiori) CDP 7.1.x Sharding di più nodi di ambienti Mongodb, gestione delle integrazioni con sistemi cluster Hadoop Esperienza nell'utilizzo delle principali piattaforme di virtualizzazione Vmware o hypervisor analoghi per ambienti farm e client (Vmware/horizon), cloud orchestrator kubernetes e soluzioni open-source in grado di automatizzare il processo di deployment di applicazioni all'interno di contenitori software Competenze trasversali richieste Orientamento al lavoro di squadra, pensiero analitico, organizzazione e planning, capacità di analisi e raggiungimento degli obiettivi. Problem solving, ottima capacità di adattamento, flessibilità e riservatezza. Dettagli profilo Codice Rif.:
SAC_24
Tipologia di contratto:
Tempo indeterminato
Posizioni ricercate:
1
Sede di lavoro:
Roma
#J-18808-Ljbffr