ML engineer


l nostro obiettivo è sempre stato quello di creare e ampliare nel tempo un gruppo di persone qualificato, affidabile e disponibile; puntando su professionisti esperti, ma anche sulla formazione, investendo risorse nella crescita professionale.

Dipendenti e collaboratori attraverso consolidate competenze tecniche, contribuiscono a rendere Craon un’azienda altamente qualificata e competitiva sul mercato ICT.

Stiamo ricercando un middle Machine Learning Engineer con esperienza consolidata nello sviluppo e deployment di soluzioni ML scalabili su Databricks. Specializzato nella gestione di pipeline dati complesse, orchestrazione ML e MLOps, integrazione di modelli in produzione e ottimizzazione delle performance su infrastrutture cloud enterprise.

È richiesta conoscenza di almeno uno dei principali cloud provider (Azure, AWS, GCP), con capacità di lavorare su pipeline distribuite e di gestire cluster, storage e servizi cloud in modo efficiente.

Abituato a lavorare su progetti end-to-end: dall’ingestione e trasformazione dei dati, all’addestramento di modelli, al monitoraggio e retraining automatico in produzione. Forte attitudine alla collaborazione con data scientist, data engineer e team di prodotto per garantire soluzioni affidabili, scalabili e ad alto impatto.

Competenze tecniche:

Databricks & Big Data

  • Esperienza avanzata con Databricks

  • PySpark, Spark SQL per elaborazione batch e streaming

  • Delta Lake, Lakehouse architecture, Delta Live Tables

  • Workflow e orchestrazione con Databricks Jobs & Workflows

  • MLflow per tracking esperimenti, versionamento modelli e deployment

Machine Learning / MLOps

  • Modellazione supervisionata e non supervisionata

  • Feature engineering su dataset enterprise di grandi dimensioni

  • Deployment di modelli ML/AI come microservizi o endpoint API

  • Monitoraggio modelli, drift detection e pipeline di retraining automatico

  • CI/CD per modelli tramite GitHub Actions, GitLab CI o Azure DevOps

Cloud & Infrastruttura

  • Conoscenza richiesta di almeno uno tra i principali cloud provider (Azure, AWS, GCP)

  • Gestione cluster, networking, sicurezza e storage cloud (ADLS, S3, GCS)

  • Deployment di workflow batch e real-time su cloud provider differenti

Data Engineering

  • ETL/ELT con PySpark e Delta Live Tables

  • Gestione data lakehouse e grandi volumi di dati

  • SQL avanzato e ottimizzazione query

Backend & API

  • Python (FastAPI/Flask) per servire modelli come microservizi

  • Containerizzazione con Docker

  • Orchestrazione workflow e gestione pipeline batch/real-time

Tooling

  • Git, CI/CD, Azure DevOps / GitHub Actions / GitLab CI

  • Logging e monitoring (CloudWatch, Azure Monitor, GCP Stackdriver)

  • IaC: Terraform o Bicep (nice-to-have)

Soft Skills

  • problem solving e pensiero analitico

  • Capacità di lavorare in team multidisciplinari (data scientist, data engineer, product owner)

  • Attitudine alla collaborazione e comunicazione efficace

  • Autonomia nella gestione delle task e delle pipeline di lavoro

  • Approccio pragmatico e orientato ai risultati 

  • Capacità di gestire progetti complessi e scadenze

Sede: Milano (ibrido)

Si offre contratto a tempo indeterminato CNNL Commercio e Servizi; RAL in relazione all’esperienza effettivamente maturata o contratto in P.IVA

Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi 903/77 e 125/91 e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03

 

Sede: Milano, MI (Italia) + smart working

Altre posizioni aperte

Fullstack java/angular developer

Milano, MI - IT

Full stack python developer

Milano, MI - IT

AI & Data Engineer

Milano, MI - IT

Data Engineer

Milano , MI - IT

DBA Oracle

Milano, MI - IT