Durata corso:
Prezzo
+ IVA
Azure Databricks
Codice: DSDA16
Nell’era dell’informazione, i dati sono divenuti la linfa vitale delle organizzazioni. La capacità di analizzare, elaborare e trarre valore dai dati è diventata essenziale per rimanere competitivi. Azure Databricks è una potente piattaforma su scala cloud per analisi dei dati e Machine Learning, facilitando la gestione e l’analisi di grandi quantità di dati da diverse fonti in modo efficiente e collaborativo.
Il corso mira a introdurre i partecipanti alle potenti funzionalità di questa piattaforma, dando loro gli strumenti necessari per sfruttarla appieno nelle loro organizzazioni.
Questo percorso di apprendimento risulta utile per la preparazione dell’esame DP-203: Data Engineering on Microsoft Azure.
Modalità di erogazione
In aula o Live Virtual Classroom
Attestato di partecipazione
Al termine del corso verrà rilasciato l’attestato di frequenza.
- Esplorare Azure Databricks
- Introduzione ad Azure Databricks
- Identificare i carichi di lavoro di Azure Databricks
- Comprendere i concetti chiave
- Usare Apache Spark in Azure Databricks
- Introduzione a Spark
- Creare un cluster Spark
- Usare Spark nei notebook
- Usare Spark su file di dati
- Visualizzare i dati
- Usare Delta Lake in Azure Databricks
- Attività iniziali di Delta Lake
- Creare tabelle di Delta Lake
- Creare ed eseguire query su tabelle di catalogo
- Usare Delta Lake per i dati in streaming
- Use SQL Warehouse in Azure Databricks
- Attività iniziali di SQL Warehouse
- Creare database e tabelle
- Creare query e dashboard
- Eseguire notebook di Azure Databricks con Azure Data Factory
- Informazioni sui notebook e sulle pipeline di Azure Databricks
- Creare un servizio collegato per Azure Databricks
- Usare un’attività Notebook in una pipeline
- Usare parametri in un notebook
- Eseguire il training di un modello di Machine Learning in Azure Databricks
- Comprendere i principi del Machine Learning
- Machine Learning in Azure Databricks
- Preparazione dei dati per Machine Learning
- Eseguire il training di un modello di Machine Learning
- Valutare un modello di Machine Learning
- Usare MLflow in Azure Databricks
- Funzionalità di MLflow
- Eseguire esperimenti con MLflow
- Registrare e rendere disponibili i modelli con MLflow
- Ottimizzare gli iperparametri in Azure Databricks
- Ottimizzare gli iperparametri con Hyperopt
- Esaminare le prove di Hyperopt
- Scalare le prove di Hyperopt
- Usare AutoML in Azure Databricks
- Che cos’è AutoML?
- Usare AutoML nell’interfaccia utente di Azure Databricks
- Usare il codice per eseguire un esperimento di AutoML
- Eseguire il training di modelli di Deep Learning in Azure Databricks
- Comprendere i concetti del Deep Learning
- Eseguire il training di modelli con PyTorch
- Distribuire il training di PyTorch con Horovod
- Esercitazione pratiche
- Software Engineer
- Data Scientist
- Business Analyst
- Professionisti IT
- Conoscenza di base dell’analisi dei dati
- Conoscenza di Apache Spark
- Esperienza nell’uso di Python per esplorare i dati ed eseguire il training di modelli di Machine Learning con framework open source comuni, ad esempio Scikit-Learn, PyTorch e TensorFlow.
- Ottenere una panoramica completa di Azure Databricks e delle sue funzionalità principali.
- Apprendere come configurare e gestire ambienti di Databricks su Azure.
- Introdurre le metodologie per l’importazione, l’elaborazione e l’analisi di grandi dataset.
- Esplorare le integrazioni di Databricks con altri servizi Azure e strumenti di terze parti.
- Approfondire le pratiche consigliate per la sicurezza, la monitorizzazione e l’ottimizzazione delle prestazioni su Azure Databricks.