Skip to main content

Durata corso:

3 giorni

Prezzo

1.210,00 €
+ IVA

Apache Spark architettura Calcolo Distribuito: PySpark

Codice: DSBD11

Il corso vuole introdurre i principali concetti di Big Data con una veloce panoramica sulle architetture di riferimento, in particolare Hadoop e Apache Spark: Spark è uno dei principali framework per l’elaborazione distribuita di Big Data che però non include un sistema di gestione dei dati: per tale ragione, solitamente viene distribuito su Hadoop.

Modalità di erogazione

In aula o Live Virtual Classroom

Attestato di partecipazione

Al termine del corso verrà rilasciato l’attestato di frequenza

Contenuti del corso

Apache Spark

  • Introduzione a Spark
  • L’architettura
  • Le API
  • L’RDD API
    • Concetto di RDD
    • Transformation & Actions
    • Pair RDD
    • Caching
  •  SQL API

Dataframe

Tabelle e Views

Utilizzo del linguaggio SQL

  •   Spark Machine Learning

Introduzione alle API

Estimators & transformers

Pipelines

Principali algoritmi

 

Partecipanti

Sviluppatori o per chi si approccia allo sviluppo software nel settore del trattamento dei dati.

Prerequisiti

È richiesta una buona conoscenza delle tecnologie IT più diffuse quali sistemi operativi, linguaggi di programmazione

Obiettivi

Al termine del corso, il partecipante avrà acquisito competenze riguardo concetti teorici, strumenti e tecniche per la progettazione e l’implementazione di procedure per l’analisi avanzata dei Big Data.

Lingue
Italiano
Vuoi ulteriori info?

Torna a trovarci per conoscere i nuovi Corsi inseriti

Oppure richiedi informazioni sul corso che ti interessa nella sezione Contatti

My Agile Privacy

Questo sito utilizza cookie tecnici e di profilazione. 

Puoi accettare, rifiutare o personalizzare i cookie premendo i pulsanti desiderati. 

Chiudendo questa informativa continuerai senza accettare.