Imparare PySpark: Costruire applicazioni ad alta intensità di dati a livello locale e distribuirle su scala utilizzando i poteri combinati di Python e Spark 2.0

Punteggio:   (4,0 su 5)

Imparare PySpark: Costruire applicazioni ad alta intensità di dati a livello locale e distribuirle su scala utilizzando i poteri combinati di Python e Spark 2.0 (Denny Lee)

Recensioni dei lettori

Riepilogo:

Il libro su Spark e PySpark offre una comprensione introduttiva di vari argomenti, ma manca di profondità e completezza negli esempi, portando spesso a un'esperienza frustrante per i lettori. Se da un lato fornisce un'ampia panoramica adatta ai neofiti, dall'altro richiede ulteriori risorse e sforzi per colmare le lacune.

Vantaggi:

Tono amichevole e ottimo per i neofiti di Spark.
Copre un'ampia gamma di argomenti, tra cui le strutture dati e l'apprendimento automatico.
Contiene codici di esempio che possono aiutare nell'apprendimento.
Buon punto di partenza per comprendere i concetti di base.

Svantaggi:

Gli esempi sono spesso incompleti o richiedono risorse esterne per essere compresi appieno, rendendo difficile l'utilizzo come guida autonoma.
Mancanza di profondità nelle discussioni; molti argomenti sono trattati solo superficialmente.
Gli esempi di codice non funzionano subito e mancano del contesto necessario.
La scarsa organizzazione e l'impaginazione di alcune sezioni rendono difficile la lettura.
In generale viene percepito come affrettato o privo di una struttura coerente.

(basato su 10 recensioni dei lettori)

Titolo originale:

Learning PySpark: Build data-intensive applications locally and deploy at scale using the combined powers of Python and Spark 2.0

Contenuto del libro:

Creare applicazioni ad alta intensità di dati in locale e distribuirle su scala utilizzando le potenzialità combinate di Python e Spark 2. 0 Informazioni su questo libro - Scoprite perché e come potete utilizzare in modo efficiente Python per elaborare i dati e costruire modelli di apprendimento automatico in Apache Spark 2.

0 - Sviluppate e implementate soluzioni Spark efficienti e scalabili in tempo reale. 0 - Sviluppare e distribuire soluzioni Spark efficienti e scalabili in tempo reale - Portare la vostra comprensione dell'uso di Spark con Python a un livello superiore con questa guida introduttiva A chi è rivolto questo libro Se siete uno sviluppatore Python che vuole conoscere l'ecosistema Apache Spark 2. 0, questo libro fa per voi.

0, questo libro è per voi.

Per trarre il meglio dal libro è necessaria una solida conoscenza di Python. La familiarità con Spark sarebbe utile, ma non è obbligatoria.

Cosa imparerete - Conoscere Apache Spark e l'architettura Spark 2. 0 - Costruire e interagire con Spark. 0 - Costruire e interagire con Spark DataFrames usando Spark SQL - Imparare a risolvere problemi di grafi e deep learning usando rispettivamente GraphFrames e TensorFrames - Leggere, trasformare e comprendere i dati e usarli per addestrare modelli di machine learning - Costruire modelli di machine learning con MLlib e ML - Imparare a inviare le applicazioni in modo programmatico usando spark-submit - Distribuire le applicazioni costruite localmente in un cluster In dettaglio Apache Spark è un framework open source per un efficiente cluster computing con una forte interfaccia per il parallelismo dei dati e la tolleranza agli errori.

Questo libro vi mostrerà come sfruttare la potenza di Python e metterla al servizio dell'ecosistema Spark. Inizierete con una solida conoscenza dell'architettura di Spark 2. 0 e di come impostare un ambiente Python per Spark.

0 e come impostare un ambiente Python per Spark. Prenderete confidenza con i moduli disponibili in PySpark.

Imparerete ad astrarre i dati con RDD e DataFrames e a comprendere le capacità di streaming di PySpark. Inoltre, si otterrà una panoramica completa delle capacità di apprendimento automatico di PySpark utilizzando ML e MLlib, l'elaborazione di grafi utilizzando GraphFrames e la persistenza poliglotta utilizzando Blaze. Infine, imparerete a distribuire le vostre applicazioni nel cloud utilizzando il comando spark-submit.

Alla fine di questo libro, avrete acquisito una solida conoscenza dell'API Spark Python e di come può essere utilizzata per creare applicazioni ad alta intensità di dati.

Stile e approccio Questo libro adotta un approccio molto completo, passo dopo passo, in modo da comprendere come l'ecosistema Spark possa essere utilizzato con Python per sviluppare soluzioni efficienti e scalabili. Ogni capitolo è a sé stante ed è scritto in modo molto semplice da capire, con un'attenzione particolare al come e al perché di ogni concetto.

Altre informazioni sul libro:

ISBN:9781786463708
Autore:
Editore:
Rilegatura:Copertina morbida

Acquisto:

Attualmente disponibile, in magazzino.

Lo compro!

Altri libri dell'autore:

Imparare PySpark: Costruire applicazioni ad alta intensità di dati a livello locale e distribuirle...
Creare applicazioni ad alta intensità di dati in...
Imparare PySpark: Costruire applicazioni ad alta intensità di dati a livello locale e distribuirle su scala utilizzando i poteri combinati di Python e Spark 2.0 - Learning PySpark: Build data-intensive applications locally and deploy at scale using the combined powers of Python and Spark 2.0

Le opere dell'autore sono state pubblicate dai seguenti editori:

© Book1 Group - tutti i diritti riservati.
Il contenuto di questo sito non può essere copiato o utilizzato, né in parte né per intero, senza il permesso scritto del proprietario.
Ultima modifica: 2024.11.08 20:28 (GMT)