Punteggio:
Attualmente non ci sono recensioni dei lettori. La valutazione si basa su 6 voti.
Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient
⬤ .
Capitolo 1: Iperparametri.
Obiettivo del capitolo: introdurre cosa sono gli iperparametri e come possono influenzare l'addestramento del modello. Dà anche un'idea di come l'iperparametro influisca sugli algoritmi generali di apprendimento automatico e di quale valore si debba scegliere in base al set di dati di addestramento. Sotto-argomenti1. Introduzione agli iperparametri. 2. Perché abbiamo bisogno di sintonizzare gli iperparametri3. Algoritmi specifici e relativi iperparametri4. Cheatsheet per decidere l'iperparametro di alcuni algoritmi specifici.
Capitolo 2: Sintonizzazione degli iperparametri a forza brutaObiettivo del capitolo: comprendere i metodi classici di sintonizzazione degli iperparametri comunemente utilizzati e implementarli da zero, nonché utilizzare la libreria Scikit-Learn per farlo. Sotto-argomenti: 1. Sintonizzazione degli iperparametri2. Metodi esaustivi di regolazione degli iperparametri3. Ricerca a griglia4. Ricerca casuale5. Valutazione dei modelli durante la regolazione degli iperparametri.
Capitolo 3: Ottimizzazione distribuita degli iperparametriObiettivo del capitolo: gestire insiemi di dati più grandi e un gran numero di iperparametri con spazi di ricerca continui usando algoritmi distribuiti e metodi di ottimizzazione distribuita degli iperparametri, utilizzando la libreria Dask. Sotto-argomenti: 1. Perché abbiamo bisogno di un tuning distribuito2. Dask dataframes3. Ricerca incrementaleCV.
Capitolo 4: Ottimizzazione globale basata su modelli sequenziali e i suoi metodi gerarchiciObiettivo del capitolo: un capitolo teorico dettagliato sui metodi SMBO, che utilizzano tecniche bayesiane per ottimizzare gli iperparametri. Imparano dall'iterazione precedente, a differenza della ricerca a griglia o della ricerca casuale. Sotto-argomenti: 1. Ottimizzazione globale basata su modelli sequenziali2. Approccio del processo gaussiano3. Stimatore di Parzen strutturato ad albero (TPE)
Capitolo 5: Utilizzo di HyperOptObiettivo del capitolo: un capitolo incentrato sulla libreria hyperopt che implementa l'algoritmo TPE discusso nell'ultimo capitolo. L'obiettivo è utilizzare l'algoritmo TPE per ottimizzare i parametri e far capire al lettore come sia migliore di altri metodi. Per parallelizzare le valutazioni si utilizzerà MongoDB. Discutere Hyperopt Scikit-Learn e Hyperas con esempi. 1. Definizione di una funzione obiettivo. 2. Creazione dello spazio di ricerca. 3. Esecuzione di HyperOpt. 4. Utilizzo di MongoDB Trials per effettuare valutazioni parallele. 5. HyperOpt SkLearn6. Hyperas.
Capitolo 6: Hyperparameter Generating Condition Generative Adversarial NeuralNetworks (HG-cGANs) e quindi Forth. Obiettivo del capitolo: si basa su un'ipotesi di come, in base a determinate proprietà dei dataset, si possano addestrare le reti neurali sui metadati e generare iperparametri per nuovi dataset. Riassume inoltre come questi nuovi metodi di regolazione degli iperparametri possano aiutare l'IA a svilupparsi ulteriormente. Sotto-argomenti: 1. Generazione di metadati2. Addestramento di HG-cGAN3. IA e regolazione degli iperparametri.
© Book1 Group - tutti i diritti riservati.
Il contenuto di questo sito non può essere copiato o utilizzato, né in parte né per intero, senza il permesso scritto del proprietario.
Ultima modifica: 2024.11.08 20:28 (GMT)