Programma dinamico approssimativo

Punteggio:   (4,1 su 5)

Programma dinamico approssimativo (B. Powell Warren)

Recensioni dei lettori

Riepilogo:

Il libro fornisce un'introduzione chiara e leggibile all'apprendimento per rinforzo e alla programmazione dinamica, rendendolo adatto all'autoapprendimento. Spiega i concetti in modo efficace e offre buoni esempi. Tuttavia, alcuni lettori hanno notato problemi con la versione Kindle e la preferenza per una notazione diversa da quella di altri testi.

Vantaggi:

Spiegazioni molto leggibili e chiare
fornisce una buona panoramica dell'apprendimento per rinforzo e della programmazione dinamica
include esempi utili e suggerimenti per l'implementazione
ben adatto ai principianti.

Svantaggi:

Problemi con la formattazione della versione Kindle; la notazione differisce dalle opere di Bertsekas, il che può confondere alcuni lettori.

(basato su 7 recensioni dei lettori)

Titolo originale:

Approximate Dynamic Programmin

Contenuto del libro:

Elogio della prima edizione

"Finalmente un libro dedicato alla programmazione dinamica e scritto utilizzando il linguaggio della ricerca operativa (OR) Questo bel libro colma una lacuna nelle biblioteche degli specialisti e dei professionisti dell'OR".

-- Computing Reviews

Questa nuova edizione si concentra sulla modellazione e sul calcolo di classi complesse di problemi di programmazione dinamica approssimata.

La comprensione della programmazione dinamica approssimata (ADP) è fondamentale per sviluppare soluzioni pratiche e di alta qualità a problemi industriali complessi, in particolare quando questi problemi comportano la presa di decisioni in presenza di incertezza. Approximate Dynamic Programming, Second Edition integra in modo unico quattro discipline distinte - processi decisionali di Markov, programmazione matematica, simulazione e statistica - per dimostrare come affrontare, modellare e risolvere con successo un'ampia gamma di problemi reali utilizzando l'ADP.

Il libro continua a colmare il divario tra informatica, simulazione e ricerca operativa e ora adotta la notazione e il vocabolario dell'apprendimento per rinforzo, della ricerca stocastica e dell'ottimizzazione per simulazione. L'autore delinea gli algoritmi essenziali che servono come punto di partenza per la progettazione di soluzioni pratiche per problemi reali. Vengono introdotte le tre maledizioni della dimensionalità che hanno un impatto sui problemi complessi e viene fornita una copertura dettagliata delle sfide di implementazione. La seconda edizione presenta inoltre:

⬤ Un nuovo capitolo che descrive quattro classi fondamentali di politiche per lavorare con diversi problemi di ottimizzazione stocastica: politiche miopi, politiche look-ahead, approssimazioni di funzioni politiche e politiche basate su approssimazioni di funzioni di valore.

⬤ Un nuovo capitolo sulla ricerca di politiche che riunisce i concetti di ricerca stocastica e di ottimizzazione per simulazione e introduce una nuova classe di strategie di apprendimento ottimale.

⬤ Copertura aggiornata del problema di sfruttamento dell'esplorazione in ADP, che ora include un metodo di recente sviluppo per l'apprendimento attivo in presenza di uno stato fisico, utilizzando il concetto di gradiente di conoscenza.

⬤ Una nuova sequenza di capitoli che descrivono i metodi statistici per l'approssimazione delle funzioni di valore, la stima del valore di una politica fissa e l'approssimazione della funzione di valore durante la ricerca delle politiche ottimali.

La trattazione dell'ADP enfatizza i modelli e gli algoritmi, concentrandosi sulle relative applicazioni e sul calcolo e discutendo anche il lato teorico dell'argomento, che esplora le prove di convergenza e il tasso di convergenza. Un sito web correlato presenta una discussione continua sui campi in evoluzione della programmazione dinamica per approssimazione e dell'apprendimento per rinforzo, oltre a letture aggiuntive, software e set di dati.

Richiedendo solo una conoscenza di base della statistica e della probabilità, Approximate Dynamic Programming, Second Edition è un libro eccellente per i corsi di ingegneria industriale e di ricerca operativa a livello universitario e di laurea. È inoltre un valido riferimento per i ricercatori e i professionisti che utilizzano la programmazione dinamica, la programmazione stocastica e la teoria del controllo per risolvere i problemi nel loro lavoro quotidiano.

Altre informazioni sul libro:

ISBN:9780470604458
Autore:
Editore:
Rilegatura:Copertina rigida
Anno di pubblicazione:2011
Numero di pagine:656

Acquisto:

Attualmente disponibile, in magazzino.

Lo compro!

Altri libri dell'autore:

Programma dinamico approssimativo - Approximate Dynamic Programmin
Elogio della prima edizione "Finalmente un libro dedicato alla programmazione dinamica e scritto...
Programma dinamico approssimativo - Approximate Dynamic Programmin
Analisi e modellazione delle decisioni sequenziali: Modellazione con Python - Sequential Decision...
I problemi di decisione sequenziale si presentano...
Analisi e modellazione delle decisioni sequenziali: Modellazione con Python - Sequential Decision Analytics and Modeling: Modeling with Python
Un approccio moderno all'insegnamento dell'introduzione all'ottimizzazione - A Modern Approach to...
L'ottimizzazione dovrebbe essere la scienza di...
Un approccio moderno all'insegnamento dell'introduzione all'ottimizzazione - A Modern Approach to Teaching an Introduction to Optimization
Apprendimento per rinforzo e ottimizzazione stocastica: Un quadro unificato per le decisioni...
APPRENDIMENTO PER RINFORZO E OTTIMIZZAZIONE STOCASTICA...
Apprendimento per rinforzo e ottimizzazione stocastica: Un quadro unificato per le decisioni sequenziali - Reinforcement Learning and Stochastic Optimization: A Unified Framework for Sequential Decisions

Le opere dell'autore sono state pubblicate dai seguenti editori:

© Book1 Group - tutti i diritti riservati.
Il contenuto di questo sito non può essere copiato o utilizzato, né in parte né per intero, senza il permesso scritto del proprietario.
Ultima modifica: 2024.11.08 20:28 (GMT)