Para acceder a los documentos con el texto completo, por favor, siga el siguiente enlace: http://hdl.handle.net/2117/84681
dc.contributor | Universitat Politècnica de Catalunya. Departament de Ciències de la Computació |
---|---|
dc.contributor | Universitat Politècnica de Catalunya. KEMLG - Grup d'Enginyeria del Coneixement i Aprenentatge Automàtic |
dc.contributor.author | Esposito, Gennaro |
dc.contributor.author | Martín Muñoz, Mario |
dc.date | 2016 |
dc.identifier.citation | Esposito, G., Martin, M. Approximate policy iteration using regularized Bellman residuals minimization. "Journal of Experimental & Theoretical Artificial Intelligence", 2016, vol. 28, núm. 1-2, p. 3-12. |
dc.identifier.citation | 10.1080/0952813X.2015.1024494 |
dc.identifier.uri | http://hdl.handle.net/2117/84681 |
dc.language.iso | eng |
dc.publisher | Taylor & Francis |
dc.relation | http://www.tandfonline.com/doi/full/10.1080/0952813X.2015.1024494#.VS6nrJPcnv5 |
dc.rights | info:eu-repo/semantics/openAccess |
dc.subject | Àrees temàtiques de la UPC::Informàtica::Intel·ligència artificial |
dc.subject | Artificial intelligence |
dc.subject | Reinforcement Learning |
dc.subject | Support Vector Machine |
dc.subject | Approximate Policy Iteration |
dc.subject | Regularization |
dc.subject | Regression |
dc.subject | Intel·ligència artificial |
dc.title | Approximate policy iteration using regularized Bellman residuals minimization |
dc.type | info:eu-repo/semantics/submittedVersion |
dc.type | info:eu-repo/semantics/article |
dc.description.abstract | |
dc.description.abstract |