Vis enkel innførsel

dc.contributor.advisorMartins, Thiago Guerrera
dc.contributor.authorMünter, Rasmus A. Wichstrøm
dc.date.accessioned2019-10-26T14:00:28Z
dc.date.available2019-10-26T14:00:28Z
dc.date.issued2019
dc.identifier.urihttp://hdl.handle.net/11250/2624598
dc.description.abstractI reinforcement learning kan bruk av bayesiske metoder føre til nesten optimale resultater på exploration-exploitation trade-off. For at disse metodene skal lykkes bør man ta hensyn til forholdet mellom forskjellige tilstander. Nyere forskning har vist at ved å forplante variansen mellom tilstandene er det mulig å forbedre dagens exploration-metoder. Denne oppgaven viser empirisk at det er mulig å implisitt forplante variansen mellom tilstandene med en lineær konjugat bayesisk regresjonsmodell. Videre er metoden utvidet til nevrale nettverk som viser at det er mulig å bruke denne metoden i mer komplekse miljøer. I den nåværende formen er den forplantede variansen imidlertid bare avhengig av handlingen, og ytterligere forskning er nødvendig for å utvide dette til en tilstandsavhengig varians.
dc.description.abstractIn reinforcement learning, using bayesian methods can lead to near optimal results on the exploration-exploitation trade-off. For these methods to be successful one should take into account the relationship between different states. Recent papers have shown that by propagating variance between states it is possible to improve on current exploration methods. This thesis empirically shows that it is possible to implicitly propagate variance between states with a linear conjugate prior regression model. Furthermore the method is extended to neural networks showing it is possible to use this variance propagation method in more complex environments. However, in it’s current form, the propagated variance is dependent only on the action and further research is required to extend this to a state-dependent variance.
dc.languageeng
dc.publisherNTNU
dc.titlePropagating Variance in Reinforcement Learning Using Bayesian Regression
dc.typeMaster thesis


Tilhørende fil(er)

FilerStørrelseFormatVis

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel