Show simple item record

dc.contributor.advisorBecker, Denis Mike
dc.contributor.authorStokvik, Filip Nystad
dc.date.accessioned2022-12-29T18:19:36Z
dc.date.available2022-12-29T18:19:36Z
dc.date.issued2022
dc.identifierno.ntnu:inspera:120782825:121869734
dc.identifier.urihttps://hdl.handle.net/11250/3039992
dc.descriptionFull text not available
dc.description.abstractFinansnæringen er til for å tjene penger på investeringer ved å allokere investeringsmidler der de er mest effektive. En investering er den nåværende forpliktelsen av penger i forventning om å høste fremtidig fortjeneste. Aksjehandelsstrategier spiller en kritisk rolle i investeringer. Det er imidlertid utfordrende å utforme en lønnsom strategi i et komplekst og dynamisk aksjemarked. Denne artikkelen foreslår seks forskjellige strategier som bruker deep reinfrocement learning for å lære en aksjehandelsstrategi ved å maksimere investeringsavkastningen. Denne artikkelen tester seks forskjellige state-of-the-art deep reinforcement learning algoritmer på S&P500-aksjene som har tilstrekkelig likviditet. Prestasjon på aksjehandelen med forskjellige deep reinforcement learning algoritmene blir evaluert og sammenlignet med både S&P500 og den tradisjonelle min-varians-porteføljeallokeringsstrategien. Advantage Actor Critic (A2C) er vist å overgå disse to respektive baselines når det gjelder den risikojusterte avkastningen målt ved Sharpe ratio.
dc.description.abstractThe financial industry exists to make profits from investments by allocating investment funds to where they are most effective. An investment is the current commitment of money in the expectation of reaping future profits. Stock trading strategies play a critical role in investment. However, it is challenging to design a profitable strategy in a complex and dynamic stock market. This paper proposes six different strategies that employ deep reinforcement to learn a stock trading strategy by maximising investment return. This paper test six different state-of-the-art deep reinforcement learning algorithms on the S&P500 stocks that have adequate liquidity. The performance of the trading agents with different deep reinforcement learning algorithms is evaluated and compared with both the S&P500 and the traditional min-variance portfolio allocation strategy. Advantage Actor Critic (A2C) is shown to outperform these two respective baselines in terms of the risk-adjusted return measured by the Sharpe ratio.
dc.languageeng
dc.publisherNTNU
dc.titleA Deep Reinforcement Learning Strategy for Automated Stock Trading in Quantitative Finance
dc.typeMaster thesis


Files in this item

FilesSizeFormatView

This item appears in the following Collection(s)

Show simple item record