X Hedging: An Explainable Artificial Intelligence Hedging Framework
Abstract
Vi utvikler et rammeverk for sikring (eng: hedging) av finansielle opsjoner. Rammeverket bruker nye metoder innen kunstig intelligens, er mulig å forklare, og tilpasselig til ulike markedsmodeller, markedsfriksjoner, og sikringsinstrument. Temaet som omhandler prising og sikring av finansielle opsjoner er omfattende studert i litteraturen. Nyere metoder bruker nevrale netts ferdigheter som omhandler å forbinde ikke-lineære forhold til å lage generelle og allsidige metoder. Dette kommer dog på bekostning av forklarbarheten (eng: explainability) til metoden. Vi foreslår et rammeverk for sikring som bruker gradientforsterkede beslutningstrær (eng: gradient boosted decision trees) til å øke forklarbarheten til de nyeste rammeverkene, uten reduksjon av ytelsen. X Hedging er validert i eksperimenter mot den velkjente opsjonsprisings- og sikringsmodellen av Black og Scholes [1973], og den nylige Deep Hedging-modellen utviklet av Bühler et al. [2019], hvor vi oppnår samme ytelse. Vi eksemplifiserer hvordan metoden til Shapley [1953] oppnår global forklaring for X Hedging og “black-box" sikringsmodeller som Deep Hedging. Deretter oppdager vi at den deriverte av det underliggende aktivumet påvirker det endelige resultatet sammen med størrelsen på den underliggende aktivumets verdi. Til slutt viser vi at X Hedging overholder de nylig foreslåtte retningslinjene og forskriftene knyttet til forklarbar kunstig intelligens (eng: Explainable Artificial Intelligence) gjennom lokal forklaring, noe som fremhever den praktiske anvendeligheten av sikringsrammeverket i bransjen. We develop a financial option hedging framework called X Hedging that utilises new Artificial Intelligence methods, is inherently explainable, and is adaptable to different market models, market frictions, and hedging instruments. The topic of pricing and hedging financial options is broadly studied in the financial literature. Recent methods use neural networks’ ability to map complex non-linear relationships to create general and versatile methods, however, at the expense of explainability. We propose a hedging framework that uses gradient boosted decision trees to increase the explainability of the state-of-the-art frameworks without sacrificing performance. X Hedging is validated in experiments against the well-known option pricing and hedging model by Black and Scholes [1973], and the recent Deep Hedging model by Bühler et al. [2019], achieving the same performance. We exemplify how the method by Shapley [1953] achieves global explainability for X Hedging and “black-box” hedging models such as Deep Hedging. Thereafter, we discover that the derivative change of the underlying asset influence the final profit and loss along with the magnitude of the underlying asset value. Finally, we show that X Hedging complies with the newly proposed guidelines and regulations related to Explainable Artificial Intelligence through local explainability, highlighting the practical usability of the hedging framework in the industry.