Show simple item record

dc.contributor.advisorCali, Ümit
dc.contributor.authorBolstad, Daniel Aunan
dc.date.accessioned2021-09-28T17:21:12Z
dc.date.available2021-09-28T17:21:12Z
dc.date.issued2021
dc.identifierno.ntnu:inspera:79782013:26414427
dc.identifier.urihttps://hdl.handle.net/11250/2784243
dc.description.abstractForbruksprognoser i elektriske kraftsystemer er viktige for flere aktører over mange forskjellige tidshorisonter. Prognoser laget med anvendelse av maskinlære eller dyp lære, har ved flere anledninger vist seg å være mer nøyaktige enn konvensjonelle metoder, men er basert på “black box”-modeller som ikke er praktisk mulig å forstå. Forklarbar kunstig intelligens har som hensikt å gi innsyn i den underliggende modellen. Dette gir mulighet for videre utvikling av modellen og økt tiltro til den produserte prognosen. Oppgaven utforsker bruken av forklarbar kunstig intelligens for å forstå og forbedre kortsiktige forbruksprognoser laget med nevrale nettverk. En prognosemodell baser på et nevralt nettverk ble laget for prisområdet, NO1. Shapley additive explanations ble brukt under utvikling av modellen for utvalg av predikatorer og for å debugge modellen. Metoden ble også brukt for å forstå enkelte prognoser som ble produsert under testing av den siste modellversjonen. Enkeltforklaringer av prognosene ble laget med metoden ved å bruke tidligere, sammenlignbare prognoser som bakgrunnsdata. Under utvikling av modellene, førte forklaringene til økt nøyaktighet og bedre forståelse av modellene. Forklaringene som ble laget under testing av den siste modellen var intuitive og ga ett inblikk i hva hva som førte til prognosen. Resultatene fra oppgaven antyder at forklarbar intelligens kan brukes til å forstå og forbedre forbruksprognoser. Forklaringene er derimot avhengig av valg av bakgrunnsdata for å lage intuitive forklaringer. Det kreves derfor mer forskning om implikasjonene rundt valg av bakgrunnsdata før metoden kan bli tatt i bruk.
dc.description.abstractElectrical load forecasts are used by a wide number of power system participants in multiple time horizons, ranging from minutes ahead to several years ahead. Forecasts by machine learning models offer very high accuracy, but are so-called black boxes and do not give any reasoning for their decisions. Explainable artificial intelligence methods provide a means for peeking inside the black box to understand the model better. The goal of the thesis was to investigate how explainable artificial intelligence can be used to interpret and improve electrical load forecasts made by a machine learning model. A convolutional neural network for day-ahead load forecasting was developed for the Norwegian price zone, NO1. The framework of Shapley additive explanations was used during model development for feature selection and debugging purposes. This framework was also used for explanations of selected forecasts made in testing of the final model. Local explanations were made by, essentially, comparing the forecast in question to other similar days through background data selection. During model development it was found that the explanations led to increased model performance and understanding. Moreover, the explanations made for the forecasts during testing proved to be intuitive and gave insight of the underlying causes of the forecasts. The findings of the thesis therefore suggest that explainable artificial intelligence methods are well suited for electrical load forecasting models. However, the intuitiveness of the explanations rely on using similar forecasts for comparison. More research is needed on the implications of the choice of background data to make any conclusive statements.
dc.languageeng
dc.publisherNTNU
dc.titleInterpretation of Electrical Load Forecasts using Explainable Artificial Intelligence
dc.typeMaster thesis


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record