dc.contributor.advisor | Cali, Ümit | |
dc.contributor.author | Bolstad, Daniel Aunan | |
dc.date.accessioned | 2021-09-28T17:21:12Z | |
dc.date.available | 2021-09-28T17:21:12Z | |
dc.date.issued | 2021 | |
dc.identifier | no.ntnu:inspera:79782013:26414427 | |
dc.identifier.uri | https://hdl.handle.net/11250/2784243 | |
dc.description.abstract | Forbruksprognoser i elektriske kraftsystemer er viktige for flere aktører over mange forskjellige tidshorisonter. Prognoser laget med anvendelse av maskinlære eller dyp lære, har ved
flere anledninger vist seg å være mer nøyaktige enn konvensjonelle metoder, men er basert
på “black box”-modeller som ikke er praktisk mulig å forstå. Forklarbar kunstig intelligens
har som hensikt å gi innsyn i den underliggende modellen. Dette gir mulighet for videre
utvikling av modellen og økt tiltro til den produserte prognosen.
Oppgaven utforsker bruken av forklarbar kunstig intelligens for å forstå og forbedre kortsiktige forbruksprognoser laget med nevrale nettverk. En prognosemodell baser på et nevralt
nettverk ble laget for prisområdet, NO1. Shapley additive explanations ble brukt under
utvikling av modellen for utvalg av predikatorer og for å debugge modellen. Metoden ble
også brukt for å forstå enkelte prognoser som ble produsert under testing av den siste modellversjonen. Enkeltforklaringer av prognosene ble laget med metoden ved å bruke tidligere,
sammenlignbare prognoser som bakgrunnsdata. Under utvikling av modellene, førte forklaringene til økt nøyaktighet og bedre forståelse av modellene. Forklaringene som ble laget
under testing av den siste modellen var intuitive og ga ett inblikk i hva hva som førte til
prognosen.
Resultatene fra oppgaven antyder at forklarbar intelligens kan brukes til å forstå og forbedre
forbruksprognoser. Forklaringene er derimot avhengig av valg av bakgrunnsdata for å lage
intuitive forklaringer. Det kreves derfor mer forskning om implikasjonene rundt valg av
bakgrunnsdata før metoden kan bli tatt i bruk. | |
dc.description.abstract | Electrical load forecasts are used by a wide number of power system participants in multiple
time horizons, ranging from minutes ahead to several years ahead. Forecasts by machine
learning models offer very high accuracy, but are so-called black boxes and do not give any
reasoning for their decisions. Explainable artificial intelligence methods provide a means for
peeking inside the black box to understand the model better.
The goal of the thesis was to investigate how explainable artificial intelligence can be used
to interpret and improve electrical load forecasts made by a machine learning model. A
convolutional neural network for day-ahead load forecasting was developed for the Norwegian
price zone, NO1. The framework of Shapley additive explanations was used during model
development for feature selection and debugging purposes. This framework was also used
for explanations of selected forecasts made in testing of the final model. Local explanations
were made by, essentially, comparing the forecast in question to other similar days through
background data selection. During model development it was found that the explanations
led to increased model performance and understanding. Moreover, the explanations made
for the forecasts during testing proved to be intuitive and gave insight of the underlying
causes of the forecasts.
The findings of the thesis therefore suggest that explainable artificial intelligence methods
are well suited for electrical load forecasting models. However, the intuitiveness of the
explanations rely on using similar forecasts for comparison. More research is needed on the
implications of the choice of background data to make any conclusive statements. | |
dc.language | eng | |
dc.publisher | NTNU | |
dc.title | Interpretation of Electrical Load Forecasts using Explainable Artificial Intelligence | |
dc.type | Master thesis | |