Interpretation of Electrical Load Forecasts using Explainable Artificial Intelligence
Master thesis
Permanent lenke
https://hdl.handle.net/11250/2784243Utgivelsesdato
2021Metadata
Vis full innførselSamlinger
- Institutt for elkraftteknikk [2573]
Sammendrag
Forbruksprognoser i elektriske kraftsystemer er viktige for flere aktører over mange forskjellige tidshorisonter. Prognoser laget med anvendelse av maskinlære eller dyp lære, har vedflere anledninger vist seg å være mer nøyaktige enn konvensjonelle metoder, men er basertpå “black box”-modeller som ikke er praktisk mulig å forstå. Forklarbar kunstig intelligenshar som hensikt å gi innsyn i den underliggende modellen. Dette gir mulighet for videreutvikling av modellen og økt tiltro til den produserte prognosen.
Oppgaven utforsker bruken av forklarbar kunstig intelligens for å forstå og forbedre kortsiktige forbruksprognoser laget med nevrale nettverk. En prognosemodell baser på et nevraltnettverk ble laget for prisområdet, NO1. Shapley additive explanations ble brukt underutvikling av modellen for utvalg av predikatorer og for å debugge modellen. Metoden bleogså brukt for å forstå enkelte prognoser som ble produsert under testing av den siste modellversjonen. Enkeltforklaringer av prognosene ble laget med metoden ved å bruke tidligere,sammenlignbare prognoser som bakgrunnsdata. Under utvikling av modellene, førte forklaringene til økt nøyaktighet og bedre forståelse av modellene. Forklaringene som ble lagetunder testing av den siste modellen var intuitive og ga ett inblikk i hva hva som førte tilprognosen.
Resultatene fra oppgaven antyder at forklarbar intelligens kan brukes til å forstå og forbedreforbruksprognoser. Forklaringene er derimot avhengig av valg av bakgrunnsdata for å lageintuitive forklaringer. Det kreves derfor mer forskning om implikasjonene rundt valg avbakgrunnsdata før metoden kan bli tatt i bruk. Electrical load forecasts are used by a wide number of power system participants in multipletime horizons, ranging from minutes ahead to several years ahead. Forecasts by machinelearning models offer very high accuracy, but are so-called black boxes and do not give anyreasoning for their decisions. Explainable artificial intelligence methods provide a means forpeeking inside the black box to understand the model better.
The goal of the thesis was to investigate how explainable artificial intelligence can be usedto interpret and improve electrical load forecasts made by a machine learning model. Aconvolutional neural network for day-ahead load forecasting was developed for the Norwegianprice zone, NO1. The framework of Shapley additive explanations was used during modeldevelopment for feature selection and debugging purposes. This framework was also usedfor explanations of selected forecasts made in testing of the final model. Local explanationswere made by, essentially, comparing the forecast in question to other similar days throughbackground data selection. During model development it was found that the explanationsled to increased model performance and understanding. Moreover, the explanations madefor the forecasts during testing proved to be intuitive and gave insight of the underlyingcauses of the forecasts.
The findings of the thesis therefore suggest that explainable artificial intelligence methodsare well suited for electrical load forecasting models. However, the intuitiveness of theexplanations rely on using similar forecasts for comparison. More research is needed on theimplications of the choice of background data to make any conclusive statements.